KR20190118946A - System and method for providing editable visual object based on schema - Google Patents

System and method for providing editable visual object based on schema Download PDF

Info

Publication number
KR20190118946A
KR20190118946A KR1020180140363A KR20180140363A KR20190118946A KR 20190118946 A KR20190118946 A KR 20190118946A KR 1020180140363 A KR1020180140363 A KR 1020180140363A KR 20180140363 A KR20180140363 A KR 20180140363A KR 20190118946 A KR20190118946 A KR 20190118946A
Authority
KR
South Korea
Prior art keywords
editable
video object
type
image
image object
Prior art date
Application number
KR1020180140363A
Other languages
Korean (ko)
Inventor
주상현
Original Assignee
(주)엠포러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엠포러스 filed Critical (주)엠포러스
Publication of KR20190118946A publication Critical patent/KR20190118946A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Abstract

The present invention provides a system and a method for providing an editable image object based on a schema which automatically edit an editable image object based on user information. According to an embodiment of the present invention, the method for providing an editable image object based on a schema comprises: a step of constructing an image object database where a plurality of editable image objects are matched to a plurality of image object IDs to be stored on memories included in a user terminal and a target terminal; a step of responding to a user input made on a user interface provided by the user terminal to edit one editable image object among the plurality of editable image objects stored in the image object database included in the user terminal; a step of extracting an image object ID corresponding to the one editable image object from the image object database included in the user terminal as the one editable image object is edited, and acquiring editing information in which the one editable image object is edited; a step of transferring the image object ID and the editing information to the target terminal; a step of extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; and a step of applying the editing information to the extracted editable image object to supply the editing information to the target terminal.

Description

스키마 기반의 편집형 영상 객체 제공 방법 및 시스템{SYSTEM AND METHOD FOR PROVIDING EDITABLE VISUAL OBJECT BASED ON SCHEMA}Scheme-based method and system for providing editable image objects {SYSTEM AND METHOD FOR PROVIDING EDITABLE VISUAL OBJECT BASED ON SCHEMA}

아래의 설명은 스키마 기반의 편집형 영상 객체 제공 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 사용자의 감성을 반영하여 편집형 영상 객체를 편집하고, 대상 단말로 제공하는 기술에 대한 것이다.The following description relates to a schema-based editable video object providing system and a method thereof, and more particularly, to a technology for editing an edited video object based on a user's emotion and providing the same to a target terminal.

스크린 골프, 4D 영화관, 가상 피팅 시스템 또는 온라인 메신저 등에서 널리 사용되고 있는 이모티콘, 플래시콘 또는 아바타(이하, 이모티콘, 플래시콘 또는 아바타를 영상 객체(Visual Object)로 기재함)는 가상 세계에 국한되지 않고, 실세계의 캐릭터로 구현됨으로써, 오프라인까지 확대 사용되고 있는 실정이다.Emoticons, flash cones or avatars (hereinafter referred to as emoticons, flash cones or avatars as Visual Objects), which are widely used in screen golf, 4D cinemas, virtual fitting systems or online messengers, are not limited to the virtual world. By being implemented as a character, the situation is being extended to offline.

이러한 영상 객체는 사용자 단말에 설치된 어플리케이션과 대상 단말에 설치된 어플리케이션 사이에서 제공되기 때문에, 어플리케이션이 지원하는 영상 객체의 전송 용량 및 전송 속도 등의 한계로 인하여, 편집이 불가능한 단점이 있다. 또한, 영상 객체는 편집이 불가능하므로, 사용자가 원하는 표현을 세밀하고 자유롭게 표현할 수 없는 단점을 갖는다.Since the video object is provided between an application installed in the user terminal and an application installed in the target terminal, editing is not possible due to limitations such as transmission capacity and transmission speed of the image object supported by the application. In addition, since the image object is not editable, there is a disadvantage in that the expression desired by the user cannot be expressed in detail and freely.

이에, 아래의 실시예들은 단말의 어플리케이션이 지원하는 전송 용량 및 전송 속도의 제약 아래, 사용자의 감성을 반영하도록 편집 가능한 영상 객체를 제공(생성, 전송 및 재생)하는 기술을 제안한다.Accordingly, the following embodiments propose a technique for providing (creating, transmitting and playing) an image object that can be edited to reflect the user's emotion, under the constraints of the transmission capacity and the transmission speed supported by the application of the terminal.

일 실시예들은 편집형 영상 객체를 XML 형태의 스키마로 설계하고, 대상 단말로 전달하는 과정에서 BiM(MPEG Binary Format) 기법을 이용함으로써, 사용자 단말 및 대상 단말이 지원하는 송수신 용량 및 송수신 속도의 제약 아래, 편집 가능한 영상 객체를 제공하는 방법 및 시스템을 제안한다.According to an embodiment of the present invention, an editable video object is designed in an XML format and a MPEG Binary Format (BiM) technique is used in a process of delivering the edited video object to the target terminal, thereby limiting transmission / reception capacity and transmission / reception speed supported by the user terminal and the target terminal. Below, we propose a method and system for providing an editable image object.

구체적으로, 일 실시예들은 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한 채, 사용자 단말에서 편집형 영상 객체를 편집함에 응답하여, 사용자 단말 및 대상 단말 사이에서 영상 객체 아이디 및 편집 정보만을 송수신함으로써, 사용자 단말 및 대상 단말에 편집형 영상 객체 서비스를 제공하는 방법 및 시스템을 제안한다.Specifically, in an embodiment, a user constructs and maintains an image object database in which a plurality of editable image objects are respectively matched and stored with a plurality of image object IDs on a memory included in each of the user terminal and the target terminal. In response to editing an editable video object in a terminal, a method and system for providing an editable video object service to a user terminal and a target terminal by transmitting and receiving only the video object ID and the edit information between the user terminal and the target terminal.

이 때, 일 실시예들은 사용자 수동 편집 입력에 응답하여 편집형 영상 객체를 편집하거나, 사용자의 정보를 기초로 자동으로 편집형 영상 객체를 편집하는 방법 및 시스템을 제안한다.At this time, one embodiment proposes a method and system for editing an editable video object in response to a user manual edit input or automatically editing the editable video object based on user information.

또한, 일 실시예들은 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체가 사용자 단말로부터 대상 단말로 전달되는 과정 및/또는 대상 단말에서 재생되는 과정에서, 대상 단말이 지원하는 재생 방식을 고려하는 방법 및 시스템을 제안한다.In addition, embodiments of the present disclosure may consider a playback method supported by a target terminal in a process in which a reproduced video object generated by editing an editable image object is transferred from a user terminal to a target terminal and / or played in the target terminal. We propose a method and system.

일 실시예에 따르면, 스키마 기반의 편집형 영상 객체 제공 방법은, 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는 단계; 상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계; 상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계; 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계; 상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는 단계; 및 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계를 포함한다.According to an embodiment, the schema-based editing type video object providing method includes an image in which a plurality of editing type video objects are matched with a plurality of image object IDs and stored on a memory included in each of a user terminal and a target terminal. Building and maintaining an object database; In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information; Transmitting the image object ID and the edit information to the target terminal; Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And applying the edit information to the extracted editable video object and providing the edited information to the target terminal.

일측에 따르면, 상기 복수의 편집형 영상 객체들 및 상기 복수의 영상 객체 아이디들은, XML 형태의 스키마로 설계될 수 있다.According to one side, the plurality of editable image objects and the plurality of image object IDs, can be designed in a schema of XML format.

또 다른 일측에 따르면, 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계는, BiM(MPEG Binary Format) 기법을 기반으로 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계일 수 있다.According to another aspect of the present invention, the transmitting of the video object ID and the editing information to the target terminal comprises: transmitting the video object ID and the editing information to the target terminal based on a MPEG Binary Format (BiM) technique. Can be.

또 다른 일측에 따르면, 상기 복수의 편집형 영상 객체들 각각은, 상기 복수의 편집형 영상 객체들 각각의 표정, 동작, 상태 또는 환경 중 적어도 하나를 나타내는 적어도 하나의 엘리멘트를 포함하고, 상기 영상 객체 데이터베이스를 구축 및 유지하는 단계는, 상기 적어도 하나의 엘리멘트를 적어도 하나의 엘리멘트 아이디와 각각 매칭하여 상기 영상 객체 데이터베이스에 저장 및 유지하는 단계를 포함할 수 있다.According to another aspect of the present invention, each of the plurality of editable image objects includes at least one element representing at least one of an expression, an action, a state, or an environment of each of the plurality of editable image objects, and the image object The establishing and maintaining of the database may include storing and maintaining the at least one element with the at least one element ID, respectively, in the image object database.

또 다른 일측에 따르면, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는, 상기 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택하는 단계; 및 상기 선택된 엘리멘트에 기초하여 상기 어느 하나의 편집형 영상 객체를 변경하는 단계를 포함하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계는, 상기 영상 객체 데이터베이스로부터 상기 선택된 엘리멘트에 대응하는 엘리멘트 아이디를 추출하는 단계; 및 상기 추출된 엘리멘트 아이디를 상기 편집 정보로 획득하는 단계를 포함할 수 있다.According to another aspect, the editing of any one of the edited image object of the plurality of editable image object stored in the image object database included in the user terminal, is included in the one edited image object Selecting any one element; And changing the one edited video object based on the selected element, wherein acquiring the edited information edited by the one edited video object comprises: selecting the selected element from the video object database. Extracting an element ID corresponding to the ID; And acquiring the extracted element ID as the edit information.

또 다른 일측에 따르면, 상기 선택된 엘리멘트에 기초하여 상기 어느 하나의 편집형 영상 객체를 변경하는 단계는, 상기 어느 하나의 편집형 영상 객체를 변경하여 재생형 영상 객체를 생성하는 단계; 및 상기 사용자 단말이 지원하는 재생 방식에 기초하여 상기 사용자 단말에 상기 재생형 영상 객체를 재생하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, the changing of the one edited video object based on the selected element comprises: generating a playable video object by changing the one edited video object; And reproducing the reproducible video object on the user terminal based on a reproduction scheme supported by the user terminal.

또 다른 일측에 따르면, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는, 상기 사용자 인터페이스 상에서 발생되는 영상 객체 자동 생성 입력에 응답하여, 상기 사용자 단말을 사용하는 사용자의 위치 정보, 환경 정보, 신체 센싱 정보, 스케줄 정보 또는 영상 객체 사용 히스토리 정보 중 적어도 하나의 정보를 획득하는 단계; 및 상기 획득된 적어도 하나의 정보에 기초하여 상기 복수의 편집형 영상 객체들 중 상기 어느 하나의 편집형 영상 객체를 선택하고 편집하는 단계를 포함할 수 있다.According to another aspect of the present invention, the editing of any one of the editable video object of the plurality of editable video objects stored in the video object database included in the user terminal, automatic image input generated on the user interface In response to obtaining at least one of location information, environment information, body sensing information, schedule information, or image object usage history information of a user who uses the user terminal; And selecting and editing any one of the plurality of editable image objects based on the obtained at least one information.

또 다른 일측에 따르면, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는, 상기 사용자 인터페이스 상에서 발생되는 사용자 수동 편집 입력에 응답하여, 상기 복수의 편집형 영상 객체들 중 상기 어느 하나의 편집형 영상 객체를 선택하고 편집하는 단계를 포함할 수 있다.According to another aspect, the editing of any one of the edited video object of the plurality of editable video object stored in the video object database included in the user terminal, the user manual editing input generated on the user interface In response, the method may include selecting and editing any one of the plurality of editable image objects.

또 다른 일측에 따르면, 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계는, 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 재생형 영상 객체를 생성하는 단계; 및 상기 재생형 영상 객체를 상기 대상 단말로 제공하는 단계를 포함할 수 있다.According to another aspect, the step of applying the editing information to the extracted editable video object to provide to the target terminal, by applying the edit information to the extracted editable video object to generate a playable video object step; And providing the playback type video object to the target terminal.

또 다른 일측에 따르면, 상기 재생형 영상 객체를 상기 대상 단말로 제공하는 단계는, 상기 대상 단말이 지원하는 재생 방식에 기초하여 상기 대상 단말에 상기 재생형 영상 객체를 재생하는 단계를 포함할 수 있다.According to another aspect, the providing of the playback type video object to the target terminal may include playing the playback type video object on the target terminal based on a playback method supported by the target terminal. .

일 실시예에 따르면, 스키마 기반의 편집형 영상 객체 제공 방법을 실행시키기 위해 컴퓨터로 읽을 수 있는 매체에 저장된 컴퓨터 프로그램에 있어서, 상기 편집형 영상 객체 제공 방법은, 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는 단계; 상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계; 상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계; 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계; 상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는 단계; 및 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계를 포함한다.According to an embodiment, in a computer program stored in a computer readable medium for executing a schema-based editable video object providing method, the editable video object providing method is included in each of a user terminal and a target terminal. Constructing and maintaining a video object database in which a plurality of editable video objects are respectively matched and stored with a plurality of video object IDs in a memory; In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information; Transmitting the image object ID and the edit information to the target terminal; Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And applying the edit information to the extracted editable video object and providing the edited information to the target terminal.

일 실시예에 따르면, 스키마 기반의 편집형 영상 객체 제공 서버는, 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는, 영상 객체 데이터베이스 구축/유지부; 상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는, 영상 객체 편집부; 상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는, 아이디 추출/편집 정보 획득부; 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는, 전달부; 상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는, 영상 객체 추출부; 및 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는, 영상 객체 제공부를 포함한다.According to an embodiment, the schema-based editable video object providing server may include an image in which a plurality of editable video objects are matched with a plurality of video object IDs and stored on a memory included in each of a user terminal and a target terminal. An image object database construction / maintenance unit for constructing and maintaining an object database; In response to a user input generated on a user interface provided by the user terminal, an image object of any one of the plurality of editable image objects stored in the image object database included in the user terminal; editorial department; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is An ID extracting / editing information obtaining unit for obtaining the edited editing information; A transmission unit for transmitting the image object ID and the edit information to the target terminal; A video object extracting unit for extracting an editable video object corresponding to the video object ID from the video object database included in the target terminal; And an image object providing unit applying the edit information to the extracted editable image object and providing the edited image object to the target terminal.

일측에 따르면, 상기 복수의 편집형 영상 객체들 및 상기 복수의 영상 객체 아이디들은, XML 형태의 스키마로 설계될 수 있다.According to one side, the plurality of editable image objects and the plurality of image object IDs, can be designed in a schema of XML format.

또 다른 일측에 따르면, 상기 전달부는, BiM(MPEG Binary Format) 기법을 기반으로 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달할 수 있다.According to another aspect, the transfer unit may transmit the image object ID and the edit information to the target terminal based on a MPEG Binary Format (Bim) technique.

일 실시예에 따르면, 스키마 기반의 편집형 영상 객체 제공 시스템은, 사용자 단말; 대상 단말; 및 편집형 영상 객체 제공 서버를 포함하고, 상기 편집형 영상 객체 제공 서버는, 상기 사용자 단말 및 상기 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는, 영상 객체 데이터베이스 구축/유지부; 상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는, 영상 객체 편집부; 상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는, 아이디 추출/편집 정보 획득부; 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는, 전달부; 상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는, 영상 객체 추출부; 및 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는, 영상 객체 제공부를 포함한다.According to one embodiment, a schema-based editing image object providing system, the user terminal; Target terminal; And an editable video object providing server, wherein the editable video object providing server includes a plurality of editable video objects corresponding to a plurality of video object IDs on a memory included in each of the user terminal and the target terminal. A video object database construction / maintenance unit for constructing and maintaining a video object database that is matched and stored; In response to a user input generated on a user interface provided by the user terminal, an image object of any one of the plurality of editable image objects stored in the image object database included in the user terminal; editorial department; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is An ID extracting / editing information obtaining unit for obtaining the edited editing information; A transmission unit for transmitting the image object ID and the edit information to the target terminal; A video object extracting unit for extracting an editable video object corresponding to the video object ID from the video object database included in the target terminal; And an image object providing unit applying the edit information to the extracted editable image object and providing the edited image object to the target terminal.

일 실시예들은 편집형 영상 객체를 XML 형태의 스키마로 설계하고, 대상 단말로 전달하는 과정에서 BiM(MPEG Binary Format) 기법을 이용함으로써, 사용자 단말 및 대상 단말이 지원하는 송수신 용량 및 송수신 속도의 제약 아래, 편집 가능한 영상 객체를 제공하는 방법 및 시스템을 제안할 수 있다.According to an embodiment of the present invention, an editable video object is designed in an XML format and a MPEG Binary Format (BiM) technique is used in a process of delivering the edited video object to the target terminal, thereby limiting transmission / reception capacity and transmission / reception speed supported by the user terminal and the target terminal. Below, a method and system for providing an editable image object may be proposed.

구체적으로, 일 실시예들은 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한 채, 사용자 단말에서 편집형 영상 객체를 편집함에 응답하여, 사용자 단말 및 대상 단말 사이에서 영상 객체 아이디 및 편집 정보만을 송수신함으로써, 사용자 단말 및 대상 단말에 편집형 영상 객체 서비스를 제공하는 방법 및 시스템을 제안할 수 있다.Specifically, in an embodiment, a user constructs and maintains an image object database in which a plurality of editable image objects are respectively matched and stored with a plurality of image object IDs on a memory included in each of the user terminal and the target terminal. In response to editing the editable video object in the terminal, a method and system for providing an editable video object service to the user terminal and the target terminal by transmitting and receiving only the video object ID and the edit information between the user terminal and the target terminal can be proposed. have.

이 때, 일 실시예들은 사용자 수동 편집 입력에 응답하여 편집형 영상 객체를 편집하거나, 사용자의 정보를 기초로 자동으로 편집형 영상 객체를 편집하는 방법 및 시스템을 제안할 수 있다.In this case, one embodiment may propose a method and system for editing an editable video object in response to a user manual editing input or automatically editing the editable video object based on user information.

또한, 일 실시예들은 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체가 사용자 단말로부터 대상 단말로 전달되는 과정 및/또는 대상 단말에서 재생되는 과정에서, 대상 단말이 지원하는 재생 방식을 고려하는 방법 및 시스템을 제안할 수 있다.In addition, embodiments of the present disclosure may consider a playback method supported by a target terminal in a process in which a reproduced video object generated by editing an editable image object is transferred from a user terminal to a target terminal and / or played in the target terminal. Methods and systems can be proposed.

도 1은 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 시스템을 나타낸 도면이다.
도 2는 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 서버의 구성을 설명하기 위한 블록도이다.
도 3은 일 실시예에 따른 영상 객체 데이터베이스를 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 대상 단말로 편집형 영상 객체를 제공하기 위한 사용자 단말과 대상 단말 사이의 데이터 전달 과정을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 편집형 영상 객체를 편집하는 과정을 설명하기 위한 도면이다.
도 6은 다른 일 실시예에 따른 편집형 영상 객체를 편집하는 과정을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공하는 과정을 설명하기 위한 도면이다.
도 8은 다른 일 실시예에 따른 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공하는 과정을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 방법을 나타낸 플로우 차트이다.
1 is a diagram illustrating a schema-based editing type video object providing system according to an exemplary embodiment.
2 is a block diagram illustrating a configuration of a schema-based editable video object providing server according to an exemplary embodiment.
3 is a diagram for describing an image object database, according to an exemplary embodiment.
4 is a diagram illustrating a data transfer process between a user terminal and a target terminal for providing an editable video object to a target terminal according to an exemplary embodiment.
5 is a diagram for describing a process of editing an editable image object, according to an exemplary embodiment.
6 is a diagram for describing a process of editing an editable image object, according to another exemplary embodiment.
FIG. 7 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to an exemplary embodiment.
8 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to another exemplary embodiment.
9 is a flowchart illustrating a method of providing a schema-based editable video object, according to an exemplary embodiment.

이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the embodiments. Also, like reference numerals in the drawings denote like elements.

또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Also, the terminology used herein is a term used to properly express a preferred embodiment of the present invention, which may vary depending on a viewer, an operator's intention, or customs in the field to which the present invention belongs. Therefore, the definitions of the terms should be made based on the contents throughout the specification.

도 1은 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 시스템을 나타낸 도면이다.1 is a diagram illustrating a schema-based editing type video object providing system according to an exemplary embodiment.

도 1을 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 시스템(100)은 편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140)을 포함한 채, 네트워크(120)를 통하여 편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140)을 서로 연결함으로써, 편집형 영상 객체 서비스를 사용자 단말(130) 및 대상 단말(140)로 제공한다.Referring to FIG. 1, an editable video object providing system 100 according to an embodiment includes a network 120 including an editable video object providing server 110, a user terminal 130, and a target terminal 140. By connecting the editable video object providing server 110, the user terminal 130, and the target terminal 140 to each other, the editable video object service is provided to the user terminal 130 and the target terminal 140.

이하, 편집형 영상 객체 서비스는 사용자 단말(130)이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여 어느 하나의 편집형 영상 객체를 편집하고, 편집된 어느 하나의 편집형 영상 객체를 대상 단말로 제공하는 서비스를 의미한다. 이러한 편집형 영상 객체 서비스는, 사용자 단말(130)의 사용자가 대상 단말(140)로 편집형 영상 객체를 전송하고자 하는 요청에 의하여 제공될 수 있다. 또한, 이하, 편집형 영상 객체는 이모티콘, 플래시콘 또는 아바타와 같이, 정지 이미지와 정지 이미지의 움직임이 결합된 컨텐츠 데이터를 의미한다.Hereinafter, the editable video object service edits any edited video object in response to a user input generated on the user interface provided by the user terminal 130, and converts the edited video object to the target terminal. Means the service provided. Such an editable video object service may be provided by a request of a user of the user terminal 130 to transmit an editable video object to the target terminal 140. In addition, hereinafter, the editable video object refers to content data in which a still image and a motion of a still image are combined, such as an emoticon, a flash cone, or an avatar.

사용자 단말(130) 및 대상 단말(140) 각각은 PC, 노트북, 스마트폰(smart phone), 태블릿(tablet), 웨어러블 컴퓨터(wearable computer) 등으로, 편집형 영상 객체 제공 시스템(100)의 편집형 영상 객체 서비스를 위하여, 편집형 영상 객체 서비스와 관련된 웹/모바일 사이트의 접속 또는 전용 어플리케이션의 설치 및 실행이 가능한 모든 단말 장치를 의미할 수 있다. 이에, 사용자 단말(130) 및 대상 단말(140) 각각은 웹/모바일 사이트 또는 전용 어플리케이션의 제어 하에 서비스 화면 구성, 데이터 입력/출력, 데이터 송수신, 데이터 저장 등 서비스 전반의 동작을 수행할 수 있다.Each of the user terminal 130 and the target terminal 140 is a PC, a notebook computer, a smart phone, a tablet, a wearable computer, or the like, and is an editable type of the editable video object providing system 100. For the image object service, this may mean all terminal devices capable of accessing a web / mobile site related to the editable image object service or installing and executing a dedicated application. Thus, each of the user terminal 130 and the target terminal 140 may perform overall service operations such as service screen configuration, data input / output, data transmission and reception, and data storage under the control of a web / mobile site or a dedicated application.

도면에는 사용자 단말(130) 및 대상 단말(140) 각각이 스마트폰인 경우로 도시되었으나, 이에 제한되거나 한정되지 않고, 편집형 영상 객체를 편집하거나, 재생할 수 있는 다양한 기기일 수 있다. 특히, 대상 단말(140)로는, 사용자 단말(130)에서 편집형 영상 객체가 편집되어 생성되는 재생형 영상 객체가 재생될 수 있는 인형, 팔찌, 시계, 펜던트 등의 기기가 사용될 수 있다.In the drawing, although each of the user terminal 130 and the target terminal 140 is a smartphone, the present invention is not limited thereto, and the present invention is not limited thereto, and may be various devices capable of editing or reproducing an editable image object. In particular, the target terminal 140 may be a device such as a doll, a bracelet, a watch, a pendant, etc., in which a reproducible image object generated by editing an editable image object in the user terminal 130 may be reproduced.

이하, 사용자 단말(130)은 실질적으로 사용자 단말(130)을 사용하는 '사용자'를 의미할 수 있으며, 대상 단말(140)은 실질적으로 대상 단말(140)을 사용하는 '사용자'를 의미할 수 있다.Hereinafter, the user terminal 130 may substantially mean 'user' using the user terminal 130, and the target terminal 140 may substantially mean 'user' using the target terminal 140. have.

편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140)은 네트워크(120)를 통하여 데이터를 송수신할 수 있다.The editable video object providing server 110, the user terminal 130, and the target terminal 140 may transmit and receive data through the network 120.

여기서, 네트워크(120)는 데이터 프로세싱 시스템들, 컴퓨터들, 서버들, 각종 장치들 간의 통신 링크들을 제공하는데 사용되는 매체일 수 있다. 네트워크(120)는 편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140)이 서로 통신하기 위하여 TCP/IP(transmission control protocol internet protocol) 프로토콜 스위트(suite of protocols)를 사용하는 네트워크들 및 게이트웨이들의 월드 와이드 컬렉션을 나타낼 수 있다. 일부 예들에서, 네트워크(120)는 인트라넷, LAN(local area network) 또는 WAN(wide area network)을 포함하거나 또는 그 일부일 수 있다. 또한, 일부 예들에서, 네트워크(120)는 인터넷의 일부일 수 있다.Here, network 120 may be a medium used to provide communication links between data processing systems, computers, servers, and various devices. The network 120 uses a transmission control protocol internet protocol (TCP / IP) suite of protocols for the editable video object providing server 110, the user terminal 130, and the target terminal 140 to communicate with each other. To represent a world wide collection of networks and gateways. In some examples, network 120 may include or be an intranet, a local area network (LAN), or a wide area network (WAN). Also, in some examples, network 120 may be part of the Internet.

편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140) 사이의 통신 방식은 제한되지 않으며, 네트워크(120)가 포함할 수 있는 통신망을 활용하는 통신 방식뿐만 아니라, 기기들간의 근거리 무선 통신 역시 포함할 수 있다. 예를 들어, 네트워크(120)는 PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(120)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method between the editable image object providing server 110, the user terminal 130, and the target terminal 140 is not limited, and a communication method utilizing a communication network that the network 120 may include, as well as between devices. The short range wireless communication may also include. For example, the network 120 may include a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), a broadband network (BBN), One or more of networks such as the Internet. In addition, the network 120 may include any one or more of network topologies including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree, or a hierarchical network. It is not limited.

편집형 영상 객체 제공 서버(110)는 편집형 영상 객체 서비스를 사용자 단말(130) 및 대상 단말(140)로 제공하는 주체로서, 사용자 단말(130) 및 대상 단말(140)과 네트워크(120)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.The editable video object providing server 110 is a subject that provides an editable video object service to the user terminal 130 and the target terminal 140. The editable video object providing server 110 provides a user terminal 130, a target terminal 140, and a network 120. It may be implemented as a computer device or a plurality of computer devices that communicate through and provide commands, codes, files, contents, services, and the like.

이 때, 편집형 영상 객체 제공 서버(110)는 편집형 영상 객체 서비스를 제공하는 서버의 플랫폼에 포함되는 형태로 구현되어, 클라이언트(client)인 사용자 단말(130) 및 대상 단말(140)로 편집형 영상 객체 서비스를 제공할 수 있다. 그러나 이에 제한되거나, 한정되지 않고, 편집형 영상 객체 제공 서버(110)는 적어도 일부의 구성 요소 또는 전체의 구성 요소가 사용자 단말(130) 및 대상 단말(140) 상에 설치되는 전용 어플리케이션의 형태로 구현되거나, 혹은 클라이언트-서버 환경에서 서비스를 제공하는 플랫폼에 포함되는 형태로 구현되는 것 또한 가능하다.In this case, the editable video object providing server 110 is implemented in a form included in the platform of the server providing the editable video object service, and is edited by the client terminal 130 and the target terminal 140. Type video object service can be provided. However, the present disclosure is not limited thereto, and the editable video object providing server 110 may be configured in the form of a dedicated application in which at least some components or all components are installed on the user terminal 130 and the target terminal 140. It may also be implemented as a form of inclusion in a platform that provides services in a client-server environment.

이와 같은 편집형 영상 객체 제공 서버(110)는 사용자 단말(130) 및 대상 단말(140) 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한 채, 사용자 단말(130)에서 편집형 영상 객체를 편집함에 응답하여, 사용자 단말(130) 및 대상 단말(140) 사이에서 영상 객체 아이디 및 편집 정보만을 송수신함으로써, 사용자 단말(130) 및 대상 단말(140)에 편집형 영상 객체 서비스를 제공한다. 이에 대한 상세한 설명은 도 2를 참조하여 기재하기로 한다.The editable video object providing server 110 stores a plurality of editable video objects that are matched with a plurality of video object IDs on a memory included in each of the user terminal 130 and the target terminal 140. In response to editing the editable video object in the user terminal 130 while building and maintaining the video object database, only the video object ID and the editing information are transmitted and received between the user terminal 130 and the target terminal 140. The terminal 130 and the target terminal 140 provide an editable video object service. Detailed description thereof will be described with reference to FIG. 2.

특히, 편집형 영상 객체 제공 서버(110)는 사용자 단말(130) 및 대상 단말(140) 각각에 포함되는 메모리 상에 구축 및 유지되는 영상 객체 데이터베이스를 XML 형태의 스키마로 설계하고(영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체들을 XML 형태의 스키마로 설계함), 사용자 단말(130) 및 대상 단말(140) 사이에서 영상 객체 아이디 및 편집 정보를 BiM(MPEG Binary Format) 기법을 기반으로 송수신함으로써, 사용자 단말(130) 및 대상 단말(140)이 지원하는 송수신 용량 및 송수신 속도의 제약 아래, 편집 가능한 영상 객체를 제공할 수 있다. 이에 대한 상세한 설명은 도 3 내지 4를 참조하여 기재하기로 한다.In particular, the editable video object providing server 110 designs an image object database constructed and maintained on a memory included in each of the user terminal 130 and the target terminal 140 in a schema of XML format (in the image object database). By designating a plurality of stored editable image objects in an XML format), by transmitting and receiving image object ID and edit information between the user terminal 130 and the target terminal 140 based on the MPEG Binary Format (Bim) technique, An editable image object may be provided under constraints of transmission / reception capacity and transmission / reception rate supported by the user terminal 130 and the target terminal 140. Detailed description thereof will be described with reference to FIGS. 3 to 4.

도 2는 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 서버의 구성을 설명하기 위한 블록도이다.2 is a block diagram illustrating a configuration of a schema-based editable video object providing server according to an exemplary embodiment.

도 2를 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버(200)는 도 1을 참조하여 상술된 편집형 영상 객체 제공 시스템에 포함되는 것으로, 프로세서(210), 버스(220), 네트워크 인터페이스(230), 메모리(240) 및 데이터베이스(250)를 포함할 수 있다. 메모리(240)는 운영체제(241) 및 서비스 제공 루틴(242)를 포함할 수 있다. 프로세서(210)는 영상 객체 데이터베이스 구축/유지부(211), 영상 객체 편집부(212), 아이디 추출/편집 정보 획득부(213), 전달부(214), 영상 객체 추출부(215) 및 영상 객체 제공부(216)를 포함한다. 다른 실시예들에서 편집형 영상 객체 제공 서버(200)는 도면에 도시된 구성요소들보다 더 많은 구성요소들 또는 더 적은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 편집형 영상 객체 제공 서버(200)는 디스플레이나 트랜시버(transceiver)와 같은 다른 구성요소들을 포함할 수도 있다.Referring to FIG. 2, the editable video object providing server 200 according to an embodiment is included in the editable video object providing system described above with reference to FIG. 1, and includes a processor 210, a bus 220, and a network. It may include an interface 230, a memory 240, and a database 250. The memory 240 may include an operating system 241 and a service providing routine 242. The processor 210 is an image object database construction / maintenance unit 211, an image object editing unit 212, an ID extraction / editing information acquisition unit 213, a transfer unit 214, an image object extraction unit 215, and an image object. It includes a providing unit 216. In other embodiments, the editable image object providing server 200 may include more components or fewer components than the components shown in the drawing. However, it is not necessary to clearly show most of the prior art components. For example, the editable image object providing server 200 may include other components such as a display or a transceiver.

메모리(240)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(240)에는 운영체제(241)와 서비스 제공 루틴(242)을 위한 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리(240)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스(230)를 통해 메모리(240)에 로딩될 수도 있다.The memory 240 is a computer-readable recording medium and may include a permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive. In addition, the memory 240 may store program codes for the operating system 241 and the service providing routine 242. These software components may be loaded from a computer readable recording medium separate from the memory 240 using a drive mechanism (not shown). Such a separate computer-readable recording medium may include a computer-readable recording medium (not shown) such as a floppy drive, a disk, a tape, a DVD / CD-ROM drive, a memory card, and the like. In other embodiments, the software components may be loaded into the memory 240 via the network interface 230 rather than the computer readable recording medium.

버스(220)는 편집형 영상 객체 제공 서버(200)의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스(220)는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.The bus 220 may enable communication and data transmission between components of the editable video object providing server 200. The bus 220 may be configured using a high-speed serial bus, a parallel bus, a storage area network and / or other suitable communication technology.

네트워크 인터페이스(230)는 편집형 영상 객체 제공 서버(200)를 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성요소일 수 있다. 네트워크 인터페이스(230)는, 이더넷 카드와 같은 네트워크 인터페이스 카드, 광학 송수신기, 무선 주파수 송수신기, 혹은 정보를 송수신할 수 있는 임의의 다른 타입의 디바이스일 수 있다. 이러한 네트워크 인터페이스들의 다른 예들은 모바일 컴퓨팅 디바이스들 및 USB 내의 블루투스(Bluetooth), 저전력 광역 통신망, 3G 및 WiFi 등을 포함하는 무선기기일 수 있다. 일부 예들에서, 컴퓨팅 디바이스는, 서버, 모바일 폰, 혹은 다른 네트워크화된 컴퓨팅 디바이스와 같은 외부 디바이스와 무선으로 통신하기 위해 네트워크 인터페이스(230)를 사용할 수 있다. 특히, 네트워크 인터페이스(230)는 편집형 영상 객체 제공 서버(200)를 네트워크를 통해 사용자 단말 및 대상 단말과 연결시킬 수 있다.The network interface 230 may be a computer hardware component for connecting the editable video object providing server 200 to a computer network. The network interface 230 may be a network interface card such as an Ethernet card, an optical transceiver, a radio frequency transceiver, or any other type of device capable of transmitting and receiving information. Other examples of such network interfaces may be mobile computing devices and wireless devices including Bluetooth in USB, low power wide area networks, 3G and WiFi, and the like. In some examples, computing device may use network interface 230 to wirelessly communicate with an external device, such as a server, mobile phone, or other networked computing device. In particular, the network interface 230 may connect the editable video object providing server 200 to a user terminal and a target terminal through a network.

데이터베이스(250)는 편집형 영상 객체 서비스를 제공하기 위한 데이터를 저장 및 유지하는 역할을 할 수 있다. 예를 들어, 데이터베이스(250)에는 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장될 수 있다. 따라서, 데이터베이스(250)는 도 3을 참조하여 후술되는 사용자 단말 및 대상 단말 각각의 메모리 상에 영상 객체 데이터베이스를 구축 및/또는 업데이트하는 과정에서 이용될 수 있다.The database 250 may serve to store and maintain data for providing an editable video object service. For example, the plurality of editable image objects may be matched with the plurality of image object IDs and stored in the database 250. Therefore, the database 250 may be used in the process of constructing and / or updating the image object database on the memory of each of the user terminal and the target terminal described below with reference to FIG. 3.

도면에서는, 편집형 영상 객체 제공 서버(200)의 내부에 데이터베이스(250)를 구축하여 포함하는 것으로 도시하고 있으나, 이에 한정되는 것은 아니며 시스템 구현 방식이나 환경 등에 따라 생략될 수 있고 혹은 전체 또는 일부의 데이터베이스가 별개의 다른 시스템 상에 구축된 외부 데이터베이스로서 존재하는 것 또한 가능하다.In the drawing, although the database 250 is built and included in the editable video object providing server 200, the present invention is not limited thereto and may be omitted according to a system implementation method or environment, or may be omitted in whole or in part. It is also possible for the database to exist as an external database built on a separate, different system.

프로세서(210)는 기본적인 산술, 로직 및 편집형 영상 객체 제공 서버(200)의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(240) 또는 네트워크 인터페이스(230)에 의해, 그리고 버스(220)를 통해 프로세서(210)로 제공될 수 있다. 프로세서(210)는 영상 객체 데이터베이스 구축/유지부(211), 영상 객체 편집부(212), 아이디 추출/편집 정보 획득부(213), 전달부(214), 영상 객체 추출부(215) 및 영상 객체 제공부(216)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리(240)와 같은 기록 장치에 저장될 수 있다.The processor 210 may be configured to process instructions of a computer program by performing input / output operations of the basic arithmetic, logic, and editable image object providing server 200. The instructions may be provided to the processor 210 by the memory 240 or the network interface 230 and via the bus 220. The processor 210 is an image object database construction / maintenance unit 211, an image object editing unit 212, an ID extraction / editing information acquisition unit 213, a transfer unit 214, an image object extraction unit 215, and an image object. It can be configured to execute the program code for the provider 216. Such program code may be stored in a recording device such as memory 240.

영상 객체 데이터베이스 구축/유지부(211)는 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한다.The image object database construction / maintenance unit 211 constructs and maintains an image object database in which a plurality of editable image objects are matched with a plurality of image object IDs and stored on a memory included in each of the user terminal and the target terminal. do.

여기서, 복수의 편집형 영상 객체들 각각은 편집형 영상 객체 이미지를 포함한다. 따라서, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매치되어 저장된다는 것은, 복수의 편집형 영상 객체 이미지들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 것을 의미한다.Here, each of the plurality of editable video objects includes an editable video object image. Accordingly, the plurality of editable video object images are matched and stored with the plurality of video object IDs, respectively, and the plurality of editable video object images are matched with the plurality of video object IDs, respectively.

또한, 복수의 편집형 영상 객체들 각각은 편집형 영상 객체(편집형 영상 객체 이미지)의 표정, 동작, 상태 또는 환경 중 적어도 하나를 나타내는 엘리멘트를 포함할 수 있다. 따라서, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장된다는 것은, 복수의 엘리멘트들이 복수의 엘리멘트 아이디들과 각각 매칭되어 저장되는 것을 의미할 수 있다.Each of the plurality of editable video objects may include an element representing at least one of an expression, an action, a state, or an environment of the editable video object (the edited video object image). Accordingly, the plurality of editable image objects may be matched and stored with the plurality of image object IDs, respectively, and may mean that the plurality of elements are matched with the plurality of element IDs and stored.

즉, 영상 객체 데이터베이스 구축/유지부(211)는 복수의 편집형 영상 객체 이미지들을 복수의 영상 객체 아이디들과 각각 매칭하여 저장하고, 복수의 엘리멘트들을 복수의 엘리멘트 아이디들과 각각 매칭하여 저장함으로써, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지할 수 있다.That is, the image object database construction / maintenance unit 211 stores the plurality of editable image object images by matching each of the plurality of image object IDs and stores the plurality of elements by matching each of the plurality of element IDs. A video object database in which a plurality of editable image objects are matched with and stored in a plurality of image object IDs may be constructed and maintained.

특히, 영상 객체 데이터베이스 구축/유지부(211)는 복수의 편집형 영상 객체들 및 복수의 영상 객체 아이디들을 XML 형태의 스키마로 설계함으로써, 복수의 편집형 영상 객체들 및 복수의 영상 객체 아이디들이 각각 매칭되어 저장되는 영상 객체 데이터베이스를 저용량으로 구축 및 유지할 수 있다. 마찬가지로, 복수의 엘리멘트들 및 복수의 엘리멘트 아이디들 역시 XML 형태의 스키마로 설계될 수 있다.In particular, the image object database construction / maintenance unit 211 designs a plurality of editable image objects and a plurality of image object IDs in an XML format, so that the plurality of editable image objects and the plurality of image object IDs are respectively. The image object database that is matched and stored can be constructed and maintained at low capacity. Similarly, the plurality of elements and the plurality of element IDs may also be designed in an XML format schema.

이와 같이, 영상 객체 데이터베이스 구축/유지부(211)는 복수의 편집형 영상 객체들 및 복수의 영상 객체 아이디들을 XML 형태의 스키마로 설계함으로써, 후술되는 전달부(214)가 영상 객체 아이디 및 편집 정보를 대상 단말로 전달함에 있어, BiM 기법을 이용하도록 하여 전송 용량을 최소화하고 전송 속도를 극대화하도록 할 수 있다. 이에 대한 상세한 설명은 도 3 내지 4를 참조하여 기재하기로 한다.As such, the image object database construction / maintenance unit 211 designs a plurality of editable image objects and a plurality of image object IDs in an XML format, so that the transmission unit 214, which will be described later, is used for the image object ID and editing information. In transmitting to the target terminal, it is possible to use the BiM technique to minimize the transmission capacity and maximize the transmission speed. Detailed description thereof will be described with reference to FIGS. 3 to 4.

또한, 영상 객체 데이터베이스 구축/유지부(211)는 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에 구축 및 유지되는 영상 객체 데이터베이스를 업데이트할 수도 있다.In addition, the image object database construction / maintenance unit 211 may update the image object database constructed and maintained on a memory included in each of the user terminal and the target terminal.

영상 객체 편집부(212)는 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집한다.The image object editing unit 212 edits any one of the plurality of editable image objects stored in the image object database included in the user terminal in response to a user input generated on the user interface provided by the user terminal. do.

구체적으로, 영상 객체 편집부(212)는 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고, 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택한 뒤, 선택된 엘리멘트에 기초하여 어느 하나의 편집형 영상 객체를 변경하여 편집할 수 있다.In detail, the image object editing unit 212 may edit an image of any one of a plurality of editable image objects stored in an image object database included in the user terminal in response to a user input generated on a user interface provided by the user terminal. After selecting an object and selecting one element included in one editable image object, the editable image object may be changed and edited based on the selected element.

이 때, 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하는 것은, 복수의 편집형 영상 객체 이미지들 중 어느 하나의 편집형 영상 객체 이미지를 선택하는 것을 의미할 수 있다. 이에, 영상 객체 편집부(212)는 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체 이미지들 중 어느 하나의 편집형 영상 객체 이미지를 선택하고, 어느 하나의 편집형 영상 객체 이미지와 연관된 복수의 엘리멘트들(선택된 어느 하나의 편집형 영상 객체에 포함되는 복수의 엘리멘트들) 중 어느 하나의 엘리멘트를 선택할 수 있다. 따라서, 영상 객체 편집부(212)는 선택된 어느 하나의 엘리멘트가 나타내는 표정, 동작, 상태 또는 환경 중 적어도 하나를 선택된 어느 하나의 편집형 영상 객체 이미지에 반영함으로써, 어느 하나의 편집형 영상 객체를 변경, 편집하여 재생형 영상 객체를 생성할 수 있다.In this case, selecting one of the plurality of editable image objects may mean selecting one of the plurality of editable image object images. Accordingly, the image object editing unit 212 selects any one of the editable image object images among the plurality of editable image object images stored in the image object database included in the user terminal, and is associated with any one of the editable image object images. One of a plurality of elements (a plurality of elements included in one selected editable image object) may be selected. Accordingly, the image object editing unit 212 changes at least one editable image object by reflecting at least one of an expression, an operation, a state, or an environment indicated by any one selected element in the selected image object. You can edit to create a playable video object.

여기서, 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하는 것과 선택된 어느 하나의 편집형 영상 객체에 포함되는 복수의 엘리멘트들 중 어느 하나의 엘리멘트를 선택하는 것은, 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 수동 편집 입력에 응답하여 수동으로 수행되거나, 사용자 인터페이스 상에서 발생되는 영상 객체 자동 생성 입력에 응답하여 자동으로 수행될 수 있다. 이에 대한 상세한 설명은 도 5 및 6을 참조하여 기재하기로 한다.Here, selecting one of the plurality of editable video objects and selecting one of the elements included in the selected one of the edited video objects is provided by the user terminal. The image may be manually performed in response to a user manual edit input generated on the user interface, or may be automatically performed in response to an image object automatic generation input generated on the user interface. Detailed description thereof will be described with reference to FIGS. 5 and 6.

또한, 영상 객체 편집부(212)는 어느 하나의 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체를 사용자 단말 상에서 재생함으로써, 사용자 단말의 사용자가 편집형 영상 객체의 편집 결과를 확인하도록 할 수 있다.In addition, the image object editing unit 212 may play back the reproduced image object generated by editing one of the editable image objects on the user terminal, so that the user of the user terminal may confirm the editing result of the editable image object. .

아이디 추출/편집 정보 획득부(213)는 영상 객체 편집부(212)에 의해 어느 하나의 편집형 영상 객체가 편집됨에 따라, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득한다. 이 때, 편집 정보는 편집형 영상 객체가 편집 및 변경되어 재생형 영상 객체로 생성됨에 있어서, 편집형 영상 객체가 어떻게 편집 및 변경되는가를 나타내는 정보로, 영상 객체 아이디와 마찬가지로 XML 형태의 스키마로 설계될 수 있다.The ID extracting / editing information obtaining unit 213 corresponds to any one editable video object from the video object database included in the user terminal as any edited video object is edited by the video object editing unit 212. The video object ID is extracted, and the edited edit information of any one editable video object is obtained. In this case, the edit information is information indicating how the editable video object is edited and changed when the editable video object is edited and changed to generate a playable video object. Like the video object ID, the edited information is designed as an XML schema. Can be.

구체적으로, 아이디 추출/편집 정보 획득부(213)는 영상 객체 편집부(212)가 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 편집형 영상 객체를 선택함에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출한 뒤, 영상 객체 편집부(212)가 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택함에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 엘리멘트에 대응하는 엘리멘트 아이디를 추출하고, 추출된 엘리멘트 아이디를 편집 정보로 획득할 수 있다.In detail, the ID extracting / editing information obtaining unit 213 responds to the image object editing unit 212 selecting one of the editable image objects from the image object database included in the user terminal, and the image object included in the user terminal. After extracting the video object ID corresponding to one of the editable video objects from the database, the video object editor 212 is included in the user terminal in response to selecting one element included in one of the edited video objects. An element ID corresponding to any one element may be extracted from the image object database, and the extracted element ID may be obtained as edit information.

즉, 어느 하나의 편집형 영상 객체가 편집된 편집 정보는, 영상 객체 편집부(212)에서 선택한 어느 하나의 엘리멘트에 대응하는 엘리멘트 아이디일 수 있다.That is, the edit information in which any editable video object is edited may be an element ID corresponding to any one element selected by the video object editing unit 212.

상술한 영상 객체 편집부(212) 및 아이디 추출/편집 정보 획득부(213) 각각의 동작은, 사용자 단말에 포함되는 메모리 상에 구축 및 유지되는 영상 객체 데이터베이스를 기반으로 수행되기 때문에, 영상 객체 편집부(212) 및 아이디 추출/편집 정보 획득부(213) 각각은 사용자 단말의 메모리에 접근할 수 있는 권한을 가질 수 있으며, 영상 객체 편집부(212) 및 아이디 추출/편집 정보 획득부(213) 각각의 일부 동작은 영상 객체 편집부(212) 및 아이디 추출/편집 정보 획득부(213) 각각의 제어에 따라 사용자 단말의 프로세서가 실행의 주체가 되어 수행될 수 있다.Since the operations of each of the above-described image object editing unit 212 and the ID extracting / editing information obtaining unit 213 are performed based on the image object database constructed and maintained on the memory included in the user terminal, the image object editing unit ( 212) and each of the ID extracting / editing information obtaining unit 213 may have a right to access a memory of the user terminal, and a part of each of the image object editing unit 212 and the ID extracting / editing information obtaining unit 213. The operation may be performed by the processor of the user terminal as the subject of execution under the control of each of the image object editing unit 212 and the ID extracting / editing information obtaining unit 213.

전달부(214)는 아이디 추출/편집 정보 획득부(213)에서 추출된 영상 객체 아이디 및 획득된 편집 정보를 대상 단말로 전달한다. 여기서, 영상 객체 아이디 및 편집 정보는 XML 형태의 스키마로 설계되어 있기 때문에, 전달부(214)는 BiM 기법을 기반으로 영상 객체 아이디 및 편집 정보를 대상 단말로 전송함으로써, 전송 용량을 최소화하고, 전송 속도를 극대화할 수 있다.The transfer unit 214 transfers the image object ID extracted from the ID extracting / editing information obtaining unit 213 and the obtained edited information to the target terminal. Here, since the video object ID and the edit information are designed in the form of XML, the transmission unit 214 transmits the video object ID and the edit information to the target terminal based on the BiM scheme, thereby minimizing the transmission capacity and transmitting the You can maximize speed.

또한, 전달부(214)는 대상 단말이 지원하는 재생 방식을 고려하여, 영상 객체 아이디 및 편집 정보를 대상 단말로 전달할 수도 있다. 예를 들어, 대상 단말이 재생형 영상 객체를 사운드 방식으로만 재생하는 것을 지원하는 기기인 경우, 전달부(214)는 편집 정보 중 사운드 방식의 재생과 관련된 일부 정보만을 대상 단말로 전달할 수도 있다. 따라서, 전달부(214)는 사용자 단말과 대상 단말 사이의 데이터 전송 용량을 최소화함으로써, 데이터 전송 속도를 극대화할 수 있다.In addition, the transfer unit 214 may transfer the video object ID and the edit information to the target terminal in consideration of a reproduction scheme supported by the target terminal. For example, when the target terminal is a device that supports reproducing the reproducible video object only in a sound system, the delivery unit 214 may transmit only some information related to the reproduction of the sound system to the target terminal. Therefore, the transmission unit 214 may maximize the data transmission speed by minimizing the data transmission capacity between the user terminal and the target terminal.

영상 객체 추출부(215)는 전달부(214)가 영상 객체 아이디 및 편집 정보를 대상 단말로 전달함에 응답하여, 대상 단말에 포함되는 영상 객체 데이터베이스로부터 해당 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출한다. 이 때, 대상 단말에 포함되는 영상 객체 데이터베이스는 사용자 단말에 포함되는 영상 객체 데이터베이스와 동일한 데이터를 포함하는 동일한 데이터베이스이기 때문에, 대상 단말에 포함되는 영상 객체 데이터베이스 상에서 해당 영상 객체 아이디에 대응하는 편집형 영상 객체는, 아이디 추출/편집 정보 획득부(213)가 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 해당 영상 객체 아이디를 추출할 때 이용한 편집형 영상 객체(사용자 단말에서 편집된 편집형 영상 객체)와 동일한 것일 수 있다.The image object extractor 215 transmits the editable image object corresponding to the image object ID from the image object database included in the target terminal in response to the delivery unit 214 transmitting the image object ID and the edit information to the target terminal. Extract. In this case, since the image object database included in the target terminal is the same database including the same data as the image object database included in the user terminal, the editable image corresponding to the corresponding image object ID on the image object database included in the target terminal. The object may be the same as the editable video object (editable video object edited by the user terminal) used by the ID extracting / editing information obtaining unit 213 to extract the corresponding video object ID from the video object database included in the user terminal. Can be.

여기서, 영상 객체 추출부(215)가 추출한 편집형 영상 객체는 편집형 영상 객체의 이미지를 포함하기 때문에, 영상 객체 제공부(216)는, 영상 객체 추출부(215)에서 추출된 편집형 영상 객체(정확하게는, 편집형 영상 객체 이미지)에 편집 정보(전달부(214)에서 전달된 편집 정보)를 적용함으로써, 사용자 단말에서 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체와 동일한 재생형 영상 객체를 생성한 뒤, 대상 단말로 제공할 수 있다.Here, since the editable video object extracted by the video object extractor 215 includes an image of the editable video object, the video object providing unit 216 extracts the editable video object extracted by the video object extractor 215. By applying the edit information (the edit information transmitted from the delivery unit 214) to the (correctly, the editable video object image), the reproduced video identical to the reproduced video object generated by editing the edited video object in the user terminal. After the object is created, it may be provided to the target terminal.

이 때, 영상 객체 추출부(215)는 대상 단말이 지원하는 재생 방식에 기초하여 대상 단말에 재생형 영상 객체를 재생할 수 있다. 이에 대한 상세한 설명은 도 7 내지 8을 참조하여 기재하기로 한다.In this case, the video object extractor 215 may play back the playback type video object on the target terminal based on the playback scheme supported by the target terminal. Detailed description thereof will be described with reference to FIGS. 7 to 8.

상술한 영상 객체 추출부(215) 및 영상 객체 제공부(216) 각각의 동작은, 대상 단말에 포함되는 메모리 상에 구축 및 유지되는 영상 객체 데이터베이스를 기반으로 수행되기 때문에, 영상 객체 추출부(215) 및 영상 객체 제공부(216) 각각은 대상 단말의 메모리에 접근할 수 있는 권한을 가질 수 있으며, 영상 객체 추출부(215) 및 영상 객체 제공부(216) 각각의 일부 동작은 영상 객체 추출부(215) 및 영상 객체 제공부(216) 각각의 제어에 따라 대상 단말의 프로세서가 실행의 주체가 되어 수행될 수 있다.Since the operations of the above-described image object extracting unit 215 and the image object providing unit 216 are performed based on the image object database constructed and maintained on the memory included in the target terminal, the image object extracting unit 215 ) And the image object providing unit 216 may have a right to access the memory of the target terminal, and some operations of the image object extracting unit 215 and the image object providing unit 216 may be performed by the image object extracting unit. The processor of the target terminal may be executed as the subject of execution under the control of each of the control unit 215 and the image object providing unit 216.

이상, 편집형 영상 객체 제공 서버(200)가 프로세서(210), 버스(220), 네트워크 인터페이스(230), 메모리(240) 및 데이터베이스(250)를 포함하는 경우로 설명하였으나, 이에 제한되거나 한정되지 않고, 프로세서(210)의 핵심 구성부들(영상 객체 데이터베이스 구축/유지부(211), 영상 객체 편집부(212), 아이디 추출/편집 정보 획득부(213), 전달부(214), 영상 객체 추출부(215) 및 영상 객체 제공부(216))만을 포함할 수도 있다.As described above, the editable image object providing server 200 includes the processor 210, the bus 220, the network interface 230, the memory 240, and the database 250, but is not limited thereto. Core components of the processor 210 (image object database construction / maintenance unit 211, image object editing unit 212, ID extraction / editing information acquisition unit 213, transfer unit 214, image object extraction unit) 215 and the image object providing unit 216 may be included only.

도 3은 일 실시예에 따른 영상 객체 데이터베이스를 설명하기 위한 도면이다.3 is a diagram for describing an image object database, according to an exemplary embodiment.

도 3을 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 영상 객체 데이터베이스(300)를 구축 및 유지할 수 있다.Referring to FIG. 3, an editable video object providing server according to an embodiment may build and maintain an image object database 300 on a memory included in each of a user terminal and a target terminal.

구체적으로, 편집형 영상 객체 제공 서버는 복수의 편집형 영상 객체들(320, 330)을 복수의 영상 객체 아이디들(310)과 각각 매칭하여 저장함으로써, 영상 객체 데이터베이스(300)를 구축할 수 있다.In detail, the editable video object providing server may construct the video object database 300 by matching and storing the plurality of editable video objects 320 and 330 with the plurality of video object IDs 310, respectively. .

이 때, 복수의 편집형 영상 객체들(320, 330) 각각은 편집형 영상 객체 이미지(정지 이미지)(320)를 포함하고, 편집형 영상 객체 이미지(320)와 연관된 복수의 엘리멘트들(330)을 포함하기 때문에, 편집형 영상 객체 제공 서버는 복수의 편집형 영상 객체 이미지들(320)을 복수의 영상 객체 아이디들(310)과 각각 매칭하여 저장하고, 복수의 편집형 영상 객체 이미지들(320) 각각과 연관된 복수의 엘리멘트들(330)을 복수의 엘리멘트 아이디들(340)과 각각 매칭하여 저장함으로써, 영상 객체 데이터베이스(300)를 구축할 수 있다.In this case, each of the plurality of editable image objects 320 and 330 includes an editable image object image (still image) 320 and a plurality of elements 330 associated with the editable image object image 320. Since the editable video object providing server stores the plurality of editable video object images 320 by matching each of the plurality of video object IDs 310 and stores the plurality of editable video object images 320, respectively. ) The image object database 300 may be constructed by matching and storing the plurality of elements 330 associated with each element with the plurality of element IDs 340, respectively.

여기서, 복수의 엘리멘트들(330) 각각은, 정지 이미지인 복수의 편집형 영상 객체 이미지들(320) 각각의 표정, 동작, 상태 또는 환경 중 적어도 어느 하나를 나타내는 데이터를 의미한다.Here, each of the plurality of elements 330 means data representing at least one of an expression, an operation, a state, or an environment of each of the plurality of editable image object images 320 which are still images.

예를 들어, 편집형 영상 객체 제공 서버는 '사람'의 정지 이미지를 나타내는 제1 편집형 영상 객체 이미지를 제1 영상 객체 아이디 '001'에 매칭하여 저장한 뒤, 제1 편집형 영상 객체 이미지와 연관된 '웃음'의 표정을 나타내는 제1-1 엘리멘트를 제1-1 엘리멘트 아이디 '001'에 매칭하여 저장하고, 제1 편집형 영상 객체 이미지와 연관된 '울음'의 표정을 나타내는 제1-2 엘리멘트를 제1-2 엘리멘트 아이디 '002'에 매칭하여 저장하며, 제1 편집형 영상 객체 이미지와 연관된 '화남'의 표정을 나타내는 제1-3 엘리멘트를 제1-3 엘리멘트 아이디 '003'에 매칭하여 저장할 수 있다. 여기서, 제1-1 엘리멘트, 제1-2 엘리멘트 및 제1-3 엘리멘트는 제1 편집형 영상 객체 이미지와도 매칭되어 연관 저장될 수 있다.For example, the editable video object providing server stores the first editable video object image representing a still image of a person by matching the first video object ID '001' and then stores the first edited video object image. A first-first element representing an associated 'laugh' expression and storing the first-first element corresponding to the first-first element ID '001' and storing the first-second element representing the expression of 'cry' associated with the first edited image object image. To store the first and second element ID '002', and match the first and third elements representing the expression of 'angry' associated with the first editable image object image to the first and second element ID '003'. Can be stored. Here, the first-first element, the first-second element, and the first-third element may be matched with and stored in the first editable image object image.

이와 같이 영상 객체 데이터베이스(300)에 저장되는 복수의 영상 객체 아이디들(310), 복수의 편집형 영상 객체 이미지들(320), 복수의 엘리멘트들(330) 및 복수의 엘리멘트 아이디들(340)은 모두 XML 형태의 스키마로 설계될 수 있다. 따라서, 영상 객체 데이터베이스(300) 자체는 XML 형태의 스키마를 지원하는 데이터베이스로, XML 형태의 스키마로 설계되는 데이터들을 저장 및 유지하기 때문에, 저용량으로 구축될 수 있다.As such, the plurality of image object IDs 310, the plurality of editable image object images 320, the plurality of elements 330, and the plurality of element IDs 340 stored in the image object database 300 may be provided. All can be designed as XML type schemas. Therefore, the image object database 300 itself is a database that supports an XML-type schema. Since the image object database 300 stores and maintains data designed in the XML-type schema, the image object database 300 may be constructed at a low capacity.

이 때, 편집형 영상 객체 제공 서버는 복수의 편집형 영상 객체들(320, 330)이 복수의 영상 객체 아이디들(310)과 각각 매칭되어 저장된 데이터베이스(도 2에 도시된 데이터베이스)를 서버 자체에 구축하여 보관하다가, 사용자 단말 및 대상 단말이 편집형 영상 객체 서비스를 이용하기 위하여 등록될 때, 서버 자체에 보관 중인 데이터베이스를 사용자 단말의 메모리 및 대상 단말의 메모리 각각에 카피하여 구축함으로써, 사용자 단말 및 대상 단말이 동일한 영상 객체 데이터베이스(300)를 유지하도록 할 수 있다.In this case, the editable video object providing server may store a database (database shown in FIG. 2) stored in the server itself by matching the plurality of editable video objects 320 and 330 with the plurality of video object IDs 310, respectively. When the user terminal and the target terminal are registered and registered to use the editable video object service, the database stored in the server itself is copied into the memory of the user terminal and the memory of the target terminal, thereby constructing the user terminal and the target terminal. The target terminal may maintain the same image object database 300.

또한, 편집형 영상 객체 제공 서버는 상술한 영상 객체 데이터베이스(300) 구축 과정과 동일하게, 사용자 단말 및 대상 단말 각각에 구축 및 유지되는 영상 객체 데이터베이스(300)를 업데이트할 수 있다. 이러한 업데이트 과정은, 편집형 영상 객체 제공 서버가 사용자 단말 및 대상 단말과 무선 또는 유선의 통신으로 연결되어 수행될 수 있으며, 영상 객체 데이터베이스(300)에 저장된 데이터들은 모두 XML 형태의 스키마로 설계되기 때문에, 업데이트 과정의 속도 및 효율이 증가될 수 있다.In addition, the editable image object providing server may update the image object database 300 which is constructed and maintained in each of the user terminal and the target terminal, in the same manner as the above-described process of constructing the image object database 300. The update process may be performed by the editable video object providing server connected to the user terminal and the target terminal by wireless or wired communication, and the data stored in the image object database 300 are all designed in an XML format. As a result, the speed and efficiency of the update process can be increased.

도 4는 일 실시예에 따른 대상 단말로 편집형 영상 객체를 제공하기 위한 사용자 단말과 대상 단말 사이의 데이터 전달 과정을 설명하기 위한 도면이다.4 is a diagram illustrating a data transfer process between a user terminal and a target terminal for providing an editable video object to a target terminal according to an exemplary embodiment.

도 4를 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버는 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체가 편집됨에 따라, 사용자 단말(410)에 포함되는 영상 객체 데이터베이스(411)로부터 어느 하나의 편집형 영상 객체에 대응하여 추출된 영상 객체 아이디 및 획득된 편집 정보(430)만을 대상 단말(420)로 전달한다.Referring to FIG. 4, the editable video object providing server according to an embodiment may include a video object database included in the user terminal 410 as one of the plurality of editable video objects is edited. Only the extracted image object ID and the obtained edited information 430 corresponding to any one editable image object are transmitted to the target terminal 420.

이 때, 편집 정보는 어느 하나의 편집형 영상 객체가 편집 및 변경되어 재생형 영상 객체로 생성됨에 있어서, 편집형 영상 객체가 어떻게 편집 및 변경되는가를 나타내는 정보로, 어느 하나의 편집형 영상 객체에 포함되는 선택된 어느 하나의 엘리멘트에 대응하는 엘리멘트 아이디일 수 있다.At this time, the edit information is information indicating how the editable video object is edited and changed in any one editable video object being edited and changed to generate a playable video object. It may be an element ID corresponding to any one selected element included.

예를 들어, 사용자 단말(410)에 포함되는 영상 객체 데이터베이스(411)에서 '사람'의 정지 이미지를 나타내는 제1 편집형 영상 객체 이미지가 선택되고, 제1 편집형 영상 객체 이미지와 연관된 '웃음'의 표정을 나타내는 제1-1 엘리멘트가 선택되어 제1 편집형 영상 객체가 편집되었다면, 편집형 영상 객체 제공 서버는 영상 객체 데이터베이스(411)로부터 제1 편집형 영상 객체 이미지에 대응하는 제1 영상 객체 아이디 '001'을 추출하고, 제1-1 엘리멘트에 대응하는 제1-1 엘리멘트 아이디 '001'을 편집 정보로 획득할 수 있다. 따라서, 편집형 영상 객체 제공 서버는 제1 영상 객체 아이디 '001'과 제1-1 엘리멘트 아이디 '001'이 결합된 '001001'의 아이디 데이터(430)를 대상 단말(420)로 전달할 수 있다.For example, in the image object database 411 included in the user terminal 410, a first editable image object image representing a still image of a person is selected, and a 'laugh' associated with the first edited image object image is selected. If the first editable video object has been edited by selecting the 1-1 element representing the facial expression of, the editable video object providing server provides a first video object corresponding to the first editable video object image from the video object database 411. The ID '001' may be extracted, and the first-first element ID '001' corresponding to the first-first element may be obtained as edit information. Accordingly, the editable video object providing server may transmit the ID data 430 of '001001' in which the first video object ID '001' and the 1-1 element ID '001' are combined to the target terminal 420.

이와 같은 영상 객체 아이디 및 편집 정보(430)는 XML 형태의 스키마로 설계되어 있기 때문에, 데이터 용량이 매우 낮으며, BiM 기법을 기반으로 송수신됨으로써, 전송 용량을 최소화하고 전송 속도를 극대화할 수 있다. 이에, 편집형 영상 객체 제공 서버는 사용자 단말(410) 및 대상 단말(420)이 지원하는 송수신 용량 및 송수신 속도의 제약을 만족시키며, 편집 가능한 영상 객체를 대상 단말(420)로 제공할 수 있다.Since the video object ID and the editing information 430 are designed in the form of XML, the data volume is very low and can be transmitted and received based on the BiM technique, thereby minimizing the transmission capacity and maximizing the transmission speed. Accordingly, the editable video object providing server satisfies the constraints of the transmission / reception capacity and the transmission / reception speed supported by the user terminal 410 and the target terminal 420, and may provide an editable video object to the target terminal 420.

편집형 영상 객체 제공 서버는 대상 단말(420)이 영상 객체 아이디 및 편집 정보(430)를 수신함에 응답하여, 대상 단말(420)에 포함되는 영상 객체 데이터베이스(421)로부터 영상 객체 아이디에 대응하는 편집형 영상 객체(정확하게는 편집형 영상 객체 이미지)를 추출하고, 추출된 편집형 영상 객체(정확하게는 편집형 영상 객체 이미지)에 편집 정보를 적용함으로써, 재생형 영상 객체를 생성한 뒤, 대상 단말(420)에 제공할 수 있다.In response to the target terminal 420 receiving the image object ID and the editing information 430, the editable image object providing server edits corresponding to the image object ID from the image object database 421 included in the target terminal 420. After extracting the type image object (exactly the editable image object image) and applying the editing information to the extracted editable image object (exactly the editable image object image), after generating the reproduction image object, the target terminal ( 420.

여기서, 편집형 영상 객체에 편집 정보를 적용한다는 것은, 편집 정보인 엘리멘트 아이디에 대응하는 엘리멘트가 나타내는 표정, 동작, 상태 또는 환경 중 적어도 하나를 정지 이미지인 편집형 영상 객체 이미지에 적용함으로써, 정지 이미지가 움직이는 컨텐츠 데이터를 재생형 영상 객체로 생성하는 것을 의미한다.Here, the application of the editing information to the editable video object may be performed by applying at least one of a facial expression, an action, a state, or an environment indicated by an element corresponding to an element ID, which is the edit information, to the editable video object image. This means that the moving content data is generated as a playable image object.

예를 들어, 앞서 예시에서 설명한 바와 같이, 제1 영상 객체 아이디 '001'과 제1-1 엘리멘트 아이디 '001'이 결합된 '001001'의 아이디 데이터(430)가 대상 단말(420)로 전달됨에 응답하여, 편집형 영상 객체 제공 서버는 영상 객체 데이터베이스(421)로부터 제1 영상 객체 아이디 '001'에 대응하는 '사람'의 정지 이미지를 나타내는 제1 편집형 영상 객체 이미지를 추출하고, 제1-1 엘리멘트 아이디 '001'에 대응하는 '웃음'의 표정을 나타내는 제1-1 엘리멘트를 선택한 뒤, 제1 편집형 영상 객체 이미지인 '사람'에 제1-1 엘리멘트인 '웃음'의 표정을 적용함으로써, '사람이 웃고 있는 컨텐츠'인 재생형 영상 객체를 생성하여 대상 단말(420)로 제공할 수 있다.For example, as described in the above example, the ID data 430 of '001001' in which the first image object ID '001' and the 1-1 element ID '001' are combined is transmitted to the target terminal 420. In response, the editable video object providing server extracts a first editable video object image representing a still image of a 'person' corresponding to the first video object ID '001' from the video object database 421, and first-first-first. 1 After selecting the 1-1 element representing the expression of 'laugh' corresponding to the element ID '001', the expression of the 1-1 element 'laugh' is applied to the 'person' which is the first editable video object image. As a result, the reproduction type video object that is the content of which the person is smiling may be generated and provided to the target terminal 420.

도 5는 일 실시예에 따른 편집형 영상 객체를 편집하는 과정을 설명하기 위한 도면이다.5 is a diagram for describing a process of editing an editable image object, according to an exemplary embodiment.

도 5를 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말이 제공하는 사용자 인터페이스(510) 상에서 발생되는 사용자 수동 편집 입력(511)에 응답하여, 복수의 편집형 영상 객체들(521, 522, 523, 524, 525) 중 어느 하나의 편집형 영상 객체를 선택하고 편집할 수 있다.Referring to FIG. 5, in response to a user manual edit input 511 generated on a user interface 510 provided by a user terminal, the editable video object providing server according to an embodiment may include a plurality of editable video objects ( One of 521, 522, 523, 524, and 525 may be selected and edited.

예를 들어, 사용자 인터페이스(510) 상에 디스플레이된 '수동 생성' 버튼(511)에서 사용자 입력이 발생되면, 편집형 영상 객체 제공 서버는 수동 편집 사용자 인터페이스(520)를 사용자 단말에 로드할 수 있다. 여기서, 수동 편집 사용자 인터페이스(520)에는 복수의 편집형 영상 객체들(521, 522, 523, 524, 525)이 디스플레이됨으로써, 사용자가 직접 선택 입력하여 어느 하나의 편집형 영상 객체를 선택하여 편집하도록 지원할 수 있다.For example, when a user input is generated from the 'manual generation' button 511 displayed on the user interface 510, the editable video object providing server may load the manual editing user interface 520 on the user terminal. . Here, a plurality of editable image objects 521, 522, 523, 524, and 525 are displayed on the manual editing user interface 520 so that a user can directly select and edit any editable image object. Can support

더 구체적인 예를 들면, 수동 편집 사용자 인터페이스(520)에 디스플레이된 '사람'의 정지 이미지를 나타내는 제1 편집형 영상 객체 이미지(521) 및 '곰'의 정지 이미지를 나타내는 제2 편집형 영상 객체 이미지(525) 중 사용자 선택 입력에 의해 제1 편집형 영상 객체 이미지(521)가 선택되고, 제1 편집형 영상 객체 이미지(521)와 연관된 '웃음'의 표정을 나타내는 제1-1 엘리멘트(522), '화남'의 표정을 나타내는 제1-2 엘리멘트(523) 및 '울음'의 표정을 나타내는 제1-3 엘리멘트(524) 중 사용자 선택 입력에 의해 제 1-1 엘리멘트(522)가 선택되면, 편집형 영상 객체 제공 서버는 선택된 제 1-1 엘리멘트(522)에 기초하여 제1 편집형 영상 객체 이미지(521)를 변경하여 '사람이 웃고 있는 컨텐츠'인 재생형 영상 객체(도면에는 도시되지 않음)를 생성한 뒤, 사용자 단말에 제공할 수 있다.More specifically, for example, the first editable image object image 521 representing a still image of 'person' and the second editable image object image representing a still image of 'bear' displayed in the manual editing user interface 520. The first editable video object image 521 is selected by a user selection input of 525, and the first-first element 522 indicating an expression of 'laugh' associated with the first editable video object image 521. When the first-first element 522 is selected by a user selection input from the first-second element 523 representing the expression of anger and the third element 524 representing the expression of crying, The editable video object providing server changes the first editable video object image 521 based on the selected first-first element 522 to display a playable video object that is 'content smiling by a person' (not shown in the drawing). ) To be provided to the user terminal. There.

이 때, 편집형 영상 객체 제공 서버는 편집형 영상 객체(521, 522)가 편집되어 생성된 재생형 영상 객체를 사용자 단말의 사용자 인터페이스 상에서 재생함으로써, 사용자 단말의 사용자가 편집 결과를 직접적으로 확인하도록 할 수 있다At this time, the editable video object providing server reproduces the reproduced video object generated by editing the editable video objects 521 and 522 on the user interface of the user terminal, so that the user of the user terminal can directly check the editing result. can do

도 6은 다른 일 실시예에 따른 편집형 영상 객체를 편집하는 과정을 설명하기 위한 도면이다.6 is a diagram for describing a process of editing an editable image object, according to another exemplary embodiment.

도 6을 참조하면, 다른 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말이 제공하는 사용자 인터페이스(610) 상에서 발생되는 영상 객체 자동 생성 입력(611)에 응답하여, 사용자 단말을 사용하는 사용자의 위치 정보, 환경 정보, 신체 센싱 정보, 스케줄 정보 또는 영상 객체 사용 히스토리 정보 중 적어도 하나의 정보를 획득함으로써, 획득된 적어도 하나의 정보에 기초하여 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고 편집할 수 있다.Referring to FIG. 6, the editable video object providing server according to another exemplary embodiment responds to the video object automatic generation input 611 generated on the user interface 610 provided by the user terminal, and uses the user terminal. Editing of any one of a plurality of editable image objects based on the at least one information obtained by obtaining at least one of position information, environmental information, body sensing information, schedule information or image object usage history information of the You can select and edit video objects.

예를 들어, 사용자 인터페이스(610) 상에 디스플레이된 '자동 생성' 버튼(611)에서 사용자 입력이 발생되면, 편집형 영상 객체 제공 서버는 자동 생성 사용자 인터페이스(620)를 사용자 단말에 로드할 수 있다. 여기서, 자동 생성 사용자 인터페이스(620)에는 사용자의 위치 정보 및 신체 센싱 정보(621)와 함께, 사용자의 위치 정보 및 신세 센싱 정보(621)를 기초로 어느 하나의 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체(622)가 디스플레이될 수 있다.For example, when a user input is generated from the 'auto generation' button 611 displayed on the user interface 610, the editable image object providing server may load the auto generation user interface 620 into the user terminal. . Here, in the auto-generated user interface 620, any editable image object is edited and generated based on the user's location information and the user's location information and the body sensing information 621 along with the user's location information and body sensing information 621. The playback image object 622 may be displayed.

더 구체적인 예를 들면, 사용자의 위치 정보가 '북서울 숲'을 나타내고, 사용자의 신체 센싱 정보인 심박수가 '150'인 경우, 편집형 영상 객체 제공 서버는 사용자가 현재 운동하고 있음을 인식하여 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 '운동'과 관련된 어느 하나의 영상 객체 이미지를 선택하고, 사용자의 현재 위치가 '북서울 숲'임을 인식하여 '숲'의 환경을 나타내는 어느 하나의 엘리멘트를 선택한 뒤, 선택된 운동'과 관련된 어느 하나의 영상 객체 이미지에 '숲'의 환경을 나타내는 어느 하나의 엘리멘트를 적용함으로써, '사람이 숲에서 운동하고 있는 컨텐츠'인 재생형 영상 객체(622)를 자동으로 생성하여 사용자 단말의 사용자 인터페이스(620)에 디스플레이할 수 있다.More specifically, when the location information of the user indicates 'North Seoul forest' and the heart rate, which is the user's body sensing information, is '150', the editable video object providing server recognizes that the user is currently exercising and the user After selecting one image object image related to 'movement' from the image object database included in the terminal and recognizing that the current location of the user is 'North Seoul forest', the user selects one element representing the environment of 'forest' , By automatically applying one of the elements representing the environment of the 'forest' to any one of the image object image associated with the 'selected movement', automatically generating a reproducible image object 622, which is 'content that the person is exercising in the forest' The display may be displayed on the user interface 620 of the user terminal.

도 7은 일 실시예에 따른 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공하는 과정을 설명하기 위한 도면이다.FIG. 7 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to an exemplary embodiment.

도 7을 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말(710)이 제공하는 사용자 인터페이스(711) 상에서 발생되는 사용자 입력에 응답하여, 어느 하나의 편집형 영상 객체를 편집함으로써, 재생형 영상 객체(712)를 생성하고 사용자 인터페이스(711) 상에 디스플레이한 뒤, 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디 및 편집 정보를 대상 단말(720)로 전달할 수 있다.Referring to FIG. 7, in response to a user input generated on a user interface 711 provided by the user terminal 710, the editable video object providing server according to an embodiment may edit an edited video object. After generating and displaying the playable video object 712 on the user interface 711, the video object ID and the edit information corresponding to one of the edited video objects may be transmitted to the target terminal 720.

이에, 편집형 영상 객체 제공 서버는 대상 단말(720)에 포함되는 영상 객체 데이터베이스로부터 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출함으로써, 추출된 편집형 영상 객체에 편집 정보를 적용하여 재생형 영상 객체(722)를 생성한 뒤, 대상 단말(720)이 제공하는 사용자 인터페이스(721) 상에 재생형 영상 객체(722)를 디스플레이할 수 있다.Accordingly, the editable video object providing server extracts an editable video object corresponding to the video object ID from the video object database included in the target terminal 720, and applies the edit information to the extracted edited video object to reproduce the playable video. After generating the object 722, the playback type video object 722 may be displayed on the user interface 721 provided by the target terminal 720.

여기서, 사용자 단말(710)에 디스플레이되는 재생형 영상 객체(712)는 사용자 단말(710)에 포함되는 영상 객체 데이터베이스에 기반하여 생성되고, 대상 단말(720)에 디스플레이되는 재생형 영상 객체(722)는 대상 단말(720)에 포함되는 영상 객체 데이터베이스에 기반하여 생성된다. 따라서, 사용자 단말(710)에 포함되는 영상 객체 데이터베이스와 대상 단말(720)에 포함되는 영상 객체 데이터베이스는 동일하게 구축되기 때문에, 사용자 단말(710)에 디스플레이되는 재생형 영상 객체(712)와 대상 단말(720)에 디스플레이되는 재생형 영상 객체(722)는 동일한 컨텐츠일 수 밖에 없다.Here, the reproduced video object 712 displayed on the user terminal 710 is generated based on the image object database included in the user terminal 710 and is displayed on the target terminal 720. Is generated based on the image object database included in the target terminal 720. Therefore, since the image object database included in the user terminal 710 and the image object database included in the target terminal 720 are identically constructed, the reproduced image object 712 and the target terminal displayed on the user terminal 710 are the same. The reproducible video object 722 displayed at 720 may be identical content.

이 때, 편집형 영상 객체 제공 서버는 재생형 영상 객체(712)를 사용자 단말(710)의 사용자 인터페이스(711) 상에 디스플레이함에 있어, 사용자 단말(710)이 지원하는 재생 방식에 기초하여 재생형 영상 객체(712)를 재생할 수 있고, 재생형 영상 객체(722)를 대상 단말(720)의 사용자 인터페이스(721) 상에 디스플레이함에 있어, 대상 단말(720)이 지원하는 재생 방식에 기초하여 재생형 영상 객체(722)를 재생할 수 있다.In this case, the editing type video object providing server displays the playback type video object 712 on the user interface 711 of the user terminal 710 based on the playback method supported by the user terminal 710. The video object 712 can be played back, and the playback type video object 722 is displayed on the user interface 721 of the target terminal 720 based on the playback method supported by the target terminal 720. The video object 722 may be played.

예를 들어, 도면과 같이, 사용자 단말(710) 및 대상 단말(720) 모두 스마트폰으로서, 재생형 영상 객체(712, 722)를 그래픽 방식 및 사운드 방식으로 재생할 수 있는 경우, 편집형 영상 객체 제공 서버는 사용자 단말(710)에 그래픽 방식 및 사운드 방식 모두를 이용하여 재생형 영상 객체(712)를 제공하고, 대상 단말(720)에 그래픽 방식 및 사운드 방식 모두를 이용하여 재생형 영상 객체(722)를 제공할 수 있다.For example, as shown in the drawing, when both the user terminal 710 and the target terminal 720 are smartphones and the playback type video objects 712 and 722 can be reproduced in a graphic manner and a sound type, the editable image object is provided. The server provides the reproduced video object 712 to the user terminal 710 using both the graphic method and the sound method, and the reproduced video object 722 using both the graphic method and the sound method to the target terminal 720. Can be provided.

다른 예를 들면, 사용자 단말(710) 및 대상 단말(720) 모두 스마트폰으로서, 사용자 단말(710)은 재생형 영상 객체(712)를 그래픽 방식 및 사운드 방식으로 재생할 수 있으나, 대상 단말(720)은 재생형 영상 객체(722)를 그래픽 방식으로만 재생할 수 있는 경우, 편집형 영상 객체 제공 서버는 사용자 단말(710)에 그래픽 방식 및 사운드 방식 모두를 이용하여 재생형 영상 객체(712)를 제공하고, 대상 단말(720)에 그래픽 방식만을 이용하여 재생형 영상 객체(722)를 제공할 수 있다.For another example, both the user terminal 710 and the target terminal 720 are smartphones, and the user terminal 710 may reproduce the playable image object 712 in a graphic manner and a sound manner, but the target terminal 720 If the playable video object 722 can be reproduced only in a graphical manner, the editable video object providing server provides the reproduced video object 712 to the user terminal 710 using both a graphical method and a sound method. In addition, the reproduction type video object 722 may be provided to the target terminal 720 using only a graphic method.

또한, 편집형 영상 객체 제공 서버는 대상 단말(720)이 인형, 팔찌, 시계 펜던트 등의 기기일 경우에도, 대상 단말(720)이 지원하는 재생 방식에 기초하여 재생형 영상 객체(722)를 제공할 수 있다. 이에 대한 상세한 설명은 아래에서 기재하기로 한다.In addition, even when the target terminal 720 is a device such as a doll, a bracelet, a watch pendant, or the like, the editable video object providing server provides the playable video object 722 based on the playback method supported by the target terminal 720. can do. Detailed description thereof will be described below.

도 8은 다른 일 실시예에 따른 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공하는 과정을 설명하기 위한 도면이다.8 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to another exemplary embodiment.

도 8을 참조하면, 다른 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말(810)이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 어느 하나의 편집형 영상 객체를 편집함으로써, 재생형 영상 객체(811)를 생성하고 사용자 인터페이스 상에 디스플레이한 뒤, 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디 및 편집 정보를 대상 단말(820)로 전달할 수 있다.Referring to FIG. 8, the editable video object providing server according to another exemplary embodiment plays back by editing any one editable video object in response to a user input generated on a user interface provided by the user terminal 810. After generating and displaying the type image object 811 on the user interface, the image object ID and the edit information corresponding to one of the editable image objects may be transmitted to the target terminal 820.

이에, 편집형 영상 객체 제공 서버는 대상 단말(780)에 포함되는 영상 객체 데이터베이스로부터 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출함으로써, 추출된 편집형 영상 객체에 편집 정보를 적용하여 재생형 영상 객체(821)를 생성한 뒤, 대상 단말(820)이 지원하는 재생 방식에 기초하여 재생형 영상 객체(821)를 제공할 수 있다.Accordingly, the editable video object providing server extracts an editable video object corresponding to the video object ID from the video object database included in the target terminal 780, and applies edit information to the extracted edited video object to reproduce the playable video. After generating the object 821, the playback type video object 821 may be provided based on a playback method supported by the target terminal 820.

이 때, 대상 단말(820)은 도면에 도시된 바와 같이 인형이기 때문에, 대상 단말(820)은 인형의 표정 인터페이스를 통한 재생 방식, 신체 움직임의 동작 인터페이스를 통한 재생 방식, 신체 진동의 재생 방식, 사운드 방식 등을 지원할 수 있다.At this time, since the target terminal 820 is a doll as shown in the drawing, the target terminal 820 is a play method through the facial expression interface of the doll, a play method through the operation interface of the body movement, a play method of the body vibration, Sound system can be supported.

따라서, 편집형 영상 객체 제공 서버는 도면과 같이 인형의 표정 인터페이스를 통하여 재생형 영상 객체(821)를 제공할 수 있다.Accordingly, the editable video object providing server may provide the playable video object 821 through the doll's facial expression interface as shown in the figure.

이상, 대상 단말(820)이 인형인 것으로 설명하였으나, 이에 제한되거나 한정되지 않고, 재생형 영상 객체(821)를 재생할 수 있는 다양한 기기, 예컨대, 팔찌, 시계, 펜던트 등일 수 있다. 여기서, 재생형 영상 객체(821)를 재생할 수 있다는 것은, 재생형 영상 객체(821)의 일부 정보(예컨대, 진동, 사운드, 그래픽 등 중 어느 하나의 일부 정보)만을 재생할 수 있다는 것을 포함한다.As described above, the target terminal 820 is a doll, but is not limited thereto, and may be various devices capable of playing the reproducible video object 821, for example, a bracelet, a clock, a pendant, and the like. Here, the reproductionable video object 821 may include reproducing only some information (eg, some information of any one of vibration, sound, graphics, etc.) of the reproductionable video object 821.

도 9는 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 방법을 나타낸 플로우 차트이다.9 is a flowchart illustrating a method of providing a schema-based editable video object, according to an exemplary embodiment.

도 9를 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 방법은, 도 1 내지 2를 참조하여 상술한 편집형 영상 객체 제공 시스템(특히, 편집형 영상 객체 제공 시스템에 포함되는 편집형 영상 객체 제공 서버)에 의해 수행된다.Referring to FIG. 9, the method for providing an editable video object according to an embodiment may include the editable video object providing system described above with reference to FIGS. 1 to 2 (in particular, the editable video object included in the editable video object providing system). Providing server).

편집형 영상 객체 제공 시스템은, 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한다(910).The editable video object providing system constructs and maintains a video object database in which a plurality of editable video objects are respectively matched and stored with a plurality of video object IDs in a memory included in each of the user terminal and the target terminal (910). ).

여기서, 복수의 편집형 영상 객체들 및 복수의 영상 객체 아이디들은, XML 형태의 스키마로 설계될 수 있다. 따라서, 영상 객체 데이터베이스는 XML 형태의 스키마를 지원하는 데이터베이스일 수 있다.Here, the plurality of editable image objects and the plurality of image object IDs may be designed in a schema of XML. Therefore, the image object database may be a database supporting a schema of XML format.

이 때, 복수의 편집형 영상 객체들 각각은 편집형 영상 객체 이미지 및 적어도 하나의 엘리멘트를 포함할 수 있다. 편집형 영상 객체 이미지는 편집형 영상 객체의 기반이 되는 정지 이미지를 의미하고, 적어도 하나의 엘리멘트는 편집형 영상 객체(정확하게는, 편집형 영상 객체 이미지)의 표정, 동작, 상태 또는 환경 중 적어도 하나를 나타낸다. 이에, 복수의 편집형 영상 객체 이미지들 및 복수의 엘리멘트들 역시 XML 형태의 스키마로 설계될 수 있다.In this case, each of the plurality of editable image objects may include an editable image object image and at least one element. The editable video object image refers to a still image on which the editable video object is based, and at least one element represents at least one of an expression, an action, a state, or an environment of the editable video object (exactly, the editable video object image). Indicates. Accordingly, the plurality of editable image object images and the plurality of elements may also be designed in a schema of XML.

또한, 영상 객체 데이터베이스는 복수의 엘리멘트 아이디들이 포함될 수 있다. 여기서, 복수의 엘리멘트 아이디들은 복수의 엘리멘트들과 각각 매칭되어 저장되는 식별자 역할을 할 수 있다. 마찬가지로, 복수의 엘리멘트 아이디들 역시 XML 형태의 스키마로 설계될 수 있다.In addition, the image object database may include a plurality of element IDs. Here, the plurality of element IDs may serve as identifiers that are respectively matched and stored with the plurality of elements. Similarly, the plurality of element IDs may also be designed in a schema of XML.

따라서, 910 단계에서, 편집형 영상 객체 제공 시스템은, 복수의 편집형 영상 객체 이미지들을 복수의 영상 객체 아이디들과 각각 매칭하여 영상 객체 데이터베이스에 저장 및 유지할 수 있고, 복수의 편집형 영상 객체 이미지들과 연관된 적어도 하나의 엘리멘트를 적어도 하나의 엘리멘트 아이디와 각각 매칭하여 영상 객체 데이터베이스에 저장 및 유지할 수 있다.Accordingly, in operation 910, the editable video object providing system may match and store the plurality of editable video object images with the plurality of video object IDs, respectively, in the video object database, and the plurality of editable video object images. At least one element associated with the at least one element ID may be matched with each of at least one element ID, and stored and maintained in the image object database.

이어서, 편집형 영상 객체 제공 시스템은, 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집한다(920).Subsequently, the editable video object providing system, in response to a user input generated on a user interface provided by the user terminal, edited image of any one of a plurality of editable video objects stored in a video object database included in the user terminal. The object is edited (920).

구체적으로, 920 단계에서, 편집형 영상 객체 제공 시스템은, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고(복수의 편집형 영상 객체 이미지들 중 어느 하나의 편집형 영상 객체 이미지를 선택), 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택한 뒤(어느 하나의 편집형 영상 객체 이미지에 연관된 어느 하나의 엘리멘트를 선택), 선택된 엘리멘트에 기초하여 어느 하나의 편집형 영상 객체를 변경함으로써(어느 하나의 편집형 영상 객체 이미지에 선택된 엘리멘트를 적용), 재생형 영상 객체를 생성할 수 있다.In detail, in operation 920, the editable video object providing system selects one editable video object from among a plurality of editable video objects from a video object database included in the user terminal (a plurality of editable video object images). Select one of the editable video object images), select one element included in one of the editable video objects (select one of the elements associated with one of the editable video object images), By changing one of the editable video objects based on the selected element (applying the selected element to one of the edited video object images), the playable video object may be generated.

또한, 920 단계에서, 편집형 영상 객체 제공 시스템은, 생성된 재생형 영상 객체를 사용자 단말이 지원하는 재생 방식에 기초하여 사용자 단말에 재생할 수 있다.In operation 920, the editable video object providing system may play back the generated playback video object to the user terminal based on a playback method supported by the user terminal.

이와 같은 편집 과정은, 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 따라 수동 또는 자동으로 수행될 수 있다. 예를 들어, 편집형 영상 객체 제공 시스템은, 사용자 인터페이스 상에서 발생되는 영상 객체 자동 생성 입력에 응답하여, 사용자 단말을 사용하는 사용자의 위치 정보, 환경 정보, 신체 센싱 정보, 스케줄 정보 또는 영상 객체 사용 히스토리 정보 중 적어도 하나의 정보를 획득함으로써, 획득된 적어도 하나의 정보에 기초하여 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고 편집할 수 있다.Such an editing process may be performed manually or automatically according to a user input generated on a user interface provided by the user terminal. For example, the editable image object providing system, in response to an automatic image object generation input generated on a user interface, records location information, environment information, body sensing information, schedule information, or image object usage history of a user using a user terminal. By acquiring at least one piece of information, one of the plurality of editable image objects may be selected and edited based on the obtained at least one information.

다른 예를 들면, 편집형 영상 객체 제공 시스템은, 사용자 인터페이스 상에서 발생되는 사용자 수동 편집 입력에 응답하여, 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고 편집할 수도 있다.For another example, the editable video object providing system may select and edit any one of a plurality of editable video objects in response to a user manual edit input generated on a user interface.

그 다음, 편집형 영상 객체 제공 시스템은, 어느 하나의 편집형 영상 객체가 편집됨에 따라, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득한다(930).Next, as the editable video object providing system is edited, the editable video object providing system extracts a video object ID corresponding to any one of the edited video objects from the video object database included in the user terminal. One editable image object obtains edited edit information (930).

이 때, 930 단계에서, 편집형 영상 객체 제공 시스템은, 920 단계에서 선택된 엘리멘트에 대응하는 엘리멘트 아이디를 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 추출함으로써, 추출된 엘리멘트 아이디를 편집 정보로 획득할 수 있다.In this case, in operation 930, the editable image object providing system extracts an element ID corresponding to the element selected in operation 920 from the image object database included in the user terminal, thereby obtaining the extracted element ID as edit information. .

그 다음, 편집형 영상 객체 제공 시스템은, 영상 객체 아이디 및 편집 정보를 대상 단말로 전달한다(940).Next, the editable video object providing system transmits the video object ID and the edit information to the target terminal (940).

여기서, 영상 객체 아이디 및 편집 정보 모두 XML 형태의 스키마로 설계되었기 때문에, 편집형 영상 객체 제공 시스템은, 940 단계에서, BiM(MPEG Binary Format) 기법을 기반으로 영상 객체 아이디 및 편집 정보를 대상 단말로 전달할 수 있다.Here, since both the video object ID and the edit information are designed in the XML format schema, the editable video object providing system transmits the video object ID and the edit information to the target terminal in step 940 based on the MPEG Binary Format (BiM) technique. I can deliver it.

또한, 940 단계에서, 편집형 영상 객체 제공 시스템은 대상 단말이 지원하는 재생 방식을 고려하여, 편집 정보 중 일부 정보만을 대상 단말로 전달할 수 있다.In operation 940, the editable video object providing system may deliver only some of the edited information to the target terminal in consideration of a reproduction scheme supported by the target terminal.

그 다음, 편집형 영상 객체 제공 시스템은, 대상 단말에 포함되는 영상 객체 데이터베이스로부터 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출한다(950).Next, the editable video object providing system extracts the editable video object corresponding to the video object ID from the video object database included in the target terminal (950).

그 후, 편집형 영상 객체 제공 시스템은, 추출된 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공한다(960).Thereafter, the editable video object providing system applies edit information to the extracted edited video object and provides the edited video object to the target terminal (960).

구체적으로, 960 단계에서, 편집형 영상 객체 제공 시스템은, 950 단계에서 추출된 편집형 영상 객체(정확하게는, 편집형 영상 객체 이미지)에 편집 정보를 적용하여 재생형 영상 객체를 생성함으로써, 복원된 재생형 영상 객체를 대상 단말로 제공할 수 있다.In detail, in operation 960, the editable image object providing system is restored by applying the editing information to the edited image object (exactly, the editable image object image) extracted in step 950, thereby generating a reproduced image object. The playback type video object may be provided to the target terminal.

또한, 960 단계에서, 편집형 영상 객체 제공 시스템은, 재생형 영상 객체를 대상 단말이 지원하는 재생 방식에 기초하여 대상 단말 단말에 재생할 수 있다.In operation 960, the editable video object providing system may play back the playable video object to the target terminal terminal based on a playback method supported by the target terminal.

본 발명의 일 측면에 따르면, 서비스 디스크립션을 저장하는 서비스 디스크립션 제공부; 서비스 추천 요청을 수신하는 통신 인터페이스; 및 상기 서비스 추천 요청에 상응하는 서비스 디스크립션을 상기 서비스 디스크립션 제공부로부터 획득하고, 상기 서비스 디스크립션을 참조하여 추천 디스크립션을 생성하는 추천 엔진;을 포함하되, 상기 서비스 디스크립션은 서비스 일반 디스크립션(Service General Description), 포맷 타입(FormatType), 서비스 대상 정보 타입(ServiceTargetInformationType), 서비스 대상 모델 타입(ServiceTargetModelType), 어휘 세트 타입(VocabularySetType), 서비스 인터페이스 타입(ServiceInterfaceType), 필수 입력 데이터 타입(RequiredInputDataType), 내부 서비스들 타입(InternalServicesType), 내부 서비스 타입(InternalServiceType), 무손실 오디오 DB 타입(LosslessAudioDBType), 손실 오디오 DB 타입(LossyAudioDBType), 비디오 DB 타입(VideoDBType), 서비스 객체 타입(ServiceObjectType) 및 객체 타입(ObjectType) 중 하나 이상을 포함하는 서비스 추천 장치가 제공된다.According to an aspect of the invention, the service description providing unit for storing a service description; A communication interface for receiving a service recommendation request; And a recommendation engine that obtains a service description corresponding to the service recommendation request from the service description providing unit, and generates a recommendation description with reference to the service description, wherein the service description is a service general description. Format Type (FormatType), Service Target Information Type (ServiceTargetInformationType), Service Target Model Type (ServiceTargetModelType), Vocabulary Set Type (VocabularySetType), Service Interface Type (ServiceInterfaceType), Required Input Data Type (RequiredInputDataType), Internal Services Type ( Include at least one of InternalServicesType, InternalServiceType, Lossless AudioDBType, LossAudioDBType, LossyAudioDBType, VideoDBType, VideoDBType, Service ObjectType (ServiceObjectType), and ObjectType (ObjectType). Book A service recommendation device is provided.

본 발명의 일 측면에 따르면, 유저 디스크립션을 저장하는 유저 디스크립션 제공부; 서비스 추천 요청을 수신하는 통신 인터페이스; 및 상기 서비스 추천 요청에 상응하는 유저 디스크립션을 상기 유저 디스크립션 제공부로부터 획득하고, 상기 유저 디스크립션을 참조하여 추천 디스크립션을 생성하는 추천 엔진;을 포함하되, 상기 유저 디스크립션은 사용자 프로필 타입(UserProfileType), 개인 프로필 타입(PersonProfileType), 조직 프로필 타입(OrganizationProfileType), 장치 프로필 타입(DeviceProfileType), 그룹화 프로필 타입(GroupedProfileType), 사용 히스토리 타입(UsageHistoryTyp), 이벤트 타입(EventType), 상호 작용 아톰 타입(interactionAtomType), 아티펙트 타입(artefactType), 관찰 대상 타입(observableType), 상태 타입(stateType), 선호 타입(PreferenceType), 감정 타입(EmotionType), 어휘 세트 타입(VocabularySetType), 스케줄 타입(ScheduleType), 활동 타입(ActivityType), 의도 타입(IntentionType), 언어 타입(LanguageType), 특기 타입(SpecialtyType), 접근성 타입(AccessibilityType), 사회 정보 타입(SocialInformationType) 및 객체 공유 타입(ObjectSharingType) 중 하나 이상을 포함하는 서비스 추천 장치가 제공된다.According to an aspect of the present invention, a user description providing unit for storing a user description; A communication interface for receiving a service recommendation request; And a recommendation engine that obtains a user description corresponding to the service recommendation request from the user description provider, and generates a recommendation description with reference to the user description, wherein the user description includes a user profile type (UserProfileType), an individual. Profile type (PersonProfileType), Organization profile type (OrganizationProfileType), Device profile type (DeviceProfileType), Grouping profile type (GroupedProfileType), Usage history type (UsageHistoryTyp), Event type (EventType), Interaction atom type (interactionAtomType), Artifact type (artefactType), observableType, stateType, preference type, preference type, emotion type, lexical set type (VocabularySetType), schedule type (ScheduleType), activity type (ActivityType), intention type (IntentionType), LanguageType, SpecialtyType, Access A service recommendation apparatus including at least one of an accessibility type, a social information type, and an object sharing type is provided.

상기 사용 히스토리 타입(UsageHistoryTyp)은 멀티미디어 경험 타입(multimediaExperienceType) 및 세부 사용자 상호 작용 타입을 포함할 수 있다.The usage history type (UsageHistoryTyp) may include a multimedia experience type and a user interaction type.

상기 선호 타입은 사용자 선호 타입, 오디오 프리젠테이션 선호 타입, 디스플레이 프리젠테이션 선호 타입, 그래픽 프리젠테이션 선호 타입, 서비스 선호 타입, 오디오 프리젠테이션 선호 정보 타입, 번역 선호 타입, 관심 미디어 타입 및 웹 링크 선호 타입 중 하나 이상을 포함할 수 있다.The preference type is one of a user preference type, an audio presentation preference type, a display presentation preference type, a graphic presentation preference type, a service preference type, an audio presentation preference information type, a translation preference type, an interest media type, and a web link preference type. It may include one or more.

상기 언어 타입은 명칭 타입, 언어 능력 레퍼런스 타입, 언어 지역 타입, 언어의 타입, 읽기 레벨 타입, 쓰기 레벨 타입, 말하기 레벨 타입 및 듣기 레벨 타입 중 하나 이상을 포함할 수 있다.The language type may include one or more of a name type, a language capability reference type, a language region type, a language type, a reading level type, a writing level type, a speaking level type, and a listening level type.

상기 언어 능력 레퍼런스 타입은 능력 테스트 명칭 타입, 능력 레벨 타입(CompetenceLevelType), 능력 테스트 URI 타입 및 능력 테스트 날짜 타입을 포함할 수 있다.The language capability reference type may include a capability test name type, a competency level type (CompetenceLevelType), a capability test URI type, and a capability test date type.

상기 스케줄 타입은 이벤트 타입, 스케줄 디스크립션 타입, 공유된 유저(SharedUser) 타입, 시간 타입, 디스크립션 방법(descriptionMethod) 타입, 중 하나 이상을 포함할 수 있다.The schedule type may include one or more of an event type, a schedule description type, a shared user type, a time type, and a description method type.

본 발명의 다른 측면에 따르면, 서비스 추천 장치가 서비스를 추천하는 방법에 있어서, 서비스 추천 요청을 수신하는 단계; 상기 서비스 추천 요청에 상응하는 유저 디스크립션을 획득하는 단계; 및 상기 유저 디스크립션을 참조하여 추천 디스크립션을 생성하는 단계; 를 포함하되, 상기 유저 디스크립션은 사용자 프로필 타입(UserProfileType), 개인 프로필 타입(PersonProfileType), 조직 프로필 타입(OrganizationProfileType), 장치 프로필 타입(DeviceProfileType), 그룹화 프로필 타입(GroupedProfileType), 사용 히스토리 타입(UsageHistoryTyp), 이벤트 타입(EventType), 상호 작용 아톰 타입(interactionAtomType), 아티펙트 타입(artefactType), 관찰 대상 타입(observableType), 상태 타입(stateType), 선호 타입(PreferenceType), 감정 타입(EmotionType), 어휘 세트 타입(VocabularySetType), 스케줄 타입(ScheduleType), 활동 타입(ActivityType), 의도 타입(IntentionType), 언어 타입(LanguageType), 특기 타입(SpecialtyType), 접근성 타입(AccessibilityType), 사회 정보 타입(SocialInformationType) 및 객체 공유 타입(ObjectSharingType) 중 하나 이상을 포함하는 서비스 추천 방법이 제공된다.According to another aspect of the present invention, a method for recommending a service by a service recommendation apparatus, the method comprising: receiving a service recommendation request; Obtaining a user description corresponding to the service recommendation request; Generating a recommendation description with reference to the user description; The user description may include a user profile type (UserProfileType), a personal profile type (PersonProfileType), an organization profile type (OrganizationProfileType), a device profile type (DeviceProfileType), a grouped profile type (GroupedProfileType), a usage history type (UsageHistoryTyp), Event Type, Interaction Atom Type, Artifact Type, Observable Type, State Type, Preference Type, Emotion Type, VocabularySetType ), Schedule type (ScheduleType), activity type (ActivityType), intention type (IntentionType), language type (LanguageType), specialty type (SpecialtyType), accessibility type (AccessibilityType), social information type (SocialInformationType), and object sharing type (ObjectSharingType). Service recommendation method comprising one or more of the following.

상기 사용 히스토리 타입(UsageHistoryTyp)은 멀티미디어 경험 타입(multimediaExperienceType) 및 세부 사용자 상호 작용 타입을 포함할 수 있다.The usage history type (UsageHistoryTyp) may include a multimedia experience type and a user interaction type.

상기 선호 타입은 사용자 선호 타입, 오디오 프리젠테이션 선호 타입, 디스플레이 프리젠테이션 선호 타입, 그래픽 프리젠테이션 선호 타입, 서비스 선호 타입, 오디오 프리젠테이션 선호 정보 타입, 번역 선호 타입, 관심 미디어 타입 및 웹 링크 선호 타입 중 하나 이상을 포함할 수 있다.The preference type is one of a user preference type, an audio presentation preference type, a display presentation preference type, a graphic presentation preference type, a service preference type, an audio presentation preference information type, a translation preference type, an interest media type, and a web link preference type. It may include one or more.

상기 언어 타입은 명칭 타입, 언어 능력 레퍼런스 타입, 언어 지역 타입, 언어의 타입, 읽기 레벨 타입, 쓰기 레벨 타입, 말하기 레벨 타입 및 듣기 레벨 타입 중 하나 이상을 포함할 수 있다.The language type may include one or more of a name type, a language capability reference type, a language region type, a language type, a reading level type, a writing level type, a speaking level type, and a listening level type.

상기 언어 능력 레퍼런스 타입은 능력 테스트 명칭 타입, 능력 레벨 타입(CompetenceLevelType), 능력 테스트 URI 타입 및 능력 테스트 날짜 타입을 포함할 수 있다.The language capability reference type may include a capability test name type, a competency level type (CompetenceLevelType), a capability test URI type, and a capability test date type.

상기 스케줄 타입은 이벤트 타입, 스케줄 디스크립션 타입, 공유된 유저(SharedUser) 타입, 시간 타입, 디스크립션 방법(descriptionMethod) 타입, 중 하나 이상을 포함할 수 있다.The schedule type may include one or more of an event type, a schedule description type, a shared user type, a time type, and a description method type.

본 발명의 일 측면에 따르면, 컨텍스트 디스크립션을 저장하는 서비스 디스크립션 제공부; 서비스 추천 요청을 수신하는 통신 인터페이스; 및 상기 서비스 추천 요청에 상응하는 상기 컨텍스트 디스크립션을 상기 컨텍스트 디스크립션 제공부로부터 획득하고, 상기 컨텍스트 디스크립션을 참조하여 추천 디스크립션을 생성하는 추천 엔진;을 포함하되, 상기 컨텍스트 디스크립션은 컨텍스트 디스크립션 타입(ContextDescriptionType), 컨텍스트 식별 타입(ContextIdentificationType), 장치 특징 타입(DeviceCharacteristicsType), 네트워크 정보 타입(NewworkInfoType), 위치 타입(LocationType), 날씨 타입(WeatherType), 부가 환경 정보 타입(OtherEnvironmentalInfoType), 오디오 환경 타입(AudioEnvironment), 녹음 환경 타입(RecordingEnvironmentType) 및 컨텍스트 우선 타입(ContextPriorityType) 중 하나 이상을 포함하는 것을 특징으로 하는 서비스 추천 장치가 제공된다.According to an aspect of the invention, the service description providing unit for storing the context description; A communication interface for receiving a service recommendation request; And a recommendation engine that obtains the context description corresponding to the service recommendation request from the context description providing unit, and generates a recommendation description with reference to the context description, wherein the context description includes a context description type (ContextDescriptionType), Context Identification Type (ContextIdentificationType), Device Characteristic Type (DeviceCharacteristicsType), Network Information Type (NewworkInfoType), Location Type (LocationType), Weather Type (WeatherType), Additional Environment Information Type (OtherEnvironmentalInfoType), Audio Environment Type (AudioEnvironment), Recording Environment Provided is a service recommendation apparatus comprising one or more of a type (RecordingEnvironmentType) and a context priority type (ContextPriorityType).

유저 디스크립션의 SYNTAX는 다음과 같다.The SYNTAX of the user description is:

<complexType name="UD"><complexType name = "UD">

<sequence><sequence>

<element name="ClassificationSchemeAlias" type="ct:ClassificationSchemeAliasType" minOccurs="0" maxOccurs="unbounded"/><element name = "ClassificationSchemeAlias" type = "ct: ClassificationSchemeAliasType" minOccurs = "0" maxOccurs = "unbounded" />

<element name="UserID" type="mpeg7:UniqueIDType"/><element name = "UserID" type = "mpeg7: UniqueIDType" />

<element name="UserProfile" type="ud:UserProfileType" minOccurs="0"/><element name = "UserProfile" type = "ud: UserProfileType" minOccurs = "0" />

<element name="UsageHistory" type="ud:UsageHistoryType" minOccurs="0"/><element name = "UsageHistory" type = "ud: UsageHistoryType" minOccurs = "0" />

<element name="Preference" type="ud:PreferenceType" minOccurs="0"/><element name = "Preference" type = "ud: PreferenceType" minOccurs = "0" />

<element name="Emotion" type="ud:EmotionType" minOccurs="0"/><element name = "Emotion" type = "ud: EmotionType" minOccurs = "0" />

<element name="Schedule" type="ud:ScheduleType" minOccurs="0"/><element name = "Schedule" type = "ud: ScheduleType" minOccurs = "0" />

<element name="Activity" type="ud:ActivityType" minOccurs="0"/><element name = "Activity" type = "ud: ActivityType" minOccurs = "0" />

<element name="Representation" type="ct:ObjectType" minOccurs="0"/><element name = "Representation" type = "ct: ObjectType" minOccurs = "0" />

<element name="Intention" type="ud:IntentionType" minOccurs="0"/><element name = "Intention" type = "ud: IntentionType" minOccurs = "0" />

<element name="Knowledge" type="ud:KnowledgeType" minOccurs="0"/><element name = "Knowledge" type = "ud: KnowledgeType" minOccurs = "0" />

<element name="ObjectSharing" type="ud:ObjectSharingType" minOccurs="0"/><element name = "ObjectSharing" type = "ud: ObjectSharingType" minOccurs = "0" />

<element name="ServiceUsagePattern" type="ud:UsagePatternType" minOccurs="0"/><element name = "ServiceUsagePattern" type = "ud: UsagePatternType" minOccurs = "0" />

<element name="LoudnessPreferences" type="ud:LoudnessPreferencesType"/> <element name = "LoudnessPreferences" type = "ud: LoudnessPreferencesType" />

<element name="VisualExpressionPreference" type="ud:VisualExpressionPreferenceType"/> <element name = "VisualExpressionPreference" type = "ud: VisualExpressionPreferenceType" />

</sequence></ sequence>

<attributeGroup ref="ct:commonAttributes"/><attributeGroup ref = "ct: commonAttributes" />

</complexType></ complexType>

SEMANTIC은 다음과 같다.SEMANTIC is as follows.

NameName DefinitionDefinition UDUD Serves as the root element of the MPEG-21 UD Format. The UD element shall be used as the topmost element to make user description in an instance of MPEG-21 UD Format.Serves as the root element of the MPEG-21 UD Format. The UD element shall be used as the topmost element to make user description in an instance of MPEG-21 UD Format. UserDescriptionTypeUserDescriptionType Specifies the syntax of the root element. This datataype is a set of descriptions which may contain static and dynamic information about user. Within this Type, UserProfile, Preference, Emotion, Schedule or Activity element shall be instantiated. Specifies the syntax of the root element. This datataype is a set of descriptions which may contain static and dynamic information about user. Within this Type, UserProfile, Preference, Emotion, Schedule or Activity element shall be instantiated. ClassificationSchemeAliasClassificationSchemeAlias Specifies an alias for a ClassificationScheme to be referenced within the UserDescriptionType by a simplified URI.Specifies an alias for a ClassificationScheme to be referenced within the UserDescriptionType by a simplified URI. UserIDUserID Describes the unique identifier of a user.Describes the unique identifier of a user. UserProfileUserProfile Describes user profile based on UserProfileTypeDescribes user profile based on UserProfileType UsageHistoryUsageHistory Describes usage history based onUsageHistoryType. This element can represent user's history for a given service, such as searching or movie recommendations.Describes usage history based onUsageHistoryType. This element can represent user's history for a given service, such as searching or movie recommendations. PreferencePreference Describes Preference based on PreferenceType. Describes Preference based on PreferenceType. EmotionEmotion Describes Emotion based onEmotionType.This type representsuser's emotion, including its changes over time.Describes Emotion based on EmotionType.This type representsuser's emotion, including its changes over time. ScheduleSchedule Describes schedule based on ScheduleType.Describes schedule based on ScheduleType. ActivityActivity Describes user activity based on ActivityType.Describes user activity based on ActivityType. RepresentationRepresentation Describes the representation such as user character and image used by the user. This element can be used to describe user character on the social network.Describes the representation such as user character and image used by the user. This element can be used to describe user character on the social network. IntentionIntention Describes a list of intentions related to specific actions which a given user may perform with a multimedia object.Describes a list of intentions related to specific actions which a given user may perform with a multimedia object. KnowledgeKnowledge Describes a piece of knowledge that the user wants to share for recommendation purposes.Describes a piece of knowledge that the user wants to share for recommendation purposes. ObjectSharingObjectSharing Describes the condition of authority (e.g. ID, ownership and accessibility of object) for the sharing and accessing of object to user or external service.Describes the condition of authority (e.g. ID, ownership and accessibility of object) for the sharing and accessing of object to user or external service. UsagePatternUsagePattern Describes various patterns about usage of user based on UsagePatternType. Users use a lot of applications and services for a variety of reasons. Usagepattern might be used to figure out user's characteristics.Describes various patterns about usage of user based on UsagePatternType. Users use a lot of applications and services for a variety of reasons. Usagepattern might be used to figure out user's characteristics. commonAttributescommonAttributes Describes a group of attributes for the CommonAttributes.The syntax and semanticsof commonAttributes are specified in Common TypeDescribes a group of attributes for the CommonAttributes.The syntax and semanticsof commonAttributes are specified in Common Type LoudnessPreferencesLoudnessreferences Describes static or dynamic personal and group audio preferences (e.g. audio levels, audio level history, and song preferences) and the usage history which helps with selecting appropriate audio service.Describes static or dynamic personal and group audio preferences (e.g. audio levels, audio level history, and song preferences) and the usage history which helps with selecting appropriate audio service. VisualExpressionPreferenceVisualExpressionPreference A set of data edited by User's intention/emotion or created by recognizing User's situation/condition.A set of data edited by User's intention / emotion or created by recognizing User's situation / condition.

그리고, 멀티미디어의 소비 및 인터랙션의 히스토리를 기술하는 UsageHistoryType의 SYNTAX는 다음과 같다.The SYNTAX of UsageHistoryType describing the history of the consumption and interaction of multimedia is as follows.

<complexType name="UsageHistoryType"><complexType name = "UsageHistoryType">

<sequence> <sequence>

<element name="DetailedUserInteraction" type="ud:DetailedUserInteractionType" minOccurs="0"/> <element name = "DetailedUserInteraction" type = "ud: DetailedUserInteractionType" minOccurs = "0" />

<element name="ServiceUsageInformation" type="ud:ServiceUsageInformationType" minOccurs="0" /><element name = "ServiceUsageInformation" type = "ud: ServiceUsageInformationType" minOccurs = "0" />

</sequence> </ sequence>

</complexType> </ complexType>

<complexType name="DetailedUserInteractionType"> <complexType name = "DetailedUserInteractionType">

<annotation> <annotation>

<documentation>The main complex type describing detailed interaction with multimedia items</documentation> <documentation> The main complex type describing detailed interaction with multimedia items </ documentation>

</annotation> </ annotation>

<sequence> <sequence>

<element name="MultimediaExperiences"> <element name = "MultimediaExperiences">

<complexType> <complexType>

<sequence> <sequence>

<element name="MultimediaExperience" type="ud:MultimediaExperienceType" maxOccurs="unbounded"/> <element name = "MultimediaExperience" type = "ud: MultimediaExperienceType" maxOccurs = "unbounded" />

</sequence> </ sequence>

</complexType> </ complexType>

</element> </ element>

</sequence> </ sequence>

</complexType> </ complexType>

<complexType name="ServiceUsageInformationType"><complexType name = "ServiceUsageInformationType">

<sequence> <sequence>

<element name="ServiceID" type="sd:ServiceDescriptionType"/> <element name = "ServiceID" type = "sd: ServiceDescriptionType" />

<element name="UsageTime" type="ct:TimeType"/> <element name = "UsageTime" type = "ct: TimeType" />

</sequence> </ sequence>

</complexType> </ complexType>

SEMANTIC은 다음과 같다.SEMANTIC is as follows.

NameName DefinitionDefinition UsageHistoryTypeUsageHistoryType Specifies the history of interaction and consumption of multimediaSpecifies the history of interaction and consumption of multimedia MultimediaExperiencesMultimediaExperiences The set of multimedia experiences of the userThe set of multimedia experiences of the user ServiceUsageInformationServiceUsageInformation Describes information about service usage based on ServiceUsageInformationType. Users use a lot of applications and services for a variety of reasons. When encountering a problem such as storage limitation and program errors, it might be difficult to describe usage history completely. In this case, ServiceUsageInformation element can be used to helps to summarize information about usage history. Describes information about service usage based on ServiceUsageInformationType. Users use a lot of applications and services for a variety of reasons. When encountering a problem such as storage limitation and program errors, it might be difficult to describe usage history completely. In this case, ServiceUsageInformation element can be used to helps to summarize information about usage history. DetailedUserInteractionDetailedUserInteraction Structure containing information about the multimedia experiences of the user.Structure containing information about the multimedia experiences of the user. UsageInformationTypeUsageInformationType Describies a general information related to usageAnnex NA Describies a general information related to usage Annex NA SeiviceIDSeiviceID Describes the service used by the userDescribes the service used by the user UsageTimeUsageTime Describes time duration for service usage. The syntax and semantics of TimeType are specified in Common Type (4.0 General Description).Describes time duration for service usage. The syntax and semantics of TimeType are specified in Common Type (4.0 General Description).

그 예는 다음과 같다.An example is as follows.

<ud:UsageHistory><ud: UsageHistory>

<ud:ServiceUsageInformation> <ud: ServiceUsageInformation>

<ud:ServiceID xmlns:ct="urn:mpeg:mpeg21:UD:CT:2016" xmlns:sd="urn:mpeg:mpeg21:UD:SD:2016"> <ud: ServiceID xmlns: ct = "urn: mpeg: mpeg21: UD: CT: 2016" xmlns: sd = "urn: mpeg: mpeg21: UD: SD: 2016">

<sd:ServiceID>13243</sd:ServiceID> <sd: ServiceID> 13243 </ sd: ServiceID>

<sd:ServiceGeneralInformation> <sd: ServiceGeneralInformation>

<sd:ServiceName>Service1</sd:ServiceName> <sd:ServiceProviderName>ServiceProvider</sd:ServiceProviderName> <sd: ServiceName> Service1 </ sd: ServiceName> <sd: ServiceProviderName> ServiceProvider </ sd: ServiceProviderName>

</sd:ServiceGeneralInformation> </ sd: ServiceGeneralInformation>

<sd:ServiceTargetInformation></sd:ServiceTargetInformation> <sd: ServiceTargetInformation> </ sd: ServiceTargetInformation>

<sd:IsServiceAvailable>true</sd:IsServiceAvailable> <sd: IsServiceAvailable> true </ sd: IsServiceAvailable>

</ud:ServiceID> </ ud: ServiceID>

<ud:UsageTime> <ud: UsageTime>

<startTime xmlns="urn:mpeg:mpeg21:UD:CT:2016">2016-01-03T09:00:00Z</startTime> <startTime xmlns = "urn: mpeg: mpeg21: UD: CT: 2016"> 2016-01-03T09: 00: 00Z </ startTime>

<endTime xmlns="urn:mpeg:mpeg21:UD:CT:2016">2016-01-03T09:40:00Z</endTime> <endTime xmlns = "urn: mpeg: mpeg21: UD: CT: 2016"> 2016-01-03T09: 40: 00Z </ endTime>

</ud:UsageTime> </ ud: UsageTime>

</ud:ServiceUsageInformation> </ ud: ServiceUsageInformation>

</ud:UsageHistory> </ ud: UsageHistory>

PreferenceType은 다음과 같다.PreferenceType is as follows.

PreferenceType describes the preference related to the various services. Preference could be conceived of as an individual’s attitude towards a set of objects. Interested topics, preference on presentation style, sensory effects preference, score of satisfaction, service usage preferences, preference on service provider, interested topics and multimedia can be a preference. PreferenceType describes the preference related to the various services. Preference could be conceived of as an individual ’s attitude towards a set of objects. Interested topics, preference on presentation style, sensory effects preference, score of satisfaction, service usage preferences, preference on service provider, interested topics and multimedia can be a preference.

SYNTAX는 다음과 같다.SYNTAX is as follows.

<complexType name="PreferenceType"><complexType name = "PreferenceType">

<sequence> <sequence>

<element name="UserPreferences" type="mpeg7:UserPreferencesType" minOccurs="0"/> <element name = "UserPreferences" type = "mpeg7: UserPreferencesType" minOccurs = "0" />

<element name="AudioPresentationPreferences" type="ud:AudioPresentationPreferencesType" minOccurs="0"/> <element name = "AudioPresentationPreferences" type = "ud: AudioPresentationPreferencesType" minOccurs = "0" />

<element name="DisplayPresentationPreferences" type="mpeg21:DisplayPresentationPreferencesType" minOccurs="0"/> <element name = "DisplayPresentationPreferences" type = "mpeg21: DisplayPresentationPreferencesType" minOccurs = "0" />

<element name="GraphicsPresentationPreferences" type="mpeg21:GraphicsPresentationPreferencesType" minOccurs="0"/> <element name = "GraphicsPresentationPreferences" type = "mpeg21: GraphicsPresentationPreferencesType" minOccurs = "0" />

<element name="TextPresentationPreferences" type="ud:TextPresentationPreferencesType" minOccurs="0" maxOccurs="unbounded"/><element name = "TextPresentationPreferences" type = "ud: TextPresentationPreferencesType" minOccurs = "0" maxOccurs = "unbounded" />

<element name="ServicePreference" type="ud:ServicePreferencesType" minOccurs="0"/> <element name = "ServicePreference" type = "ud: ServicePreferencesType" minOccurs = "0" />

<element name="TranslationPreference" type="ud:TranslationPreferenceType" minOccurs="0"/> <element name = "TranslationPreference" type = "ud: TranslationPreferenceType" minOccurs = "0" />

<element name="WebLinkPreferences" type="ud:WebLinkPreferenceType" minOccurs="0" maxOccurs="unbounded"/> <element name = "WebLinkPreferences" type = "ud: WebLinkPreferenceType" minOccurs = "0" maxOccurs = "unbounded" />

</sequence> </ sequence>

</complexType></ complexType>

SEMANTIC은 다음과 같다.SEMANTIC is as follows.

NameName DefinitionDefinition PreferenceTypePreferenceType Describes the preference related to the various services. Preference could be conceived of as an individual's attitude towards a set of objects. Interested topics, preference on presentation style, sensory effects preference, score of satisfaction, service usage preferences, preference on service provider, interested topics and media can be a Preference.Describes the preference related to the various services. Preference could be conceived of as an individual's attitude towards a set of objects. Interested topics, preference on presentation style, sensory effects preference, score of satisfaction, service usage preferences, preference on service provider, interested topics and media can be a Preference. UserPreferencesUserPreferences Describes the user's preferences pertaining to consumption of multimedia content, in particular, filtering, searching and browsing of multimedia content. The mpeg7:UserPreferencesType contains FilteringAndSearchPreferences, BrowsingPreferences and RecordingPreferences, and contains an attribute indicating whether the user's preferences may be updated automatically.Describes the user's preferences pertaining to consumption of multimedia content, in particular, filtering, searching and browsing of multimedia content. The mpeg7: UserPreferencesType contains FilteringAndSearchPreferences, BrowsingPreferences and RecordingPreferences, and contains an attribute indicating whether the user's preferences may be updated automatically. AudioPresentationPreferencesAudioPresentationPreferences Describes the preferences of a user regarding the presentation or rendering or audio resources. This element refers AudioPresentationPreferencesType.Describes the preferences of a user regarding the presentation or rendering or audio resources. This element refers AudioPresentationPreferencesType. DisplayPresentationPreferencesDisplayPresentationPreferences Describes preferences of a User regarding the presentation or rendering of images and videos. This mpeg21:DisplayPresentationPreferencesType includes descriptors of preferences related to the color and the conversion of stereoscopic video. The ColorTemperaturePreference, the BrightnessPreference, the SaturationPreference and the ContrastPreference describe the preferences of a User regarding the color of the displayed visual contents in terms of color temperature, brightness, saturation and contrast, each of which is a usual color attribute of images. StereoscopicVideoConversion describes the preferences of a User related to the conversion of 2D video to 3D stereoscopic video and also the conversion of 3D stereoscopic video to 2D video.Describes preferences of a User regarding the presentation or rendering of images and videos. This mpeg21: DisplayPresentationPreferencesType includes descriptors of preferences related to the color and the conversion of stereoscopic video. The ColorTemperaturePreference, the BrightnessPreference, the SaturationPreference and the ContrastPreference describe the preferences of a User regarding the color of the displayed visual contents in terms of color temperature, brightness, saturation and contrast, each of which is a usual color attribute of images. Stereoscopic Video Conversion describes the preferences of a User related to the conversion of 2D video to 3D stereoscopic video and also the conversion of 3D stereoscopic video to 2D video. GraphicsPresentationPreferencesGraphicsPresentationPreferences Describes presentation preferences related to graphics media. This mpeg21:GraphicsPresentationPreferencesType contains GeometryEmphasis, TextureEmphasis and AnimationEmphasis element.Describes presentation preferences related to graphics media. This mpeg21: GraphicsPresentationPreferencesType contains GeometryEmphasis, TextureEmphasis and AnimationEmphasis element. TextPresentationPreferencesTextPresentationPreferences Describes user's presentation preference related to text to be presented in the display device.Describes user's presentation preference related to text to be presented in the display device. ServicePreferenceServicePreference Describes the level of preferences for specific services.Describes the level of preferences for specific services. TranslationPreferenceTranslationPreference Describes the preferences for translation services.Describes the preferences for translation services. WebLinkPreferencesWebLinkPreferences Describes the preference related to the various weblinksDescribes the preference related to the various weblinks

TextPresentationPreferencesType은 다음과 같다.TextPresentationPreferencesType is as follows.

This TextPresentationPreferencesType describes user's presentation preference related to text to be presented in the display device.This TextPresentationPreferencesType describes user's presentation preference related to text to be presented in the display device.

SYNTAX는 다음과 같다.SYNTAX is as follows.

<complexType name="TextPresentationPreferencesType"><complexType name = "TextPresentationPreferencesType">

<sequence> <sequence>

<element name="TextPropertyPreference" type="ud:TextPropertyPreferenceType"/> <element name = "TextPropertyPreference" type = "ud: TextPropertyPreferenceType" />

<element name="TargetDisplayDeviceCapability" type="mpeg21:DisplayCapabilityType" minOccurs="0"/> <element name = "TargetDisplayDeviceCapability" type = "mpeg21: DisplayCapabilityType" minOccurs = "0" />

</sequence> </ sequence>

</complexType></ complexType>

<complexType name="TextPropertyPreferenceType"><complexType name = "TextPropertyPreferenceType">

<complexContent> <complexContent>

<extension base="mpeg21:FontType"> <extension base = "mpeg21: FontType">

<attribute name="italic" type="boolean" use="optional" default="false"/> <attribute name = "italic" type = "boolean" use = "optional" default = "false" />

<attribute name="oblique" type="boolean" use="optional" default="false"/><attribute name = "oblique" type = "boolean" use = "optional" default = "false" />

<attribute name="bold" type="boolean" use="optional" default="false"/> <attribute name = "bold" type = "boolean" use = "optional" default = "false" />

<attribute name="smallcap" type="boolean" use="optional" default="false"/><attribute name = "smallcap" type = "boolean" use = "optional" default = "false" />

<attribute name="underline" type="boolean" use="optional" default="false"/><attribute name = "underline" type = "boolean" use = "optional" default = "false" />

<attribute name="overline" type="boolean" use="optional" default="false"/><attribute name = "overline" type = "boolean" use = "optional" default = "false" />

</extension> </ extension>

</complexContent> </ complexContent>

</complexType></ complexType>

SEMANTIC은 다음과 같다.SEMANTIC is as follows.

NameName DefinitionDefinition TextPropertyPreferenceTextPropertyPreference Describes user's preference of text properties such as font type, font color, font size, font style, etc.Describes user's preference of text properties such as font type, font color, font size, font style, etc. TargetDisplayDevicCapabilityTargetDisplayDevicCapability Describes the capabilities of the target display device to which text presentation preferences describing in TextPropertyPreference element are applied. The syntax and semantics of DisplayCapabilityType are specified in ISO/IEC 21000-7.Describes the capabilities of the target display device to which text presentation preferences describing in TextPropertyPreference element are applied. The syntax and semantics of Display Capability Type are specified in ISO / IEC 21000-7. italicitalic obliqueoblique Specifies whether oblique style is used or not. The default value is "false". The oblique style is slightly slanted but the letterforms do not change shape.Specifies whether oblique style is used or not. The default value is "false". The oblique style is slightly slanted but the letterforms do not change shape. boldbold smallCapsmallCap Specifies whether small-cap style is used or not. The default value is "false". The small-cap style is that all lowercase letters are converted to uppercase letters. Specifies whether small-cap style is used or not. The default value is "false". The small-cap style is that all lowercase letters are converted to uppercase letters. underlineunderline overlineoverline

예는 다음과 같다.An example follows.

<ud:UD><ud: UD>

<ud:UserID>keti</ud:UserID> <ud: UserID> keti </ ud: UserID>

<ud:Preference> <ud: Preference>

<ud:TextPresentationPreferences> <ud: TextPresentationPreferences>

<ud:TextPropertyPreference fontColor="black" fontSize="10" fontType="arial" italic="true" underline="true"/> <ud: TextPropertyPreference fontColor = "black" fontSize = "10" fontType = "arial" italic = "true" underline = "true" />

<ud:TargetDisplayDeviceCapability> <ud: TargetDisplayDeviceCapability>

<mpeg21:Mode> <mpeg21: Mode>

<mpeg21:Resolution horizontal="720" vertical="480"/> <mpeg21: Resolution horizontal = "720" vertical = "480" />

</mpeg21:Mode> </ mpeg21: Mode>

<mpeg21:ScreenSize horizontal="49" vertical="52"/> <mpeg21: ScreenSize horizontal = "49" vertical = "52" />

</ud:TargetDisplayDeviceCapability> </ ud: TargetDisplayDeviceCapability>

</ud:TextPresentationPreferences> </ ud: TextPresentationPreferences>

</ud:Preference> </ ud: Preference>

</ud:UD> </ ud: UD>

WebLinkPreferenceType은 다음과 같다.WebLinkPreferenceType is as follows.

ebLinkPreferenceType type describes the preference related to the various weblinks. ebLinkPreferenceType type describes the preference related to the various weblinks.

WebLinkPreferenceType type is composed of WebLinkAddress element, WebLinkUsageHistoryType element and preferenceLevel attribute for that link.WebLinkPreferenceType type is composed of WebLinkAddress element, WebLinkUsageHistoryType element and preferenceLevel attribute for that link.

SYNTAX는 다음과 같다.SYNTAX is as follows.

<complexType name="WebLinkPreferenceType"><complexType name = "WebLinkPreferenceType">

<sequence><sequence>

<element name="WebLinkAddress" type="anyURI"/><element name = "WebLinkAddress" type = "anyURI" />

<element name="WebLinkUsageHistory" type="ud:WebLinkUsageHistoryType" minOccurs="0" maxOccurs="unbounded"/> <element name = "WebLinkUsageHistory" type = "ud: WebLinkUsageHistoryType" minOccurs = "0" maxOccurs = "unbounded" />

</sequence></ sequence>

<attribute name="preferenceLevel" type="ct:ZeroToOnehundredRatioType" use="optional" default="50"/><attribute name = "preferenceLevel" type = "ct: ZeroToOnehundredRatioType" use = "optional" default = "50" />

</complexType></ complexType>

SEMANTIC은 다음과 같다.SEMANTIC is as follows.

NameName DefinitionDefinition WebLinkPreferenceTypeWebLinkPreferenceType Describes the preference related to the specific weblink. Describes the preference related to the specific weblink. WebLinkAddressWebLinkAddress Describes the URI of the preferred weblink. Describes the URI of the preferred weblink. WebLinkUsageHistoryWebLinkUsageHistory Describes the UsageHistory of a specific WebLinkDescribes the Usage History of a specific WebLink preferenceLevelpreferenceLevel Describes a ranking of the weblink preference. Value ranges from 0 to 100 and default value is 50. Describes a ranking of the weblink preference. Value ranges from 0 to 100 and default value is 50.

예는 다음과 같다.An example follows.

<ud:Preference><ud: Preference>

<ud:WebLinkPreferences> <ud: WebLinkPreferences>

<ud:WebLinkAddress></ud:WebLinkAddress> <ud: WebLinkAddress> </ ud: WebLinkAddress>

<ud:WebLinkUsageHistory feedback="true"> <ud: WebLinkUsageHistory feedback = "true">

<ud:Coordinates> <ud: Coordinates>

<ud:Time> <ud: Time>

<ct:startTime xmlns:ct="urn:mpeg:mpeg21:UD:CT:2016">2015-06-04T18:13:51.0Z</ct:startTime> <ct: startTime xmlns: ct = "urn: mpeg: mpeg21: UD: CT: 2016"> 2015-06-04T18: 13: 51.0Z </ ct: startTime>

</ud:Time> </ ud: Time>

</ud:Coordinates> </ ud: Coordinates>

</ud:WebLinkUsageHistory> </ ud: WebLinkUsageHistory>

</ud:WebLinkPreferences> </ ud: WebLinkPreferences>

</ud:Preference></ ud: Preference>

WebLinkUsageHistoryType는 다음과 같다.WebLinkUsageHistoryType is as follows.

WebLinkUsageHistoryType type describes the usage history of a specific weblink.WebLinkUsageHistoryType type describes the usage history of a specific weblink.

SYNTAX는 다음과 같다.SYNTAX is as follows.

<complexType name="WebLinkUsageHistoryType"><complexType name = "WebLinkUsageHistoryType">

<complexContent><complexContent>

<extension base="ud:EventType"><extension base = "ud: EventType">

<attribute name="feedback" type="boolean"/><attribute name = "feedback" type = "boolean" />

</extension></ extension>

</complexContent></ complexContent>

</complexType></ complexType>

SEMANTIC은 다음과 같다SEMANTIC is as follows

NameName DefinitionDefinition WebLinkUsageHistoryTypeWebLinkUsageHistoryType Describes the usage history ofa specific weblink. Describes the usage history of a specific weblink. feedbackfeedback Describes the user feedback of a specific weblink. It represents one of two values: TRUE or FALSE. (TRUE: Positive feedback, False: Negative feedback)Describes the user feedback of a specific weblink. It represents one of two values: TRUE or FALSE. (TRUE: Positive feedback, False: Negative feedback)

SocialInformationType은 다음과 같다.SocialInformationType is as follows.

SYNTAX는 다음과 같다.SYNTAX is as follows.

<complexType name="SocialInformationType"><complexType name = "SocialInformationType">

<sequence> <sequence>

<element name="ServiceID" type="sd:ServiceDescriptionType" minOccurs="0"/> <element name = "ServiceID" type = "sd: ServiceDescriptionType" minOccurs = "0" />

<element name="LoginID" type="ud:UserDescriptionType"/> <element name = "LoginID" type = "ud: UserDescriptionType" />

<element name="LoginPassword" > <element name = "LoginPassword">

<simpleType> <simpleType>

<restriction base="string"> <restriction base = "string">

<minLength value="8"/> <minLength value = "8" />

<maxLength value="512"/> <maxLength value = "512" />

</restriction> </ restriction>

</simpleType> </ simpleType>

</element> </ element>

<element name="Nickname" type="Name" minOccurs="0"/> <element name = "Nickname" type = "Name" minOccurs = "0" />

<element name="GroupID" type="mpeg7:UserIdentifierType"minOccurs="0"/> <element name = "GroupID" type = "mpeg7: UserIdentifierType" minOccurs = "0" />

<element name="FriendUserID" type="mpeg7:UserIdentifierType" minOccurs="0" maxOccurs="unbounded"/> <element name = "FriendUserID" type = "mpeg7: UserIdentifierType" minOccurs = "0" maxOccurs = "unbounded" />

<element name="PrivateInformationAccessID" type="mpeg7:UserIdentifierType" minOccurs="0" maxOccurs="unbounded"/> <element name = "PrivateInformationAccessID" type = "mpeg7: UserIdentifierType" minOccurs = "0" maxOccurs = "unbounded" />

</sequence> </ sequence>

</complexType></ complexType>

SEMANTIC은 다음과 같다SEMANTIC is as follows

NameName DefinitionDefinition socialinformationTypesocialinformationType Describes a specific information of a given user, provided to a specific service, mainly referred to a social community.Describes a specific information of a given user, provided to a specific service, mainly referred to a social community. ServiceIDServiceID Describes the service used by the user.Describes the service used by the user. LoginIDLoginID Describes the login id of the user.Describes the login id of the user. LoginPasswordLoginPassword Describes the password.Describes the password. NicknameNickname Describes the nickname of the user if any.Describes the nickname of the user if any. GroupIDGroupID Describes the group which the user belongs to.Describes the group which the user belongs to. FriendUserIDFriendUserID Describes the list of friends.Describes the list of friends. PrivateInformationAccessIDPrivateInformationAccessID Describes the list of other users who can access private information of a given user.Describes the list of other users who can access private information of a given user.

KnowledgeType은 다음과 같다.KnowledgeType is as follows.

We propose to add the following complex type:This complex type describes knowledge that the user wants to share for recommendation purposes.We propose to add the following complex type: This complex type describes knowledge that the user wants to share for recommendation purposes.

SYNTAX는 다음과 같다.SYNTAX is as follows.

<complexType name="KnowledgeType"><complexType name = "KnowledgeType">

<choice maxOccurs="unbounded"> <choice maxOccurs = "unbounded">

<element name="KnowledgeGraph"> <element name = "KnowledgeGraph">

<complexType> <complexType>

<sequence> <sequence>

<any namespace="http://www.w3.org/1999/02/22-rdf-syntax-ns#" processContents="skip"/> <any namespace = "http://www.w3.org/1999/02/22-rdf-syntax-ns#" processContents = "skip" />

</sequence> </ sequence>

<attribute name="IRI" type="anyURI"/> <attribute name = "IRI" type = "anyURI" />

</complexType> </ complexType>

</element> </ element>

<element name="KnowledgeGrpahRef"> <element name = "KnowledgeGrpahRef">

<complexType> <complexType>

<attribute name="url" type="anyURI"/> <attribute name = "url" type = "anyURI" />

</complexType> </ complexType>

</element> </ element>

</choice> </ choice>

</complexType></ complexType>

SEMANTIC은 다음과 같다SEMANTIC is as follows

The following example illustrates a case in which a user shares the knowledge about Wolfgang Amadeus Mozart. A Recommendation Engine can exploit this knowledge by e.g. exploring other entities in DBPedia of one or more of the categories stated in the Knowledge Graph about W.A. Mozart. For example, by exploring one of the dct:subject statements (namely the one pointing at the resource http://dbpedia.org/resource/Category:Austrian_classical_composers) the engine will discover that Joseph Haydn is also an Austrian classical composer, and thus can decide to recommend Haydn's compositions to the user.The following example illustrates a case in which a user shares the knowledge about Wolfgang Amadeus Mozart. A Recommendation Engine can exploit this knowledge by e.g. exploring other entities in DBPedia of one or more of the categories stated in the Knowledge Graph about W.A. Mozart. For example, by exploring one of the dct: subject statements (namely the one pointing at the resource http://dbpedia.org/resource/Category:Austrian_classical_composers) the engine will discover that Joseph Haydn is also an Austrian classical composer, and thus can decide to recommend Haydn's compositions to the user.

<UD xmlns="urn:mpeg:mpeg21:UD:UD:2016" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="urn:mpeg:mpeg21:UD:UD:2016 1.MPEG_21_UD_UD.xsd" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"><UD xmlns = "urn: mpeg: mpeg21: UD: UD: 2016" xmlns: xsi = "http://www.w3.org/2001/XMLSchema-instance" xsi: schemaLocation = "urn: mpeg: mpeg21: UD : UD: 2016 1.MPEG_21_UD_UD.xsd "xmlns: rdf =" http://www.w3.org/1999/02/22-rdf-syntax-ns# ">

<UserID>U100</UserID> <UserID> U100 </ UserID>

<UserProfile> <UserProfile>

[...] [...]

</UserProfile> </ UserProfile>

[...] [...]

<Knowledge> <Knowledge>

<KnowledgeGraph> <KnowledgeGraph>

<rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:rdfs="http://www.w3.org/2000/01/rdf-schema#" xmlns:dbo="http://dbpedia.org/ontology/" xmlns:dct="http://purl.org/dc/terms/" xmlns:owl="http://www.w3.org/2002/07/owl#" xmlns:dbp="http://dbpedia.org/property/" xmlns:foaf="http://xmlns.com/foaf/0.1/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:prov="http://www.w3.org/ns/prov#"> <rdf: RDF xmlns: rdf = "http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns: rdfs = "http://www.w3.org/2000/01 / rdf-schema # "xmlns: dbo =" http://dbpedia.org/ontology/ "xmlns: dct =" http://purl.org/dc/terms/ "xmlns: owl =" http: // www .w3.org / 2002/07 / owl # "xmlns: dbp =" http://dbpedia.org/property/ "xmlns: foaf =" http://xmlns.com/foaf/0.1/ "xmlns: dc = "http://purl.org/dc/elements/1.1/" xmlns: prov = "http://www.w3.org/ns/prov#">

<rdf:Description rdf:about="http://dbpedia.org/resource/Wolfgang_Amadeus_Mozart"> <rdf: Description rdf: about = "http://dbpedia.org/resource/Wolfgang_Amadeus_Mozart">

<rdf:type rdf:resource="http://www.ontologydesignpatterns.org/ont/dul/DUL.owl#Agent"/> <rdf: type rdf: resource = "http://www.ontologydesignpatterns.org/ont/dul/DUL.owl#Agent" />

<rdf:type rdf:resource="http://xmlns.com/foaf/0.1/Person"/> <rdf: type rdf: resource = "http://xmlns.com/foaf/0.1/Person" />

<rdf:type rdf:resource="http://schema.org/Person"/> <rdf: type rdf: resource = "http://schema.org/Person" />

<rdf:type rdf:resource="http://www.ontologydesignpatterns.org/ont/dul/DUL.owl#NaturalPerson"/> <rdf: type rdf: resource = "http://www.ontologydesignpatterns.org/ont/dul/DUL.owl#NaturalPerson" />

<rdf:type rdf:resource="http://dbpedia.org/ontology/Person"/> <rdf: type rdf: resource = "http://dbpedia.org/ontology/Person" />

<rdf:type rdf:resource="http://dbpedia.org/ontology/Agent"/> <rdf: type rdf: resource = "http://dbpedia.org/ontology/Agent" />

<dbo:deathPlace rdf:resource="http://dbpedia.org/resource/Austria"/> <dbo: deathPlace rdf: resource = "http://dbpedia.org/resource/Austria" />

<dbo:deathPlace rdf:resource="http://dbpedia.org/resource/Vienna"/> <dbo: deathPlace rdf: resource = "http://dbpedia.org/resource/Vienna" />

<dbo:deathDate rdf:datatype="http://www.w3.org/2001/XMLSchema#date">1791-12-05</dbo:deathDate> <dbo: deathDate rdf: datatype = "http://www.w3.org/2001/XMLSchema#date"> 1791-12-05 </ dbo: deathDate>

<dbo:birthPlace rdf:resource="http://dbpedia.org/resource/Salzburg"/> <dbo: birthPlace rdf: resource = "http://dbpedia.org/resource/Salzburg" />

<dbo:birthPlace rdf:resource="http://dbpedia.org/resource/Austria"/> <dbo: birthPlace rdf: resource = "http://dbpedia.org/resource/Austria" />

<dbo:birthDate rdf:datatype="http://www.w3.org/2001/XMLSchema#date">1756-01-27</dbo:birthDate> <dbo: birthDate rdf: datatype = "http://www.w3.org/2001/XMLSchema#date"> 1756-01-27 </ dbo: birthDate>

<dct:subject rdf:resource="http://dbpedia.org/resource/Category:Knights_of_the_Golden_Spur"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:Knights_of_the_Golden_Spur" />

<dct:subject rdf:resource="http://dbpedia.org/resource/Category:German_male_classical_composers"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:German_male_classical_composers" />

<dct:subject rdf:resource="http://dbpedia.org/resource/Category:German_opera_composers"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:German_opera_composers" />

<dct:subject rdf:resource="http://dbpedia.org/resource/Category:Classical-period_composers"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:Classical-period_composers" />

<dct:subject rdf:resource="http://dbpedia.org/resource/Category:Austrian_opera_composers"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:Austrian_opera_composers" />

<dct:subject rdf:resource="http://dbpedia.org/resource/Category:Child_classical_musicians"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:Child_classical_musicians" />

<dct:subject rdf:resource="http://dbpedia.org/resource/Category:Composers_for_pedal_piano"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:Composers_for_pedal_piano" />

<dct:subject rdf:resource="http://dbpedia.org/resource/Category:Austrian_classical_composers"/> <dct: subject rdf: resource = "http://dbpedia.org/resource/Category:Austrian_classical_composers" />

</rdf:Description> </ rdf: Description>

</rdf:RDF></ rdf: RDF>

</KnowledgeGraph></ KnowledgeGraph>

</Knowledge></ Knowledge>

[...][...]

</UD></ UD>

UsagePatternTypeUsagePatternType

The UsagePatternType describes varioususages patterns ofuser.The UsagePatternType describes varioususages patterns ofuser.

SYNTAX는 다음과 같다.SYNTAX is as follows.

<complexType name="UsagePatternType"><complexType name = "UsagePatternType">

<sequence> <sequence>

<element name="WebUsage"> <element name = "WebUsage">

<complexType> <complexType>

<sequence> <sequence>

<element name="AverageTimeOfUsage" type="duration" minOccurs="0"/><element name = "AverageTimeOfUsage" type = "duration" minOccurs = "0" />

<element name="AverageNumberOfUsage" type="integer" minOccurs="0"/> <element name = "AverageNumberOfUsage" type = "integer" minOccurs = "0" />

</sequence> </ sequence>

</complexType> </ complexType>

</element> </ element>

<!--<element name="ApplicationUsage" type="ud:ApplicatoinUsageType"/> TBC --><!-<element name = "ApplicationUsage" type = "ud: ApplicatoinUsageType" /> TBC->

</sequence> </ sequence>

</complexType></ complexType>

SEMANTIC은 다음과 같다SEMANTIC is as follows

NameName DefinitionDefinition UsagePatternTypeUsagePatternType Specifies variouspatterns about usage pattern of user. Specifies variouspatterns about usage pattern of user. WebUsageWebUsage Specifies web usage pattern of user.Specifies web usage pattern of user. AverageTimeOfUsageAverageTimeOfUsage Describes a period of using web per day on average.Describes a period of using web per day on average. AverageNumberOfUsageAverageNumberOfUsage Describes a number of using web per day on average.Describes a number of using web per day on average.

<ud:UsagePattern><ud: UsagePattern>

<ud:WebUsage> <ud: WebUsage>

<ud:AverageTimeOfUsage>P50M</ud:AverageTimeOfUsage> <ud: AverageTimeOfUsage> P50M </ ud: AverageTimeOfUsage>

<ud:AverageNumberOfUsage>3</ud:AverageNumberOfUsage> <ud: AverageNumberOfUsage> 3 </ ud: AverageNumberOfUsage>

</ud:WebUsage> </ ud: WebUsage>

</ud:UsagePattern></ ud: UsagePattern>

ContextDescriptionTypeContextDescriptionType

SYNTAX는 다음과 같다.SYNTAX is as follows.

<complexType name="CD" abstract="true"><complexType name = "CD" abstract = "true">

<attribute name="InfoSource" type="anyURI"/> <attribute name = "InfoSource" type = "anyURI" />

</complexType></ complexType>

<complexType name="ContextDescriptionType"><complexType name = "ContextDescriptionType">

<sequence> <sequence>

<element name="ClassificationSchemeAlias" type="ct:ClassificationSchemeAliasType" minOccurs="0" maxOccurs="unbounded"/> <element name = "ClassificationSchemeAlias" type = "ct: ClassificationSchemeAliasType" minOccurs = "0" maxOccurs = "unbounded" />

<element name="ContextIdentification" type="cd:ContextIdentificationType" minOccurs="0"/> <element name = "ContextIdentification" type = "cd: ContextIdentificationType" minOccurs = "0" />

<element name="ValidTimeDuration" type="ct:TimeType" minOccurs="0"/> <element name = "ValidTimeDuration" type = "ct: TimeType" minOccurs = "0" />

<element name="Season" type="mpeg7:termReferenceType" minOccurs="0"/> <element name = "Season" type = "mpeg7: termReferenceType" minOccurs = "0" />

<element name="DeviceCharacteristics" type="cd:DeviceCharacteristicsType" minOccurs="0" maxOccurs="unbounded"/> <element name = "DeviceCharacteristics" type = "cd: DeviceCharacteristicsType" minOccurs = "0" maxOccurs = "unbounded" />

<element name="NetworkInfo" type="cd:NetworkInfoType" minOccurs="0" maxOccurs="unbounded"/> <element name = "NetworkInfo" type = "cd: NetworkInfoType" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Location" type="ct:LocationType" minOccurs="0"/> <element name = "Location" type = "ct: LocationType" minOccurs = "0" />

<element name="Weather" type="cd:WeatherType" minOccurs="0"/> <element name = "Weather" type = "cd: WeatherType" minOccurs = "0" />

<element name="OtherEnvironmentalInfo" type="cd:OtherEnvironmentalInfoType" minOccurs="0"/> <element name = "OtherEnvironmentalInfo" type = "cd: OtherEnvironmentalInfoType" minOccurs = "0" />

<element name="OtherContextInfo" type="anyType" minOccurs="0" maxOccurs="unbounded"/> <element name = "OtherContextInfo" type = "anyType" minOccurs = "0" maxOccurs = "unbounded" />

<element name="LoudnessEnvironment" type="cd:LoudnessEnvironmentType"/> <element name = "LoudnessEnvironment" type = "cd: LoudnessEnvironmentType" />

<element name="VisualExpressionEnvironment" type="cd:VisualExpressionEnvironmentType"/> <element name = "VisualExpressionEnvironment" type = "cd: VisualExpressionEnvironmentType" />

</sequence> </ sequence>

<attributeGroup ref="ct:commonAttributes"/> <attributeGroup ref = "ct: commonAttributes" />

<attribute name="Priority" type="ct:ZeroToOnehundredOrdinalType" use="optional"/> <attribute name = "Priority" type = "ct: ZeroToOnehundredOrdinalType" use = "optional" />

</complexType></ complexType>

SEMANTIC은 다음과 같다SEMANTIC is as follows

NameName DefinitionDefinition CDCD This data element is the root element of the Context Description.This data element is the root element of the Context Description. ContextDescriptionTypeContextDescriptionType This data type contains static and dynamic information about the user context.This data type contains static and dynamic information about the user context. ClassificationSchemeAliasClassificationSchemeAlias Specifies an alias for a ClassificationScheme to be referenced within the UserDescriptionType by a simplified URI.Specifies an alias for a ClassificationScheme to be referenced within the UserDescriptionType by a simplified URI. ValidTimeDurationValidTimeDuration Describes valid time duration for context description. The syntax and semantics of PeriodOfTimeType are specified in Common Type (4.0 General Description).Describes valid time duration for context description. The syntax and semantics of PeriodOfTimeType are specified in Common Type (4.0 General Description). SeasonSeason Describes current season information according to the region. Terms for the Season are specified by the CS Season (urn:mpeg: mpeg21:UD:CS:SeasonCS:2016).Describes current season information according to the region. Terms for the Season are specified by the CS Season (urn: mpeg: mpeg21: UD: CS: SeasonCS: 2016). DeviceCharacteristicsDeviceCharacteristics Describes general characteristics of the terminal.Describes general characteristics of the terminal. NetworkInfoNetworkInfo Describes network related information.Describes network related information. LocationLocation Describes current location when a service is requested. The syntax and semantics of PlaceType are specified in ISO/IEC 15938-5.Describes current location when a service is requested. The syntax and semantics of PlaceType are specified in ISO / IEC 15938-5. WeatherWeather Describes current weather when a service is requested.Describes current weather when a service is requested. OtherEnvironmentalInfoOtherEnvironmentalInfo Describes environmental information of noise or illumination characteristics around user.Describes environmental information of noise or illumination characteristics around user. commonAttributescommonAttributes Describes a group of attributes for the CommonAttributes. The syntax and semantics of commonAttributes are specified in Common Type.Describes a group of attributes for the CommonAttributes. The syntax and semantics of commonAttributes are specified in Common Type. PriorityPriority Describes the level of priority of the context description by using the ct:ZeroToOnehundredOrdinalType.Describes the level of priority of the context description by using the ct: ZeroToOnehundredOrdinalType. OtherContextInfoOtherContextInfo A placeholder for other context - related information outside the standard namespace.A placeholder for other context-related information outside the standard namespace. LoudnessControlContextDescriptionLoudnessControlContextDescription Loudness Control Context Description describes the existing audio environment (e.g. natural noise, music from other audio sources, audio device's locations) which may be useful in recommending volume level and audio output devices in a heterogeneous audio environment. Loudness Control Context Description describes the existing audio environment (e.g. natural noise, music from other audio sources, audio device's locations) which may be useful in recommending volume level and audio output devices in a heterogeneous audio environment. VisualExpressionContextDescriptionVisualExpressionContextDescription A set of data acquired from sensors or sensory devices about User's environment or body conditionA set of data acquired from sensors or sensory devices about User's environment or body condition

8.1.1 ServiceDescriptionType8.1.1 ServiceDescriptionType

This subclause describes a structure of ServiceDescriptionType data type. The ServiceDescriptionType contains several elements, such as ServiceGeneralInformation, ServiceTargetInformation, ServiceInterfaces, InternalServices, Priority, IsServiceAvailable and ServiceObjectsInformation each of which is used for describing service’s information. This subclause describes a structure of ServiceDescriptionType data type. The ServiceDescriptionType contains several elements, such as ServiceGeneralInformation, ServiceTargetInformation, ServiceInterfaces, InternalServices, Priority, IsServiceAvailable and ServiceObjectsInformation each of which is used for describing service ’s information.

8.1.1.1 Syntax8.1.1.1 Syntax

<complexType name="SD"><complexType name = "SD">

<sequence> <sequence>

<element name="ClassificationSchemeAlias" type="ct:ClassificationSchemeAliasType" minOccurs="0" maxOccurs="unbounded"/> <element name = "ClassificationSchemeAlias" type = "ct: ClassificationSchemeAliasType" minOccurs = "0" maxOccurs = "unbounded" />

<element name="ServiceID" type="mpeg7:UniqueIDType"/> <element name = "ServiceID" type = "mpeg7: UniqueIDType" />

<element name="ServiceGeneralInformation" type="sd:ServiceGeneralInformationType"/> <element name = "ServiceGeneralInformation" type = "sd: ServiceGeneralInformationType" />

<element name="ServiceTargetInformation" type="sd:ServiceTargetInformationType"/> <element name = "ServiceTargetInformation" type = "sd: ServiceTargetInformationType" />

<element name="ServiceInterfaces" type="sd:ServiceInterfacesType" minOccurs="0"/> <element name = "ServiceInterfaces" type = "sd: ServiceInterfacesType" minOccurs = "0" />

<element name="InternalServices" type="sd:InternalServicesType" minOccurs="0"/> <element name = "InternalServices" type = "sd: InternalServicesType" minOccurs = "0" />

<element name="Priority" type="ct:ZeroToOnehundredOrdinalType" minOccurs="0"/> <element name = "Priority" type = "ct: ZeroToOnehundredOrdinalType" minOccurs = "0" />

<element name="IsServiceAvailable" type="boolean"/> <element name = "IsServiceAvailable" type = "boolean" />

<element name="ServiceObjectsInformation" type="sd:ServiceObjectType" minOccurs="0"/> <element name = "ServiceObjectsInformation" type = "sd: ServiceObjectType" minOccurs = "0" />

<element name="LoudnessControlServiceDescription" type="LoudnessInfoType"/> <element name = "LoudnessControlServiceDescription" type = "LoudnessInfoType" />

<element name="VisualExpressionServiceDescription" type="SD:VisualExpression"/> <element name = "VisualExpressionServiceDescription" type = "SD: VisualExpression" />

<element name="PrivacyProtectionServiceDescription" type="SD:PrivacyProtection"/> <element name = "PrivacyProtectionServiceDescription" type = "SD: PrivacyProtection" />

<element name="CompanionScreenServiceServiceDescription" type="SD:CompanionScreenService"/> <element name = "CompanionScreenServiceServiceDescription" type = "SD: CompanionScreenService" />

</sequence> </ sequence>

</complexType></ complexType>

NameName DefinitionDefinition SDSD Specifies the root element of the Service Description.Specifies the root element of the Service Description. ClassificationSchemeAliasClassificationSchemeAlias The Classification scheme aliasinformationThe Classification scheme aliasinformation ServiceIDServiceID Describes the unique ID of the serviceDescribes the unique ID of the service ServiceGeneralInformationServiceGeneralInformation Describes general information about a given service.Describes general information about a given service. ServiceTargetInformationServiceTargetInformation Describes user's preferred service.Describes user's preferred service. ServiceInterfacesServiceInterfaces Describes interfaces used for exchanging information among theDescribes interfaces used for exchanging information among the InternalServicesInternalServices Describes an internal service.Describes an internal service. PriorityPriority Specifies the priority level associated to a given service.Specifies the priority level associated to a given service. IsServiceAvailableIsServiceAvailable Specifies availability of the service.Specifies availability of the service. LoudnessControlServiceDescriptionLoudnessControlServiceDescription Loudness Control Service Description shall describe set of supported audio services (e.g. audio output formats, volume levels, list of accessible copyright protected materials) available to the user in order to ensure continuous and smooth audio services while adhering to copyright protection and applicable laws.Loudness Control Service Description shall describe set of supported audio services (e.g. audio output formats, volume levels, list of accessible copyright protected materials) available to the user in order to ensure continuous and smooth audio services while adhering to copyright protection and applicable laws. VisualExpressionServiceDescriptionVisualExpressionServiceDescription A set of base visual objects for expressing human's emotion, intention, situation and condition. A set of base visual objects for expressing human's emotion, intention, situation and condition.

VisualExpressionInfoTypeVisualExpressionInfoType

<complexType name="SD:VisualExpression"><complexType name = "SD: VisualExpression">

<sequence> <sequence>

<element name="VisualObject" type="VOType"/> <element name = "VisualObject" type = "VOType" />

</sequence> </ sequence>

</complexType></ complexType>

<complexType name="VOType"><complexType name = "VOType">

<choice minOccurs="0" maxOccurs="unbounded"> <choice minOccurs = "0" maxOccurs = "unbounded">

<element name="Face" type="Face"/> <element name = "Face" type = "Face" />

<element name="Clock" type="Clock"/> <element name = "Clock" type = "Clock" />

<element name="Animal" type="Animal"/> <element name = "Animal" type = "Animal" />

<element name="Fruit" type="Fruit"/> <element name = "Fruit" type = "Fruit" />

<element name="Weather" type="Weather"/> <element name = "Weather" type = "Weather" />

<element name="Food" type="Food"/> <element name = "Food" type = "Food" />

<element name="Vehicle" type="Vehicle"/> <element name = "Vehicle" type = "Vehicle" />

<element name="Plant" type="Plant"/> <element name = "Plant" type = "Plant" />

<element name="Building" type="Building"/> <element name = "Building" type = "Building" />

</choice> </ choice>

</complexType></ complexType>

<complexType name="Face"><complexType name = "Face">

<sequence> <sequence>

<element name="FaceOutline" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "FaceOutline" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Eye" type="VOComponentInfo" maxOccurs="unbounded"/><element name = "Eye" type = "VOComponentInfo" maxOccurs = "unbounded" />

<element name="Nose" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Nose" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Mouth" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Mouth" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Hair" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Hair" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Ear" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Ear" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="FacialHair" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "FacialHair" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Eyebrows" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "Eyebrows" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<\sequence> <\ sequence>

<\complexType><\ complexType>

<complexType name="Clock"><complexType name = "Clock">

<sequence> <sequence>

<element name="Frame" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "Frame" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="HourNeedle" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "HourNeedle" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="MinuteNeedle" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "MinuteNeedle" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<\sequence> <\ sequence>

<\complexType><\ complexType>

<complexType name="Animal"><complexType name = "Animal">

<extension base="Face"> <extension base = "Face">

<sequence><sequence>

<element name="Head" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "Head" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Body" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Body" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Leg" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "Leg" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Tail" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Tail" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Clothing" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Clothing" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Horn" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Horn" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Wings" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "Wings" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<\sequence> <\ sequence>

<\extension><\ extension>

<\complexType><\ complexType>

<complexType name="Fruit"><complexType name = "Fruit">

<sequence> <sequence>

<element name="Body" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/><element name = "Body" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Leaf" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Leaf" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Stem" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Stem" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<\sequence> <\ sequence>

<\complexType><\ complexType>

<complexType name="Weather"><complexType name = "Weather">

<sequence> <sequence>

<element name="Sun" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Sun" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Cloud" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Cloud" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Fog" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/><element name = "Fog" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Rain" type="VOComponentInfo" minOccurs="0" maxOccurs="unbounded"/> <element name = "Rain" type = "VOComponentInfo" minOccurs = "0" maxOccurs = "unbounded" />

<element name="Snow" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Snow" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Wind" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Wind" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<\sequence> <\ sequence>

<\complexType><\ complexType>

<complexType name="Food"><complexType name = "Food">

<sequence> <sequence>

<element name="Rice" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Rice" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Bread" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Bread" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Hamburger" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Hamburger" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Sandwich" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Sandwich" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Steak" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Steak" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Hotdog" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Hotdog" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Fish" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Fish" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Soup" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Soup" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Curry" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Curry" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Noodle" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Noodle" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Cake" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Cake" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Fries" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Fries" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Beer" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Beer" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Wine" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Wine" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Plate" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Plate" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Cutlery" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Cutlery" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<\sequence> <\ sequence>

<\complexType><\ complexType>

<complexType name="Vehicle"><complexType name = "Vehicle">

<sequence> <sequence>

<element name="Body" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/><element name = "Body" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Wheel" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Wheel" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Wing" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Wing" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Sail" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Sail" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Door" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/><element name = "Door" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<\sequence> <\ sequence>

<\complexType><\ complexType>

<complexType name="Plant"><complexType name = "Plant">

<sequence> <sequence>

<element name="Body" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/><element name = "Body" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Leaf" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Leaf" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Stem" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Stem" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Fruit" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Fruit" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Root" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Root" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<\sequence> <\ sequence>

<\complexType><\ complexType>

<complexType name="Building"><complexType name = "Building">

<sequence> <sequence>

<element name="Structure" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/><element name = "Structure" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Window" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Window" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Door" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Door" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<element name="Roof" type="VOComponentInfo" " minOccurs="0" maxOccurs="unbounded"/> <element name = "Roof" type = "VOComponentInfo" "minOccurs =" 0 "maxOccurs =" unbounded "/>

<\sequence> <\ sequence>

<\complexType><\ complexType>

<complexType name ="VOComponentInfo"/><complexType name = "VOComponentInfo" />

<sequence> <sequence>

<element name ="PlacementX" type="integer" maxOccurs="1"/> <element name = "PlacementX" type = "integer" maxOccurs = "1" />

<element name ="PlacementY" type="integer" maxOccurs="1"/> <element name = "PlacementY" type = "integer" maxOccurs = "1" />

<element name ="Size" type="integer" maxOccurs="1"/> <element name = "Size" type = "integer" maxOccurs = "1" />

<element name ="Color" type="string" maxOccurs="1"/> <element name = "Color" type = "string" maxOccurs = "1" />

<element name ="Rotation" type="integer" maxOccurs="1"/><element name = "Rotation" type = "integer" maxOccurs = "1" />

<element name ="PlacementOrder" type="integer" maxOccurs="1"/><element name = "PlacementOrder" type = "integer" maxOccurs = "1" />

<sequence\> <sequence \>

<\complexType><\ complexType>

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs). Can be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device for the purpose of interpreting or providing instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different manner than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

Claims (11)

스키마 기반의 편집형 영상 객체 제공 방법에 있어서,
사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는 단계;
상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계;
상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계;
상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계;
상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는 단계; 및
상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계
를 포함하고,
상기 어느 하나의 편집형 영상 객체는 얼굴 및 얼굴 내에 포함된 복수의 엘리먼트들을 포함하는 편집형 영상 객체 제공 방법.
In the schema-based editing image object providing method,
Constructing and maintaining a video object database in which a plurality of editable video objects are matched and stored with a plurality of video object IDs, respectively, on a memory included in each of the user terminal and the target terminal;
In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal;
As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information;
Transmitting the image object ID and the edit information to the target terminal;
Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And
Applying the edit information to the extracted editable video object and providing the edited information to the target terminal;
Including,
The one or more editable image objects include a face and a plurality of elements included in the face.
제1항에 있어서,
상기 복수의 엘리먼트들은
눈썹을 포함하고, 상기 눈썹에 대한 편집 정보는 상기 대상 단말로 제공되는 편집형 영상 객체 제공 방법.
The method of claim 1,
The plurality of elements
And an eyebrow, wherein the editing information for the eyebrow is provided to the target terminal.
스키마 기반의 편집형 영상 객체 제공 방법에 있어서,
사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는 단계;
상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계;
상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계;
상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계;
상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는 단계; 및
상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계
를 포함하고,
상기 어느 하나의 편집형 영상 객체는 동물 및 동물 내에 포함된 복수의 엘리먼트들을 포함하는 편집형 영상 객체 제공 방법.
In the schema-based editing image object providing method,
Constructing and maintaining a video object database in which a plurality of editable video objects are matched and stored with a plurality of video object IDs, respectively, on a memory included in each of the user terminal and the target terminal;
In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal;
As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information;
Transmitting the image object ID and the edit information to the target terminal;
Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And
Applying the edit information to the extracted editable video object and providing the edited information to the target terminal;
Including,
The one or more editable video objects include an animal and a plurality of elements included in the animal.
제1항에 있어서,
상기 복수의 엘리먼트들은
머리(head) 또는 날개를 포함하고, 상기 머리 또는 날개에 대한 편집 정보는 상기 대상 단말로 제공되는 편집형 영상 객체 제공 방법.
The method of claim 1,
The plurality of elements
And a head or wing, wherein the editing information for the head or wing is provided to the target terminal.
제1항에 있어서,
상기 복수의 편집형 영상 객체들 각각은,
상기 복수의 편집형 영상 객체들 각각의 표정, 동작, 상태 또는 환경 중 적어도 하나를 나타내는 적어도 하나의 엘리멘트를 포함하고,
상기 영상 객체 데이터베이스를 구축 및 유지하는 단계는,
상기 적어도 하나의 엘리멘트를 적어도 하나의 엘리멘트 아이디와 각각 매칭하여 상기 영상 객체 데이터베이스에 저장 및 유지하는 단계
를 포함하는 편집형 영상 객체 제공 방법.
The method of claim 1,
Each of the plurality of editable image objects,
At least one element representing at least one of an expression, an action, a state, or an environment of each of the plurality of editable image objects,
Building and maintaining the image object database,
Matching each of the at least one element with at least one element ID and storing and maintaining the at least one element in the image object database.
Editing image object providing method comprising a.
제5항에 있어서,
상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는,
상기 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택하는 단계; 및
상기 선택된 엘리멘트에 기초하여 상기 어느 하나의 편집형 영상 객체를 변경하는 단계
를 포함하고,
상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계는,
상기 영상 객체 데이터베이스로부터 상기 선택된 엘리멘트에 대응하는 엘리멘트 아이디를 추출하는 단계; 및
상기 추출된 엘리멘트 아이디를 상기 편집 정보로 획득하는 단계
를 포함하는 편집형 영상 객체 제공 방법.
The method of claim 5,
Editing an edited video object of any one of the plurality of editable video objects stored in the video object database included in the user terminal,
Selecting one element included in one of the editable video objects; And
Changing any one of the editable image objects based on the selected element
Including,
Acquiring the edited information edited by any one of the editable video objects,
Extracting an element ID corresponding to the selected element from the image object database; And
Acquiring the extracted element ID as the edit information;
Editing image object providing method comprising a.
제6항에 있어서,
상기 선택된 엘리멘트에 기초하여 상기 어느 하나의 편집형 영상 객체를 변경하는 단계는,
상기 어느 하나의 편집형 영상 객체를 변경하여 재생형 영상 객체를 생성하는 단계; 및
상기 사용자 단말이 지원하는 재생 방식에 기초하여 상기 사용자 단말에 상기 재생형 영상 객체를 재생하는 단계
를 더 포함하는 편집형 영상 객체 제공 방법.
The method of claim 6,
Changing the one edited video object based on the selected element,
Generating a playable video object by changing one of the editable video objects; And
Playing the playback type video object on the user terminal based on a playback method supported by the user terminal;
Editing image object providing method further comprising.
제1항에 있어서,
상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는,
상기 사용자 인터페이스 상에서 발생되는 영상 객체 자동 생성 입력에 응답하여, 상기 사용자 단말을 사용하는 사용자의 위치 정보, 환경 정보, 신체 센싱 정보, 스케줄 정보 또는 영상 객체 사용 히스토리 정보 중 적어도 하나의 정보를 획득하는 단계; 및
상기 획득된 적어도 하나의 정보에 기초하여 상기 복수의 편집형 영상 객체들 중 상기 어느 하나의 편집형 영상 객체를 선택하고 편집하는 단계
를 포함하는 편집형 영상 객체 제공 방법.
The method of claim 1,
Editing an edited video object of any one of the plurality of editable video objects stored in the video object database included in the user terminal,
Acquiring at least one of position information, environment information, body sensing information, schedule information, or image object usage history information of a user who uses the user terminal in response to an image object automatic generation input generated on the user interface; ; And
Selecting and editing any one of the plurality of editable image objects based on the obtained at least one information.
Editing image object providing method comprising a.
제1항에 있어서,
상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는,
상기 사용자 인터페이스 상에서 발생되는 사용자 수동 편집 입력에 응답하여, 상기 복수의 편집형 영상 객체들 중 상기 어느 하나의 편집형 영상 객체를 선택하고 편집하는 단계
를 포함하는 편집형 영상 객체 제공 방법.
The method of claim 1,
Editing an edited video object of any one of the plurality of editable video objects stored in the video object database included in the user terminal,
In response to a user manual edit input generated on the user interface, selecting and editing one of the editable video objects from among the plurality of editable video objects
Editing image object providing method comprising a.
제1항에 있어서,
상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계는,
상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 재생형 영상 객체를 생성하는 단계; 및
상기 재생형 영상 객체를 상기 대상 단말로 제공하는 단계
를 포함하는 편집형 영상 객체 제공 방법.
The method of claim 1,
The applying of the editing information to the extracted editable video object and providing the edited information to the target terminal may include:
Generating a playable video object by applying the edit information to the extracted editable video object; And
Providing the playback type video object to the target terminal
Editing image object providing method comprising a.
제10항에 있어서,
상기 재생형 영상 객체를 상기 대상 단말로 제공하는 단계는,
상기 대상 단말이 지원하는 재생 방식에 기초하여 상기 대상 단말에 상기 재생형 영상 객체를 재생하는 단계
를 포함하는 편집형 영상 객체 제공 방법.
The method of claim 10,
Providing the playback type video object to the target terminal,
Playing the playback type video object on the target terminal based on a playback scheme supported by the target terminal;
Editing image object providing method comprising a.
KR1020180140363A 2018-04-11 2018-11-15 System and method for providing editable visual object based on schema KR20190118946A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180042405 2018-04-11
KR1020180042405 2018-04-11

Publications (1)

Publication Number Publication Date
KR20190118946A true KR20190118946A (en) 2019-10-21

Family

ID=68460224

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180140363A KR20190118946A (en) 2018-04-11 2018-11-15 System and method for providing editable visual object based on schema

Country Status (1)

Country Link
KR (1) KR20190118946A (en)

Similar Documents

Publication Publication Date Title
US8117281B2 (en) Using internet content as a means to establish live social networks by linking internet users to each other who are simultaneously engaged in the same and/or similar content
CN104756514B (en) TV and video frequency program are shared by social networks
AU2008267775B2 (en) Communication method, system and products
KR20130060299A (en) Content capture device and methods for automatically tagging content
JP2020144898A (en) Method and system for multimedia content
KR20070061359A (en) Brokering of personalized rulesets for use in digital media character replacement
US8903850B2 (en) Metadata ingestion to stream customization
McCracken et al. a tumblr book: platform and cultures
US20190273972A1 (en) User interface elements for content selection in media narrative presentation
Yoon et al. MPEG-V: Bridging the virtual and real world
CN115552472A (en) System and method for providing a relational landscape for a social world
US20210051122A1 (en) Systems and methods for pushing content
WO2022078167A1 (en) Interactive video creation method and apparatus, device, and readable storage medium
US10152724B2 (en) Technology of assisting context based service
De Kare-Silver e-shock 2020: how the digital technology revolution is changing business and all our lives
US9959497B1 (en) System and method for using a digital virtual clone as an input in a simulated environment
Robards et al. Tumblr as a space of learning, connecting, and identity formation for LGBTIQ+ young people
US11838576B2 (en) Video distribution system, method, computing device and user equipment
US10055688B2 (en) Context based service technology
US20220207029A1 (en) Systems and methods for pushing content
Lam et al. X-Men bromance: film, audience and promotion
KR20190118946A (en) System and method for providing editable visual object based on schema
KR102349629B1 (en) Method for providing contents sharing service using intuitive user interface and user experience design
US10755309B2 (en) Delivering content
US10943380B1 (en) Systems and methods for pushing content

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application