WO2017188711A1 - Schema-based editable visual object providing method and system - Google Patents

Schema-based editable visual object providing method and system Download PDF

Info

Publication number
WO2017188711A1
WO2017188711A1 PCT/KR2017/004403 KR2017004403W WO2017188711A1 WO 2017188711 A1 WO2017188711 A1 WO 2017188711A1 KR 2017004403 W KR2017004403 W KR 2017004403W WO 2017188711 A1 WO2017188711 A1 WO 2017188711A1
Authority
WO
WIPO (PCT)
Prior art keywords
editable
video object
image
video
edited
Prior art date
Application number
PCT/KR2017/004403
Other languages
French (fr)
Korean (ko)
Inventor
김현기
Original Assignee
(주)엠포러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엠포러스 filed Critical (주)엠포러스
Publication of WO2017188711A1 publication Critical patent/WO2017188711A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N2005/2726Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes

Definitions

  • the following description relates to a schema-based editable video object providing system and a method thereof, and more particularly, to a technology for editing an edited video object based on a user's emotion and providing the same to a target terminal.
  • Emoticons, flash cones or avatars which are widely used in screen golf, 4D cinemas, virtual fitting systems or online messengers, are not limited to the virtual world. By being implemented as a character, the situation is being extended to offline.
  • the video object is provided between an application installed in the user terminal and an application installed in the target terminal, editing is not possible due to limitations such as transmission capacity and transmission speed of the image object supported by the application.
  • the image object is not editable, there is a disadvantage in that the expression desired by the user cannot be expressed in detail and freely.
  • the following embodiments propose a technique for providing (creating, transmitting and playing) an image object that can be edited to reflect the user's emotion, under the constraints of the transmission capacity and the transmission speed supported by the application of the terminal.
  • an editable video object is designed in an XML format and a MPEG Binary Format (BiM) technique is used in a process of delivering the edited video object to the target terminal, thereby limiting transmission / reception capacity and transmission / reception speed supported by the user terminal and the target terminal.
  • BiM MPEG Binary Format
  • a user constructs and maintains an image object database in which a plurality of editable image objects are respectively matched and stored with a plurality of image object IDs on a memory included in each of the user terminal and the target terminal.
  • a method and system for providing an editable video object service to a user terminal and a target terminal by transmitting and receiving only the video object ID and the edit information between the user terminal and the target terminal.
  • one embodiment proposes a method and system for editing an editable video object in response to a user manual edit input or automatically editing the editable video object based on user information.
  • embodiments of the present disclosure may consider a playback method supported by a target terminal in a process in which a reproduced video object generated by editing an editable image object is transferred from a user terminal to a target terminal and / or played in the target terminal.
  • a playback method supported by a target terminal in a process in which a reproduced video object generated by editing an editable image object is transferred from a user terminal to a target terminal and / or played in the target terminal.
  • the schema-based editing type video object providing method includes an image in which a plurality of editing type video objects are matched with a plurality of image object IDs and stored on a memory included in each of a user terminal and a target terminal. Building and maintaining an object database; In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information; Transmitting the image object ID and the edit information to the target terminal; Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And applying the edit information to the extracted editable video object and providing the edited information to the target terminal.
  • the plurality of editable image objects and the plurality of image object IDs can be designed in a schema of XML format.
  • the transmitting of the video object ID and the editing information to the target terminal comprises: transmitting the video object ID and the editing information to the target terminal based on a MPEG Binary Format (BiM) technique.
  • BiM MPEG Binary Format
  • each of the plurality of editable image objects includes at least one element representing at least one of an expression, an action, a state, or an environment of each of the plurality of editable image objects, and the image object
  • the establishing and maintaining of the database may include storing and maintaining the at least one element with the at least one element ID, respectively, in the image object database.
  • the editing of any one of the edited image object of the plurality of editable image object stored in the image object database included in the user terminal is included in the one edited image object Selecting any one element; And changing the one edited video object based on the selected element, wherein acquiring the edited information edited by the one edited video object comprises: selecting the selected element from the video object database. Extracting an element ID corresponding to the ID; And acquiring the extracted element ID as the edit information.
  • the changing of the one edited video object based on the selected element comprises: generating a playable video object by changing the one edited video object; And reproducing the reproducible video object on the user terminal based on a reproduction scheme supported by the user terminal.
  • the editing of any one of the editable video object of the plurality of editable video objects stored in the video object database included in the user terminal automatic image input generated on the user interface
  • automatic image input generated on the user interface In response to obtaining at least one of location information, environment information, body sensing information, schedule information, or image object usage history information of a user who uses the user terminal; And selecting and editing any one of the plurality of editable image objects based on the obtained at least one information.
  • the method may include selecting and editing any one of the plurality of editable image objects.
  • the step of applying the editing information to the extracted editable video object to provide to the target terminal by applying the edit information to the extracted editable video object to generate a playable video object step; And providing the playback type video object to the target terminal.
  • the providing of the playback type video object to the target terminal may include playing the playback type video object on the target terminal based on a playback method supported by the target terminal. .
  • the editable video object providing method is included in each of a user terminal and a target terminal. Constructing and maintaining a video object database in which a plurality of editable video objects are respectively matched and stored with a plurality of video object IDs in a memory; In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information; Transmitting the image object ID and the edit information to the target terminal; Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And applying the edit information to the extracted editable video object and providing the edited information to the target terminal.
  • the schema-based editable video object providing server may include an image in which a plurality of editable video objects are matched with a plurality of video object IDs and stored on a memory included in each of a user terminal and a target terminal.
  • An image object database construction / maintenance unit for constructing and maintaining an object database;
  • the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is An ID extracting / editing information obtaining unit for obtaining the edited editing information;
  • a transmission unit for transmitting the image object ID and the edit information to the target terminal;
  • a video object extracting unit for extracting an editable video object corresponding to the video object ID from the video object database included in the target terminal;
  • an image object providing unit applying the edit information to the extracted editable image object
  • the plurality of editable image objects and the plurality of image object IDs can be designed in a schema of XML format.
  • the transfer unit may transmit the image object ID and the edit information to the target terminal based on a MPEG Binary Format (Bim) technique.
  • Bim MPEG Binary Format
  • a schema-based editing image object providing system the user terminal; Target terminal; And an editable video object providing server, wherein the editable video object providing server includes a plurality of editable video objects corresponding to a plurality of video object IDs on a memory included in each of the user terminal and the target terminal.
  • a video object database construction / maintenance unit for constructing and maintaining a video object database that is matched and stored; In response to a user input generated on a user interface provided by the user terminal, an image object of any one of the plurality of editable image objects stored in the image object database included in the user terminal; editorial department; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is An ID extracting / editing information obtaining unit for obtaining the edited editing information; A transmission unit for transmitting the image object ID and the edit information to the target terminal; A video object extracting unit for extracting an editable video object corresponding to the video object ID from the video object database included in the target terminal; And an image object providing unit applying the edit information to the extracted editable image object and providing the edited image object to the target terminal.
  • an editable video object is designed in an XML format and a MPEG Binary Format (BiM) technique is used in a process of delivering the edited video object to the target terminal, thereby limiting transmission / reception capacity and transmission / reception speed supported by the user terminal and the target terminal.
  • a method and system for providing an editable image object may be proposed.
  • a user constructs and maintains an image object database in which a plurality of editable image objects are respectively matched and stored with a plurality of image object IDs on a memory included in each of the user terminal and the target terminal.
  • a method and system for providing an editable video object service to the user terminal and the target terminal by transmitting and receiving only the video object ID and the edit information between the user terminal and the target terminal can be proposed. have.
  • one embodiment may propose a method and system for editing an editable video object in response to a user manual editing input or automatically editing the editable video object based on user information.
  • embodiments of the present disclosure may consider a playback method supported by a target terminal in a process in which a reproduced video object generated by editing an editable image object is transferred from a user terminal to a target terminal and / or played in the target terminal. Methods and systems can be proposed.
  • FIG. 1 is a diagram illustrating a schema-based editing type video object providing system according to an exemplary embodiment.
  • FIG. 2 is a block diagram illustrating a configuration of a schema-based editable video object providing server according to an exemplary embodiment.
  • FIG. 3 is a diagram for describing an image object database, according to an exemplary embodiment.
  • FIG. 4 is a diagram illustrating a data transfer process between a user terminal and a target terminal for providing an editable video object to a target terminal according to an exemplary embodiment.
  • FIG. 5 is a diagram for describing a process of editing an editable image object, according to an exemplary embodiment.
  • FIG. 6 is a diagram for describing a process of editing an editable image object, according to another exemplary embodiment.
  • FIG. 7 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to an exemplary embodiment.
  • FIG. 8 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to another exemplary embodiment.
  • FIG. 9 is a flowchart illustrating a method of providing a schema-based editable video object, according to an exemplary embodiment.
  • FIG. 1 is a diagram illustrating a schema-based editing type video object providing system according to an exemplary embodiment.
  • an editable video object providing system 100 includes a network 120 including an editable video object providing server 110, a user terminal 130, and a target terminal 140.
  • a network 120 including an editable video object providing server 110, a user terminal 130, and a target terminal 140.
  • the editable video object service is provided to the user terminal 130 and the target terminal 140.
  • the editable video object service edits any edited video object in response to a user input generated on the user interface provided by the user terminal 130, and converts the edited video object to the target terminal. Means the service provided.
  • Such an editable video object service may be provided by a request of a user of the user terminal 130 to transmit an editable video object to the target terminal 140.
  • the editable video object refers to content data in which a still image and a motion of a still image are combined, such as an emoticon, a flash cone, or an avatar.
  • Each of the user terminal 130 and the target terminal 140 is a PC, a notebook computer, a smart phone, a tablet, a wearable computer, or the like, and is an editable type of the editable video object providing system 100.
  • this may mean all terminal devices capable of accessing a web / mobile site related to the editable image object service or installing and executing a dedicated application.
  • each of the user terminal 130 and the target terminal 140 may perform overall service operations such as service screen configuration, data input / output, data transmission and reception, and data storage under the control of a web / mobile site or a dedicated application.
  • each of the user terminal 130 and the target terminal 140 is a smartphone
  • the present invention is not limited thereto, and the present invention is not limited thereto, and may be various devices capable of editing or reproducing an editable image object.
  • the target terminal 140 may be a device such as a doll, a bracelet, a watch, a pendant, etc., in which a reproducible image object generated by editing an editable image object in the user terminal 130 may be reproduced.
  • the user terminal 130 may substantially mean 'user' using the user terminal 130
  • the target terminal 140 may substantially mean 'user' using the target terminal 140. have.
  • the editable video object providing server 110, the user terminal 130, and the target terminal 140 may transmit and receive data through the network 120.
  • network 120 may be a medium used to provide communication links between data processing systems, computers, servers, and various devices.
  • the network 120 uses a transmission control protocol internet protocol (TCP / IP) suite of protocols for the editable video object providing server 110, the user terminal 130, and the target terminal 140 to communicate with each other.
  • TCP / IP transmission control protocol internet protocol
  • network 120 may include or be an intranet, a local area network (LAN), or a wide area network (WAN). Also, in some examples, network 120 may be part of the Internet.
  • the communication method between the editable image object providing server 110, the user terminal 130, and the target terminal 140 is not limited, and a communication method utilizing a communication network that the network 120 may include, as well as between devices.
  • the short range wireless communication may also include.
  • the network 120 may include a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), a broadband network (BBN), One or more of networks such as the Internet.
  • the network 120 may include any one or more of network topologies including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree, or a hierarchical network. It is not limited.
  • the editable video object providing server 110 is a subject that provides an editable video object service to the user terminal 130 and the target terminal 140.
  • the editable video object providing server 110 provides a user terminal 130, a target terminal 140, and a network 120. It may be implemented as a computer device or a plurality of computer devices that communicate through and provide commands, codes, files, contents, services, and the like.
  • the editable video object providing server 110 is implemented in a form included in the platform of the server providing the editable video object service, and is edited by the client terminal 130 and the target terminal 140.
  • Type video object service can be provided.
  • the present disclosure is not limited thereto, and the editable video object providing server 110 may be configured in the form of a dedicated application in which at least some components or all components are installed on the user terminal 130 and the target terminal 140. It may also be implemented as a form of inclusion in a platform that provides services in a client-server environment.
  • the editable video object providing server 110 stores a plurality of editable video objects that are matched with a plurality of video object IDs on a memory included in each of the user terminal 130 and the target terminal 140.
  • the terminal 130 and the target terminal 140 provide an editable video object service. Detailed description thereof will be described with reference to FIG. 2.
  • the editable video object providing server 110 designs an image object database constructed and maintained on a memory included in each of the user terminal 130 and the target terminal 140 in a schema of XML format (in the image object database).
  • a schema of XML format in the image object database.
  • An editable image object may be provided under constraints of transmission / reception capacity and transmission / reception rate supported by the user terminal 130 and the target terminal 140. Detailed description thereof will be described with reference to FIGS. 3 to 4.
  • FIG. 2 is a block diagram illustrating a configuration of a schema-based editable video object providing server according to an exemplary embodiment.
  • the editable video object providing server 200 is included in the editable video object providing system described above with reference to FIG. 1, and includes a processor 210, a bus 220, and a network. It may include an interface 230, a memory 240, and a database 250.
  • the memory 240 may include an operating system 241 and a service providing routine 242.
  • the processor 210 is an image object database construction / maintenance unit 211, an image object editing unit 212, an ID extraction / editing information acquisition unit 213, a transfer unit 214, an image object extraction unit 215, and an image object. It includes a providing unit 216.
  • the editable image object providing server 200 may include more components or fewer components than the components shown in the drawing. However, it is not necessary to clearly show most of the prior art components.
  • the editable image object providing server 200 may include other components such as a display or a transceiver.
  • the memory 240 is a computer-readable recording medium and may include a permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive.
  • the memory 240 may store program codes for the operating system 241 and the service providing routine 242.
  • These software components may be loaded from a computer readable recording medium separate from the memory 240 using a drive mechanism (not shown).
  • a separate computer-readable recording medium may include a computer-readable recording medium (not shown) such as a floppy drive, a disk, a tape, a DVD / CD-ROM drive, a memory card, and the like.
  • the software components may be loaded into the memory 240 via the network interface 230 rather than the computer readable recording medium.
  • the bus 220 may enable communication and data transmission between components of the editable video object providing server 200.
  • the bus 220 may be configured using a high-speed serial bus, a parallel bus, a storage area network and / or other suitable communication technology.
  • the network interface 230 may be a computer hardware component for connecting the editable video object providing server 200 to a computer network.
  • the network interface 230 may be a network interface card such as an Ethernet card, an optical transceiver, a radio frequency transceiver, or any other type of device capable of transmitting and receiving information.
  • Other examples of such network interfaces may be mobile computing devices and wireless devices including Bluetooth in USB, low power wide area networks, 3G and WiFi, and the like.
  • computing device may use network interface 230 to wirelessly communicate with an external device, such as a server, mobile phone, or other networked computing device.
  • the network interface 230 may connect the editable video object providing server 200 to a user terminal and a target terminal through a network.
  • the database 250 may serve to store and maintain data for providing an editable video object service.
  • the plurality of editable image objects may be matched with the plurality of image object IDs and stored in the database 250. Therefore, the database 250 may be used in the process of constructing and / or updating the image object database on the memory of each of the user terminal and the target terminal described below with reference to FIG. 3.
  • the database 250 is built and included in the editable video object providing server 200, the present invention is not limited thereto and may be omitted according to a system implementation method or environment, or may be omitted in whole or in part. It is also possible for the database to exist as an external database built on a separate, different system.
  • the processor 210 may be configured to process instructions of a computer program by performing input / output operations of the basic arithmetic, logic, and editable image object providing server 200.
  • the instructions may be provided to the processor 210 by the memory 240 or the network interface 230 and via the bus 220.
  • the processor 210 is an image object database construction / maintenance unit 211, an image object editing unit 212, an ID extraction / editing information acquisition unit 213, a transfer unit 214, an image object extraction unit 215, and an image object. It can be configured to execute the program code for the provider 216.
  • Such program code may be stored in a recording device such as memory 240.
  • the image object database construction / maintenance unit 211 constructs and maintains an image object database in which a plurality of editable image objects are matched with a plurality of image object IDs and stored on a memory included in each of the user terminal and the target terminal. do.
  • each of the plurality of editable video objects includes an editable video object image. Accordingly, the plurality of editable video object images are matched and stored with the plurality of video object IDs, respectively, and the plurality of editable video object images are matched with the plurality of video object IDs, respectively.
  • Each of the plurality of editable video objects may include an element representing at least one of an expression, an action, a state, or an environment of the editable video object (the edited video object image). Accordingly, the plurality of editable image objects may be matched and stored with the plurality of image object IDs, respectively, and may mean that the plurality of elements are matched with the plurality of element IDs and stored.
  • the image object database construction / maintenance unit 211 stores the plurality of editable image object images by matching each of the plurality of image object IDs and stores the plurality of elements by matching each of the plurality of element IDs.
  • a video object database in which a plurality of editable image objects are matched with and stored in a plurality of image object IDs may be constructed and maintained.
  • the image object database construction / maintenance unit 211 designs a plurality of editable image objects and a plurality of image object IDs in an XML format, so that the plurality of editable image objects and the plurality of image object IDs are respectively.
  • the image object database that is matched and stored can be constructed and maintained at low capacity.
  • the plurality of elements and the plurality of element IDs may also be designed in an XML format schema.
  • the image object database construction / maintenance unit 211 designs a plurality of editable image objects and a plurality of image object IDs in an XML format, so that the transmission unit 214, which will be described later, is used for the image object ID and editing information.
  • the transmission unit 214 which will be described later, is used for the image object ID and editing information.
  • the BiM technique In transmitting to the target terminal, it is possible to use the BiM technique to minimize the transmission capacity and maximize the transmission speed. Detailed description thereof will be described with reference to FIGS. 3 to 4.
  • the image object database construction / maintenance unit 211 may update the image object database constructed and maintained on a memory included in each of the user terminal and the target terminal.
  • the image object editing unit 212 edits any one of the plurality of editable image objects stored in the image object database included in the user terminal in response to a user input generated on the user interface provided by the user terminal. do.
  • the image object editing unit 212 may edit an image of any one of a plurality of editable image objects stored in an image object database included in the user terminal in response to a user input generated on a user interface provided by the user terminal. After selecting an object and selecting one element included in one editable image object, the editable image object may be changed and edited based on the selected element.
  • selecting one of the plurality of editable image objects may mean selecting one of the plurality of editable image object images.
  • the image object editing unit 212 selects any one of the editable image object images among the plurality of editable image object images stored in the image object database included in the user terminal, and is associated with any one of the editable image object images.
  • One of a plurality of elements (a plurality of elements included in one selected editable image object) may be selected.
  • the image object editing unit 212 changes at least one editable image object by reflecting at least one of an expression, an operation, a state, or an environment indicated by any one selected element in the selected image object. You can edit to create a playable video object.
  • selecting one of the plurality of editable video objects and selecting one of the elements included in the selected one of the edited video objects is provided by the user terminal.
  • the image may be manually performed in response to a user manual edit input generated on the user interface, or may be automatically performed in response to an image object automatic generation input generated on the user interface. Detailed description thereof will be described with reference to FIGS. 5 and 6.
  • the image object editing unit 212 may play back the reproduced image object generated by editing one of the editable image objects on the user terminal, so that the user of the user terminal may confirm the editing result of the editable image object.
  • the ID extracting / editing information obtaining unit 213 corresponds to any one editable video object from the video object database included in the user terminal as any edited video object is edited by the video object editing unit 212.
  • the video object ID is extracted, and the edited edit information of any one editable video object is obtained.
  • the edit information is information indicating how the editable video object is edited and changed when the editable video object is edited and changed to generate a playable video object.
  • the edited information is designed as an XML schema. Can be.
  • the ID extracting / editing information obtaining unit 213 responds to the image object editing unit 212 selecting one of the editable image objects from the image object database included in the user terminal, and the image object included in the user terminal. After extracting the video object ID corresponding to one of the editable video objects from the database, the video object editor 212 is included in the user terminal in response to selecting one element included in one of the edited video objects. An element ID corresponding to any one element may be extracted from the image object database, and the extracted element ID may be obtained as edit information.
  • the edit information in which any editable video object is edited may be an element ID corresponding to any one element selected by the video object editing unit 212.
  • the image object editing unit ( 212) and each of the ID extracting / editing information obtaining unit 213 may have a right to access a memory of the user terminal, and a part of each of the image object editing unit 212 and the ID extracting / editing information obtaining unit 213.
  • the operation may be performed by the processor of the user terminal as the subject of execution under the control of each of the image object editing unit 212 and the ID extracting / editing information obtaining unit 213.
  • the transfer unit 214 transfers the image object ID extracted from the ID extracting / editing information obtaining unit 213 and the obtained edited information to the target terminal.
  • the transmission unit 214 transmits the video object ID and the edit information to the target terminal based on the BiM scheme, thereby minimizing the transmission capacity and transmitting the You can maximize speed.
  • the transfer unit 214 may transfer the video object ID and the edit information to the target terminal in consideration of a reproduction scheme supported by the target terminal. For example, when the target terminal is a device that supports reproducing the reproducible video object only in the sound system, the delivery unit 214 may transmit only some information related to the reproduction of the sound system to the target terminal. Therefore, the transmission unit 214 may maximize the data transmission speed by minimizing the data transmission capacity between the user terminal and the target terminal.
  • the image object extractor 215 transmits the editable image object corresponding to the image object ID from the image object database included in the target terminal in response to the delivery unit 214 transmitting the image object ID and the edit information to the target terminal. Extract.
  • the image object database included in the target terminal is the same database including the same data as the image object database included in the user terminal, the editable image corresponding to the corresponding image object ID on the image object database included in the target terminal.
  • the object may be the same as the editable video object (editable video object edited by the user terminal) used by the ID extracting / editing information obtaining unit 213 to extract the corresponding video object ID from the video object database included in the user terminal. Can be.
  • the video object providing unit 216 extracts the editable video object extracted by the video object extractor 215.
  • the edit information the edit information transmitted from the delivery unit 2114
  • the reproduced video the reproduced video identical to the reproduced video object generated by editing the edited video object in the user terminal. After the object is created, it may be provided to the target terminal.
  • the video object extractor 215 may play back the playback type video object on the target terminal based on the playback scheme supported by the target terminal. Detailed description thereof will be described with reference to FIGS. 7 to 8.
  • the image object extracting unit 215 and the image object providing unit 216 Since the operations of each of the above-described image object extracting unit 215 and the image object providing unit 216 are performed based on the image object database constructed and maintained on the memory included in the target terminal, the image object extracting unit 215 ) And the image object providing unit 216 may have a right to access the memory of the target terminal, and some operations of the image object extracting unit 215 and the image object providing unit 216 may be performed by the image object extracting unit.
  • the processor of the target terminal may be executed as the subject of execution under the control of each of the control unit 215 and the image object providing unit 216.
  • the editable image object providing server 200 includes the processor 210, the bus 220, the network interface 230, the memory 240, and the database 250, but is not limited thereto.
  • Core components of the processor 210 image object database construction / maintenance unit 211, image object editing unit 212, ID extraction / editing information acquisition unit 213, transfer unit 214, image object extraction unit 215 and the image object providing unit 216 may be included only.
  • FIG. 3 is a diagram for describing an image object database, according to an exemplary embodiment.
  • an editable video object providing server may build and maintain an image object database 300 on a memory included in each of a user terminal and a target terminal.
  • the editable video object providing server may construct the video object database 300 by matching and storing the plurality of editable video objects 320 and 330 with the plurality of video object IDs 310, respectively. .
  • each of the plurality of editable image objects 320 and 330 includes an editable image object image (still image) 320 and a plurality of elements 330 associated with the editable image object image 320.
  • the editable video object providing server stores the plurality of editable video object images 320 by matching each of the plurality of video object IDs 310 and stores the plurality of editable video object images 320, respectively.
  • the image object database 300 may be constructed by matching and storing the plurality of elements 330 associated with each element with the plurality of element IDs 340, respectively.
  • each of the plurality of elements 330 means data representing at least one of an expression, an operation, a state, or an environment of each of the plurality of editable image object images 320 which are still images.
  • the editable video object providing server stores the first editable video object image representing a still image of a person by matching the first video object ID '001' and then stores the first edited video object image.
  • a first-first element representing an associated 'laugh' expression and storing the first-first element corresponding to the first-first element ID '001' and storing the first-second element representing the expression of 'cry' associated with the first edited image object image.
  • the first-first element, the first-second element, and the first-third element may be matched with and stored in the first editable image object image.
  • the plurality of image object IDs 310, the plurality of editable image object images 320, the plurality of elements 330, and the plurality of element IDs 340 stored in the image object database 300 may be provided. All can be designed as XML type schemas. Therefore, the image object database 300 itself is a database that supports an XML-type schema. Since the image object database 300 stores and maintains data designed in the XML-type schema, the image object database 300 may be constructed at a low capacity.
  • the editable video object providing server may store a database (database shown in FIG. 2) stored in the server itself by matching the plurality of editable video objects 320 and 330 with the plurality of video object IDs 310, respectively.
  • a database database shown in FIG. 2
  • the database stored in the server itself is copied into the memory of the user terminal and the memory of the target terminal, thereby constructing the user terminal and the target terminal.
  • the target terminal may maintain the same image object database 300.
  • the editable image object providing server may update the image object database 300 which is constructed and maintained in each of the user terminal and the target terminal, in the same manner as the above-described process of constructing the image object database 300.
  • the update process may be performed by the editable video object providing server connected to the user terminal and the target terminal by wireless or wired communication, and the data stored in the image object database 300 are all designed in an XML format. As a result, the speed and efficiency of the update process can be increased.
  • FIG. 4 is a diagram illustrating a data transfer process between a user terminal and a target terminal for providing an editable video object to a target terminal according to an exemplary embodiment.
  • the editable video object providing server may include a video object database included in the user terminal 410 as one of the plurality of editable video objects is edited. Only the extracted image object ID and the obtained edited information 430 corresponding to any one editable image object are transmitted to the target terminal 420.
  • the edit information is information indicating how the editable video object is edited and changed in any one editable video object being edited and changed to generate a playable video object. It may be an element ID corresponding to any one selected element included.
  • the editable video object providing server may transmit the ID data 430 of '001001' in which the first video object ID '001' and the 1-1 element ID '001' are combined to the target terminal 420.
  • the editable video object providing server satisfies the constraints of the transmission / reception capacity and the transmission / reception speed supported by the user terminal 410 and the target terminal 420, and may provide an editable video object to the target terminal 420.
  • the editable image object providing server edits corresponding to the image object ID from the image object database 421 included in the target terminal 420.
  • the target terminal After extracting the type image object (exactly the editable image object image) and applying the editing information to the extracted editable image object (exactly the editable image object image), after generating the reproduction image object, the target terminal ( 420.
  • the application of the editing information to the editable video object may be performed by applying at least one of a facial expression, an action, a state, or an environment indicated by an element corresponding to an element ID, which is the edit information, to the editable video object image.
  • the moving content data is generated as a playable image object.
  • the ID data 430 of '001001' in which the first image object ID '001' and the 1-1 element ID '001' are combined is transmitted to the target terminal 420.
  • the editable video object providing server extracts a first editable video object image representing a still image of a 'person' corresponding to the first video object ID '001' from the video object database 421, and first-first-first. 1
  • the expression of the 1-1 element 'laugh' is applied to the 'person' which is the first editable video object image.
  • the reproduction type video object that is the content of which the person is smiling may be generated and provided to the target terminal 420.
  • FIG. 5 is a diagram for describing a process of editing an editable image object, according to an exemplary embodiment.
  • the editable video object providing server may include a plurality of editable video objects ( One of 521, 522, 523, 524, and 525 may be selected and edited.
  • the editable video object providing server may load the manual editing user interface 520 on the user terminal.
  • a plurality of editable video objects 521, 522, 523, 524, and 525 are displayed on the manual editing user interface 520, so that the user can directly select and edit any editable video object.
  • the first editable image object image 521 representing a still image of 'person' and the second editable image object image representing a still image of 'bear' displayed in the manual editing user interface 520.
  • the first editable video object image 521 is selected by a user selection input of 525, and the first-first element 522 indicating an expression of 'laugh' associated with the first editable video object image 521.
  • the editable video object providing server changes the first editable video object image 521 based on the selected first-first element 522 to display a playable video object that is 'content smiling by a person' (not shown in the drawing). ) To be provided to the user terminal.
  • the editable video object providing server reproduces the reproduced video object generated by editing the editable video objects 521 and 522 on the user interface of the user terminal, so that the user of the user terminal can directly check the editing result. can do
  • FIG. 6 is a diagram for describing a process of editing an editable image object, according to another exemplary embodiment.
  • the editable video object providing server responds to the video object automatic generation input 611 generated on the user interface 610 provided by the user terminal, and uses the user terminal. Editing of any one of a plurality of editable image objects based on the at least one information obtained by obtaining at least one of position information, environmental information, body sensing information, schedule information or image object usage history information of the You can select and edit video objects.
  • the editable image object providing server may load the auto generation user interface 620 into the user terminal.
  • the auto-generated user interface 620 any editable image object is edited and generated based on the user's location information and the user's location information and the body sensing information 621 along with the user's location information and body sensing information 621.
  • the playback image object 622 may be displayed.
  • the editable video object providing server recognizes that the user is currently exercising and the user After selecting one image object image related to 'movement' from the image object database included in the terminal and recognizing that the current location of the user is 'North Seoul forest', the user selects one element representing the environment of 'forest' , By automatically applying one of the elements representing the environment of the 'forest' to any one of the image object image associated with the 'selected movement', automatically generating a reproducible image object 622, which is 'content that the person is exercising in the forest'
  • the display may be displayed on the user interface 620 of the user terminal.
  • FIG. 7 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to an exemplary embodiment.
  • the editable video object providing server may edit an edited video object.
  • the video object ID and the edit information corresponding to one of the edited video objects may be transmitted to the target terminal 720.
  • the editable video object providing server extracts an editable video object corresponding to the video object ID from the video object database included in the target terminal 720, and applies the edit information to the extracted edited video object to reproduce the playable video.
  • the playback type video object 722 may be displayed on the user interface 721 provided by the target terminal 720.
  • the reproduced video object 712 displayed on the user terminal 710 is generated based on the image object database included in the user terminal 710 and is displayed on the target terminal 720. Is generated based on the image object database included in the target terminal 720. Therefore, since the image object database included in the user terminal 710 and the image object database included in the target terminal 720 are identically constructed, the reproduced image object 712 and the target terminal displayed on the user terminal 710 are the same.
  • the reproducible video object 722 displayed at 720 may be identical content.
  • the editing type video object providing server displays the playback type video object 712 on the user interface 711 of the user terminal 710 based on the playback method supported by the user terminal 710.
  • the video object 712 can be played back, and the playback type video object 722 is displayed on the user interface 721 of the target terminal 720 based on the playback method supported by the target terminal 720.
  • the video object 722 may be played.
  • the editable image object is provided.
  • the server provides the reproduced video object 712 to the user terminal 710 using both the graphic method and the sound method, and the reproduced video object 722 using both the graphic method and the sound method to the target terminal 720. Can be provided.
  • both the user terminal 710 and the target terminal 720 are smartphones, and the user terminal 710 may reproduce the playable image object 712 in a graphic manner and a sound manner, but the target terminal 720 If the playable video object 722 can be reproduced only in a graphical manner, the editable video object providing server provides the reproduced video object 712 to the user terminal 710 using both a graphical method and a sound method. In addition, the reproduction type video object 722 may be provided to the target terminal 720 using only a graphic method.
  • the editable video object providing server provides the playable video object 722 based on the playback method supported by the target terminal 720. can do. Detailed description thereof will be described below.
  • FIG. 8 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to another exemplary embodiment.
  • the editable video object providing server plays back by editing any one editable video object in response to a user input generated on a user interface provided by the user terminal 810. After generating and displaying the type image object 811 on the user interface, the image object ID and the edit information corresponding to one of the editable image objects may be transmitted to the target terminal 820.
  • the editable video object providing server extracts an editable video object corresponding to the video object ID from the video object database included in the target terminal 780, and applies edit information to the extracted edited video object to reproduce the playable video.
  • the playback type video object 821 may be provided based on a playback method supported by the target terminal 820.
  • the target terminal 820 is a doll as shown in the drawing
  • the target terminal 820 is a play method through the facial expression interface of the doll, a play method through the operation interface of the body movement, a play method of the body vibration, Sound system can be supported.
  • the editable video object providing server may provide the playable video object 821 through the doll's facial expression interface as shown in the figure.
  • the target terminal 820 is a doll, but is not limited thereto, and may be various devices capable of playing the reproducible video object 821, for example, a bracelet, a clock, a pendant, and the like.
  • the reproductionable video object 821 may include reproducing only some information (eg, some information of any one of vibration, sound, graphics, etc.) of the reproductionable video object 821.
  • FIG. 9 is a flowchart illustrating a method of providing a schema-based editable video object, according to an exemplary embodiment.
  • the method for providing an editable video object may include the editable video object providing system described above with reference to FIGS. 1 to 2 (in particular, the editable video object included in the editable video object providing system).
  • Providing server the editable video object providing system described above with reference to FIGS. 1 to 2 (in particular, the editable video object included in the editable video object providing system).
  • the editable video object providing system constructs and maintains a video object database in which a plurality of editable video objects are respectively matched and stored with a plurality of video object IDs in a memory included in each of the user terminal and the target terminal (910). ).
  • the plurality of editable image objects and the plurality of image object IDs may be designed in a schema of XML. Therefore, the image object database may be a database supporting a schema of XML format.
  • each of the plurality of editable image objects may include an editable image object image and at least one element.
  • the editable video object image refers to a still image on which the editable video object is based, and at least one element represents at least one of an expression, an action, a state, or an environment of the editable video object (exactly, the editable video object image). Indicates. Accordingly, the plurality of editable image object images and the plurality of elements may also be designed in a schema of XML.
  • the image object database may include a plurality of element IDs.
  • the plurality of element IDs may serve as identifiers that are respectively matched and stored with the plurality of elements.
  • the plurality of element IDs may also be designed in a schema of XML.
  • the editable video object providing system may match and store the plurality of editable video object images with the plurality of video object IDs, respectively, in the video object database, and the plurality of editable video object images. At least one element associated with the at least one element ID may be matched with each of at least one element ID, and stored and maintained in the image object database.
  • the editable video object providing system in response to a user input generated on a user interface provided by the user terminal, edited image of any one of a plurality of editable video objects stored in a video object database included in the user terminal.
  • the object is edited (920).
  • the editable video object providing system selects one editable video object from among a plurality of editable video objects from a video object database included in the user terminal (a plurality of editable video object images). Select one of the editable video object images), select one element included in one of the editable video objects (select one of the elements associated with one of the editable video object images), By changing one of the editable video objects based on the selected element (applying the selected element to one of the edited video object images), the playable video object may be generated.
  • the editable video object providing system may play back the generated playback video object to the user terminal based on a playback method supported by the user terminal.
  • Such an editing process may be performed manually or automatically according to a user input generated on a user interface provided by the user terminal.
  • the editable image object providing system in response to an automatic image object generation input generated on a user interface, records location information, environment information, body sensing information, schedule information, or image object usage history of a user using a user terminal.
  • the editable image object providing system in response to an automatic image object generation input generated on a user interface, records location information, environment information, body sensing information, schedule information, or image object usage history of a user using a user terminal.
  • one of the plurality of editable image objects may be selected and edited based on the obtained at least one information.
  • the editable video object providing system may select and edit any one of a plurality of editable video objects in response to a user manual edit input generated on a user interface.
  • the editable video object providing system extracts a video object ID corresponding to any one of the edited video objects from the video object database included in the user terminal.
  • One editable image object obtains edited edit information (930).
  • the editable image object providing system extracts an element ID corresponding to the element selected in operation 920 from the image object database included in the user terminal, thereby obtaining the extracted element ID as edit information. .
  • the editable video object providing system transmits the video object ID and the edit information to the target terminal (940).
  • the editable video object providing system transmits the video object ID and the edit information to the target terminal in step 940 based on the MPEG Binary Format (BiM) technique. I can deliver it.
  • BiM MPEG Binary Format
  • the editable video object providing system may deliver only some of the edited information to the target terminal in consideration of a reproduction scheme supported by the target terminal.
  • the editable video object providing system extracts the editable video object corresponding to the video object ID from the video object database included in the target terminal (950).
  • the editable video object providing system applies edit information to the extracted edited video object and provides the edited video object to the target terminal (960).
  • the editable image object providing system is restored by applying the editing information to the edited image object (exactly, the editable image object image) extracted in step 950, thereby generating a reproduced image object.
  • the playback type video object may be provided to the target terminal.
  • the editable video object providing system may play back the playable video object to the target terminal terminal based on a playback method supported by the target terminal.
  • the apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components.
  • the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs).
  • ALUs arithmetic logic units
  • FPGAs field programmable gate arrays
  • PLU programmable logic unit
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include.
  • the processing device may include a plurality of processors or one processor and one controller.
  • other processing configurations are possible, such as parallel processors.
  • the software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device.
  • Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted.
  • the software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer readable recording media.
  • the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Abstract

A schema-based editable visual object providing method according to one embodiment comprises the steps of: constructing and maintaining a visual object database in which a plurality of editable visual objects are matched respectively with a plurality of visual object identifications and stored on a memory included in each of a user terminal and a target terminal; editing any one editable visual object among the plurality of editable visual objects stored in the visual object database included in the user terminal, in response to a user input occurred on a user interface provided by the user terminal; extracting a visual object identification corresponding to the any one editable visual object from the visual object database included in the user terminal, when the any one editable visual object is edited, and acquiring edit information in which the any one editable visual object is edited; transferring the visual object identification and the edit information to the target terminal; extracting the editable visual object corresponding to the visual object identification from the visual object database included in the target terminal; and applying the edit information to the extracted editable visual object, and providing the same to the target terminal.

Description

스키마 기반의 편집형 영상 객체 제공 방법 및 시스템Scheme based editing image object providing method and system
아래의 설명은 스키마 기반의 편집형 영상 객체 제공 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 사용자의 감성을 반영하여 편집형 영상 객체를 편집하고, 대상 단말로 제공하는 기술에 대한 것이다.The following description relates to a schema-based editable video object providing system and a method thereof, and more particularly, to a technology for editing an edited video object based on a user's emotion and providing the same to a target terminal.
스크린 골프, 4D 영화관, 가상 피팅 시스템 또는 온라인 메신저 등에서 널리 사용되고 있는 이모티콘, 플래시콘 또는 아바타(이하, 이모티콘, 플래시콘 또는 아바타를 영상 객체(Visual Object)로 기재함)는 가상 세계에 국한되지 않고, 실세계의 캐릭터로 구현됨으로써, 오프라인까지 확대 사용되고 있는 실정이다.Emoticons, flash cones or avatars (hereinafter referred to as emoticons, flash cones or avatars as Visual Objects), which are widely used in screen golf, 4D cinemas, virtual fitting systems or online messengers, are not limited to the virtual world. By being implemented as a character, the situation is being extended to offline.
이러한 영상 객체는 사용자 단말에 설치된 어플리케이션과 대상 단말에 설치된 어플리케이션 사이에서 제공되기 때문에, 어플리케이션이 지원하는 영상 객체의 전송 용량 및 전송 속도 등의 한계로 인하여, 편집이 불가능한 단점이 있다. 또한, 영상 객체는 편집이 불가능하므로, 사용자가 원하는 표현을 세밀하고 자유롭게 표현할 수 없는 단점을 갖는다.Since the video object is provided between an application installed in the user terminal and an application installed in the target terminal, editing is not possible due to limitations such as transmission capacity and transmission speed of the image object supported by the application. In addition, since the image object is not editable, there is a disadvantage in that the expression desired by the user cannot be expressed in detail and freely.
이에, 아래의 실시예들은 단말의 어플리케이션이 지원하는 전송 용량 및 전송 속도의 제약 아래, 사용자의 감성을 반영하도록 편집 가능한 영상 객체를 제공(생성, 전송 및 재생)하는 기술을 제안한다.Accordingly, the following embodiments propose a technique for providing (creating, transmitting and playing) an image object that can be edited to reflect the user's emotion, under the constraints of the transmission capacity and the transmission speed supported by the application of the terminal.
일 실시예들은 편집형 영상 객체를 XML 형태의 스키마로 설계하고, 대상 단말로 전달하는 과정에서 BiM(MPEG Binary Format) 기법을 이용함으로써, 사용자 단말 및 대상 단말이 지원하는 송수신 용량 및 송수신 속도의 제약 아래, 편집 가능한 영상 객체를 제공하는 방법 및 시스템을 제안한다.According to an embodiment of the present invention, an editable video object is designed in an XML format and a MPEG Binary Format (BiM) technique is used in a process of delivering the edited video object to the target terminal, thereby limiting transmission / reception capacity and transmission / reception speed supported by the user terminal and the target terminal. Below, we propose a method and system for providing an editable image object.
구체적으로, 일 실시예들은 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한 채, 사용자 단말에서 편집형 영상 객체를 편집함에 응답하여, 사용자 단말 및 대상 단말 사이에서 영상 객체 아이디 및 편집 정보만을 송수신함으로써, 사용자 단말 및 대상 단말에 편집형 영상 객체 서비스를 제공하는 방법 및 시스템을 제안한다.Specifically, in an embodiment, a user constructs and maintains an image object database in which a plurality of editable image objects are respectively matched and stored with a plurality of image object IDs on a memory included in each of the user terminal and the target terminal. In response to editing an editable video object in a terminal, a method and system for providing an editable video object service to a user terminal and a target terminal by transmitting and receiving only the video object ID and the edit information between the user terminal and the target terminal.
이 때, 일 실시예들은 사용자 수동 편집 입력에 응답하여 편집형 영상 객체를 편집하거나, 사용자의 정보를 기초로 자동으로 편집형 영상 객체를 편집하는 방법 및 시스템을 제안한다.At this time, one embodiment proposes a method and system for editing an editable video object in response to a user manual edit input or automatically editing the editable video object based on user information.
또한, 일 실시예들은 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체가 사용자 단말로부터 대상 단말로 전달되는 과정 및/또는 대상 단말에서 재생되는 과정에서, 대상 단말이 지원하는 재생 방식을 고려하는 방법 및 시스템을 제안한다.In addition, embodiments of the present disclosure may consider a playback method supported by a target terminal in a process in which a reproduced video object generated by editing an editable image object is transferred from a user terminal to a target terminal and / or played in the target terminal. We propose a method and system.
일 실시예에 따르면, 스키마 기반의 편집형 영상 객체 제공 방법은, 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는 단계; 상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계; 상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계; 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계; 상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는 단계; 및 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계를 포함한다.According to an embodiment, the schema-based editing type video object providing method includes an image in which a plurality of editing type video objects are matched with a plurality of image object IDs and stored on a memory included in each of a user terminal and a target terminal. Building and maintaining an object database; In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information; Transmitting the image object ID and the edit information to the target terminal; Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And applying the edit information to the extracted editable video object and providing the edited information to the target terminal.
일측에 따르면, 상기 복수의 편집형 영상 객체들 및 상기 복수의 영상 객체 아이디들은, XML 형태의 스키마로 설계될 수 있다.According to one side, the plurality of editable image objects and the plurality of image object IDs, can be designed in a schema of XML format.
또 다른 일측에 따르면, 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계는, BiM(MPEG Binary Format) 기법을 기반으로 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계일 수 있다.According to another aspect of the present invention, the transmitting of the video object ID and the editing information to the target terminal comprises: transmitting the video object ID and the editing information to the target terminal based on a MPEG Binary Format (BiM) technique. Can be.
또 다른 일측에 따르면, 상기 복수의 편집형 영상 객체들 각각은, 상기 복수의 편집형 영상 객체들 각각의 표정, 동작, 상태 또는 환경 중 적어도 하나를 나타내는 적어도 하나의 엘리멘트를 포함하고, 상기 영상 객체 데이터베이스를 구축 및 유지하는 단계는, 상기 적어도 하나의 엘리멘트를 적어도 하나의 엘리멘트 아이디와 각각 매칭하여 상기 영상 객체 데이터베이스에 저장 및 유지하는 단계를 포함할 수 있다.According to another aspect of the present invention, each of the plurality of editable image objects includes at least one element representing at least one of an expression, an action, a state, or an environment of each of the plurality of editable image objects, and the image object The establishing and maintaining of the database may include storing and maintaining the at least one element with the at least one element ID, respectively, in the image object database.
또 다른 일측에 따르면, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는, 상기 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택하는 단계; 및 상기 선택된 엘리멘트에 기초하여 상기 어느 하나의 편집형 영상 객체를 변경하는 단계를 포함하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계는, 상기 영상 객체 데이터베이스로부터 상기 선택된 엘리멘트에 대응하는 엘리멘트 아이디를 추출하는 단계; 및 상기 추출된 엘리멘트 아이디를 상기 편집 정보로 획득하는 단계를 포함할 수 있다.According to another aspect, the editing of any one of the edited image object of the plurality of editable image object stored in the image object database included in the user terminal, is included in the one edited image object Selecting any one element; And changing the one edited video object based on the selected element, wherein acquiring the edited information edited by the one edited video object comprises: selecting the selected element from the video object database. Extracting an element ID corresponding to the ID; And acquiring the extracted element ID as the edit information.
또 다른 일측에 따르면, 상기 선택된 엘리멘트에 기초하여 상기 어느 하나의 편집형 영상 객체를 변경하는 단계는, 상기 어느 하나의 편집형 영상 객체를 변경하여 재생형 영상 객체를 생성하는 단계; 및 상기 사용자 단말이 지원하는 재생 방식에 기초하여 상기 사용자 단말에 상기 재생형 영상 객체를 재생하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, the changing of the one edited video object based on the selected element comprises: generating a playable video object by changing the one edited video object; And reproducing the reproducible video object on the user terminal based on a reproduction scheme supported by the user terminal.
또 다른 일측에 따르면, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는, 상기 사용자 인터페이스 상에서 발생되는 영상 객체 자동 생성 입력에 응답하여, 상기 사용자 단말을 사용하는 사용자의 위치 정보, 환경 정보, 신체 센싱 정보, 스케줄 정보 또는 영상 객체 사용 히스토리 정보 중 적어도 하나의 정보를 획득하는 단계; 및 상기 획득된 적어도 하나의 정보에 기초하여 상기 복수의 편집형 영상 객체들 중 상기 어느 하나의 편집형 영상 객체를 선택하고 편집하는 단계를 포함할 수 있다.According to another aspect of the present invention, the editing of any one of the editable video object of the plurality of editable video objects stored in the video object database included in the user terminal, automatic image input generated on the user interface In response to obtaining at least one of location information, environment information, body sensing information, schedule information, or image object usage history information of a user who uses the user terminal; And selecting and editing any one of the plurality of editable image objects based on the obtained at least one information.
또 다른 일측에 따르면, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는, 상기 사용자 인터페이스 상에서 발생되는 사용자 수동 편집 입력에 응답하여, 상기 복수의 편집형 영상 객체들 중 상기 어느 하나의 편집형 영상 객체를 선택하고 편집하는 단계를 포함할 수 있다.According to another aspect, the editing of any one of the edited video object of the plurality of editable video object stored in the video object database included in the user terminal, the user manual editing input generated on the user interface In response, the method may include selecting and editing any one of the plurality of editable image objects.
또 다른 일측에 따르면, 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계는, 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 재생형 영상 객체를 생성하는 단계; 및 상기 재생형 영상 객체를 상기 대상 단말로 제공하는 단계를 포함할 수 있다.According to another aspect, the step of applying the editing information to the extracted editable video object to provide to the target terminal, by applying the edit information to the extracted editable video object to generate a playable video object step; And providing the playback type video object to the target terminal.
또 다른 일측에 따르면, 상기 재생형 영상 객체를 상기 대상 단말로 제공하는 단계는, 상기 대상 단말이 지원하는 재생 방식에 기초하여 상기 대상 단말에 상기 재생형 영상 객체를 재생하는 단계를 포함할 수 있다.According to another aspect, the providing of the playback type video object to the target terminal may include playing the playback type video object on the target terminal based on a playback method supported by the target terminal. .
일 실시예에 따르면, 스키마 기반의 편집형 영상 객체 제공 방법을 실행시키기 위해 컴퓨터로 읽을 수 있는 매체에 저장된 컴퓨터 프로그램에 있어서, 상기 편집형 영상 객체 제공 방법은, 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는 단계; 상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계; 상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계; 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계; 상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는 단계; 및 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계를 포함한다.According to an embodiment, in a computer program stored in a computer readable medium for executing a schema-based editable video object providing method, the editable video object providing method is included in each of a user terminal and a target terminal. Constructing and maintaining a video object database in which a plurality of editable video objects are respectively matched and stored with a plurality of video object IDs in a memory; In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information; Transmitting the image object ID and the edit information to the target terminal; Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And applying the edit information to the extracted editable video object and providing the edited information to the target terminal.
일 실시예에 따르면, 스키마 기반의 편집형 영상 객체 제공 서버는, 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는, 영상 객체 데이터베이스 구축/유지부; 상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는, 영상 객체 편집부; 상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는, 아이디 추출/편집 정보 획득부; 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는, 전달부; 상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는, 영상 객체 추출부; 및 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는, 영상 객체 제공부를 포함한다.According to an embodiment, the schema-based editable video object providing server may include an image in which a plurality of editable video objects are matched with a plurality of video object IDs and stored on a memory included in each of a user terminal and a target terminal. An image object database construction / maintenance unit for constructing and maintaining an object database; In response to a user input generated on a user interface provided by the user terminal, an image object of any one of the plurality of editable image objects stored in the image object database included in the user terminal; editorial department; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is An ID extracting / editing information obtaining unit for obtaining the edited editing information; A transmission unit for transmitting the image object ID and the edit information to the target terminal; A video object extracting unit for extracting an editable video object corresponding to the video object ID from the video object database included in the target terminal; And an image object providing unit applying the edit information to the extracted editable image object and providing the edited image object to the target terminal.
일측에 따르면, 상기 복수의 편집형 영상 객체들 및 상기 복수의 영상 객체 아이디들은, XML 형태의 스키마로 설계될 수 있다.According to one side, the plurality of editable image objects and the plurality of image object IDs, can be designed in a schema of XML format.
또 다른 일측에 따르면, 상기 전달부는, BiM(MPEG Binary Format) 기법을 기반으로 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달할 수 있다.According to another aspect, the transfer unit may transmit the image object ID and the edit information to the target terminal based on a MPEG Binary Format (Bim) technique.
일 실시예에 따르면, 스키마 기반의 편집형 영상 객체 제공 시스템은, 사용자 단말; 대상 단말; 및 편집형 영상 객체 제공 서버를 포함하고, 상기 편집형 영상 객체 제공 서버는, 상기 사용자 단말 및 상기 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는, 영상 객체 데이터베이스 구축/유지부; 상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는, 영상 객체 편집부; 상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는, 아이디 추출/편집 정보 획득부; 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는, 전달부; 상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는, 영상 객체 추출부; 및 상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는, 영상 객체 제공부를 포함한다.According to one embodiment, a schema-based editing image object providing system, the user terminal; Target terminal; And an editable video object providing server, wherein the editable video object providing server includes a plurality of editable video objects corresponding to a plurality of video object IDs on a memory included in each of the user terminal and the target terminal. A video object database construction / maintenance unit for constructing and maintaining a video object database that is matched and stored; In response to a user input generated on a user interface provided by the user terminal, an image object of any one of the plurality of editable image objects stored in the image object database included in the user terminal; editorial department; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is An ID extracting / editing information obtaining unit for obtaining the edited editing information; A transmission unit for transmitting the image object ID and the edit information to the target terminal; A video object extracting unit for extracting an editable video object corresponding to the video object ID from the video object database included in the target terminal; And an image object providing unit applying the edit information to the extracted editable image object and providing the edited image object to the target terminal.
일 실시예들은 편집형 영상 객체를 XML 형태의 스키마로 설계하고, 대상 단말로 전달하는 과정에서 BiM(MPEG Binary Format) 기법을 이용함으로써, 사용자 단말 및 대상 단말이 지원하는 송수신 용량 및 송수신 속도의 제약 아래, 편집 가능한 영상 객체를 제공하는 방법 및 시스템을 제안할 수 있다.According to an embodiment of the present invention, an editable video object is designed in an XML format and a MPEG Binary Format (BiM) technique is used in a process of delivering the edited video object to the target terminal, thereby limiting transmission / reception capacity and transmission / reception speed supported by the user terminal and the target terminal. Below, a method and system for providing an editable image object may be proposed.
구체적으로, 일 실시예들은 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한 채, 사용자 단말에서 편집형 영상 객체를 편집함에 응답하여, 사용자 단말 및 대상 단말 사이에서 영상 객체 아이디 및 편집 정보만을 송수신함으로써, 사용자 단말 및 대상 단말에 편집형 영상 객체 서비스를 제공하는 방법 및 시스템을 제안할 수 있다.Specifically, in an embodiment, a user constructs and maintains an image object database in which a plurality of editable image objects are respectively matched and stored with a plurality of image object IDs on a memory included in each of the user terminal and the target terminal. In response to editing the editable video object in the terminal, a method and system for providing an editable video object service to the user terminal and the target terminal by transmitting and receiving only the video object ID and the edit information between the user terminal and the target terminal can be proposed. have.
이 때, 일 실시예들은 사용자 수동 편집 입력에 응답하여 편집형 영상 객체를 편집하거나, 사용자의 정보를 기초로 자동으로 편집형 영상 객체를 편집하는 방법 및 시스템을 제안할 수 있다.In this case, one embodiment may propose a method and system for editing an editable video object in response to a user manual editing input or automatically editing the editable video object based on user information.
또한, 일 실시예들은 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체가 사용자 단말로부터 대상 단말로 전달되는 과정 및/또는 대상 단말에서 재생되는 과정에서, 대상 단말이 지원하는 재생 방식을 고려하는 방법 및 시스템을 제안할 수 있다.In addition, embodiments of the present disclosure may consider a playback method supported by a target terminal in a process in which a reproduced video object generated by editing an editable image object is transferred from a user terminal to a target terminal and / or played in the target terminal. Methods and systems can be proposed.
도 1은 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 시스템을 나타낸 도면이다.1 is a diagram illustrating a schema-based editing type video object providing system according to an exemplary embodiment.
도 2는 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 서버의 구성을 설명하기 위한 블록도이다.2 is a block diagram illustrating a configuration of a schema-based editable video object providing server according to an exemplary embodiment.
도 3은 일 실시예에 따른 영상 객체 데이터베이스를 설명하기 위한 도면이다.3 is a diagram for describing an image object database, according to an exemplary embodiment.
도 4는 일 실시예에 따른 대상 단말로 편집형 영상 객체를 제공하기 위한 사용자 단말과 대상 단말 사이의 데이터 전달 과정을 설명하기 위한 도면이다.4 is a diagram illustrating a data transfer process between a user terminal and a target terminal for providing an editable video object to a target terminal according to an exemplary embodiment.
도 5는 일 실시예에 따른 편집형 영상 객체를 편집하는 과정을 설명하기 위한 도면이다.5 is a diagram for describing a process of editing an editable image object, according to an exemplary embodiment.
도 6은 다른 일 실시예에 따른 편집형 영상 객체를 편집하는 과정을 설명하기 위한 도면이다.6 is a diagram for describing a process of editing an editable image object, according to another exemplary embodiment.
도 7은 일 실시예에 따른 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공하는 과정을 설명하기 위한 도면이다.FIG. 7 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to an exemplary embodiment.
도 8은 다른 일 실시예에 따른 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공하는 과정을 설명하기 위한 도면이다.8 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to another exemplary embodiment.
도 9는 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 방법을 나타낸 플로우 차트이다.9 is a flowchart illustrating a method of providing a schema-based editable video object, according to an exemplary embodiment.
이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the embodiments. Also, like reference numerals in the drawings denote like elements.
또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Also, the terminology used herein is a term used to properly express a preferred embodiment of the present invention, which may vary depending on a viewer, an operator's intention, or customs in the field to which the present invention belongs. Therefore, the definitions of the terms should be made based on the contents throughout the specification.
도 1은 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 시스템을 나타낸 도면이다.1 is a diagram illustrating a schema-based editing type video object providing system according to an exemplary embodiment.
도 1을 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 시스템(100)은 편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140)을 포함한 채, 네트워크(120)를 통하여 편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140)을 서로 연결함으로써, 편집형 영상 객체 서비스를 사용자 단말(130) 및 대상 단말(140)로 제공한다.Referring to FIG. 1, an editable video object providing system 100 according to an embodiment includes a network 120 including an editable video object providing server 110, a user terminal 130, and a target terminal 140. By connecting the editable video object providing server 110, the user terminal 130, and the target terminal 140 to each other, the editable video object service is provided to the user terminal 130 and the target terminal 140.
이하, 편집형 영상 객체 서비스는 사용자 단말(130)이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여 어느 하나의 편집형 영상 객체를 편집하고, 편집된 어느 하나의 편집형 영상 객체를 대상 단말로 제공하는 서비스를 의미한다. 이러한 편집형 영상 객체 서비스는, 사용자 단말(130)의 사용자가 대상 단말(140)로 편집형 영상 객체를 전송하고자 하는 요청에 의하여 제공될 수 있다. 또한, 이하, 편집형 영상 객체는 이모티콘, 플래시콘 또는 아바타와 같이, 정지 이미지와 정지 이미지의 움직임이 결합된 컨텐츠 데이터를 의미한다.Hereinafter, the editable video object service edits any edited video object in response to a user input generated on the user interface provided by the user terminal 130, and converts the edited video object to the target terminal. Means the service provided. Such an editable video object service may be provided by a request of a user of the user terminal 130 to transmit an editable video object to the target terminal 140. In addition, hereinafter, the editable video object refers to content data in which a still image and a motion of a still image are combined, such as an emoticon, a flash cone, or an avatar.
사용자 단말(130) 및 대상 단말(140) 각각은 PC, 노트북, 스마트폰(smart phone), 태블릿(tablet), 웨어러블 컴퓨터(wearable computer) 등으로, 편집형 영상 객체 제공 시스템(100)의 편집형 영상 객체 서비스를 위하여, 편집형 영상 객체 서비스와 관련된 웹/모바일 사이트의 접속 또는 전용 어플리케이션의 설치 및 실행이 가능한 모든 단말 장치를 의미할 수 있다. 이에, 사용자 단말(130) 및 대상 단말(140) 각각은 웹/모바일 사이트 또는 전용 어플리케이션의 제어 하에 서비스 화면 구성, 데이터 입력/출력, 데이터 송수신, 데이터 저장 등 서비스 전반의 동작을 수행할 수 있다.Each of the user terminal 130 and the target terminal 140 is a PC, a notebook computer, a smart phone, a tablet, a wearable computer, or the like, and is an editable type of the editable video object providing system 100. For the image object service, this may mean all terminal devices capable of accessing a web / mobile site related to the editable image object service or installing and executing a dedicated application. Thus, each of the user terminal 130 and the target terminal 140 may perform overall service operations such as service screen configuration, data input / output, data transmission and reception, and data storage under the control of a web / mobile site or a dedicated application.
도면에는 사용자 단말(130) 및 대상 단말(140) 각각이 스마트폰인 경우로 도시되었으나, 이에 제한되거나 한정되지 않고, 편집형 영상 객체를 편집하거나, 재생할 수 있는 다양한 기기일 수 있다. 특히, 대상 단말(140)로는, 사용자 단말(130)에서 편집형 영상 객체가 편집되어 생성되는 재생형 영상 객체가 재생될 수 있는 인형, 팔찌, 시계, 펜던트 등의 기기가 사용될 수 있다.In the drawing, although each of the user terminal 130 and the target terminal 140 is a smartphone, the present invention is not limited thereto, and the present invention is not limited thereto, and may be various devices capable of editing or reproducing an editable image object. In particular, the target terminal 140 may be a device such as a doll, a bracelet, a watch, a pendant, etc., in which a reproducible image object generated by editing an editable image object in the user terminal 130 may be reproduced.
이하, 사용자 단말(130)은 실질적으로 사용자 단말(130)을 사용하는 '사용자'를 의미할 수 있으며, 대상 단말(140)은 실질적으로 대상 단말(140)을 사용하는 '사용자'를 의미할 수 있다.Hereinafter, the user terminal 130 may substantially mean 'user' using the user terminal 130, and the target terminal 140 may substantially mean 'user' using the target terminal 140. have.
편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140)은 네트워크(120)를 통하여 데이터를 송수신할 수 있다.The editable video object providing server 110, the user terminal 130, and the target terminal 140 may transmit and receive data through the network 120.
여기서, 네트워크(120)는 데이터 프로세싱 시스템들, 컴퓨터들, 서버들, 각종 장치들 간의 통신 링크들을 제공하는데 사용되는 매체일 수 있다. 네트워크(120)는 편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140)이 서로 통신하기 위하여 TCP/IP(transmission control protocol internet protocol) 프로토콜 스위트(suite of protocols)를 사용하는 네트워크들 및 게이트웨이들의 월드 와이드 컬렉션을 나타낼 수 있다. 일부 예들에서, 네트워크(120)는 인트라넷, LAN(local area network) 또는 WAN(wide area network)을 포함하거나 또는 그 일부일 수 있다. 또한, 일부 예들에서, 네트워크(120)는 인터넷의 일부일 수 있다.Here, network 120 may be a medium used to provide communication links between data processing systems, computers, servers, and various devices. The network 120 uses a transmission control protocol internet protocol (TCP / IP) suite of protocols for the editable video object providing server 110, the user terminal 130, and the target terminal 140 to communicate with each other. To represent a world wide collection of networks and gateways. In some examples, network 120 may include or be an intranet, a local area network (LAN), or a wide area network (WAN). Also, in some examples, network 120 may be part of the Internet.
편집형 영상 객체 제공 서버(110), 사용자 단말(130) 및 대상 단말(140) 사이의 통신 방식은 제한되지 않으며, 네트워크(120)가 포함할 수 있는 통신망을 활용하는 통신 방식뿐만 아니라, 기기들간의 근거리 무선 통신 역시 포함할 수 있다. 예를 들어, 네트워크(120)는 PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(120)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method between the editable image object providing server 110, the user terminal 130, and the target terminal 140 is not limited, and a communication method utilizing a communication network that the network 120 may include, as well as between devices. The short range wireless communication may also include. For example, the network 120 may include a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), a broadband network (BBN), One or more of networks such as the Internet. In addition, the network 120 may include any one or more of network topologies including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree, or a hierarchical network. It is not limited.
편집형 영상 객체 제공 서버(110)는 편집형 영상 객체 서비스를 사용자 단말(130) 및 대상 단말(140)로 제공하는 주체로서, 사용자 단말(130) 및 대상 단말(140)과 네트워크(120)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.The editable video object providing server 110 is a subject that provides an editable video object service to the user terminal 130 and the target terminal 140. The editable video object providing server 110 provides a user terminal 130, a target terminal 140, and a network 120. It may be implemented as a computer device or a plurality of computer devices that communicate through and provide commands, codes, files, contents, services, and the like.
이 때, 편집형 영상 객체 제공 서버(110)는 편집형 영상 객체 서비스를 제공하는 서버의 플랫폼에 포함되는 형태로 구현되어, 클라이언트(client)인 사용자 단말(130) 및 대상 단말(140)로 편집형 영상 객체 서비스를 제공할 수 있다. 그러나 이에 제한되거나, 한정되지 않고, 편집형 영상 객체 제공 서버(110)는 적어도 일부의 구성 요소 또는 전체의 구성 요소가 사용자 단말(130) 및 대상 단말(140) 상에 설치되는 전용 어플리케이션의 형태로 구현되거나, 혹은 클라이언트-서버 환경에서 서비스를 제공하는 플랫폼에 포함되는 형태로 구현되는 것 또한 가능하다.In this case, the editable video object providing server 110 is implemented in a form included in the platform of the server providing the editable video object service, and is edited by the client terminal 130 and the target terminal 140. Type video object service can be provided. However, the present disclosure is not limited thereto, and the editable video object providing server 110 may be configured in the form of a dedicated application in which at least some components or all components are installed on the user terminal 130 and the target terminal 140. It may also be implemented as a form of inclusion in a platform that provides services in a client-server environment.
이와 같은 편집형 영상 객체 제공 서버(110)는 사용자 단말(130) 및 대상 단말(140) 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한 채, 사용자 단말(130)에서 편집형 영상 객체를 편집함에 응답하여, 사용자 단말(130) 및 대상 단말(140) 사이에서 영상 객체 아이디 및 편집 정보만을 송수신함으로써, 사용자 단말(130) 및 대상 단말(140)에 편집형 영상 객체 서비스를 제공한다. 이에 대한 상세한 설명은 도 2를 참조하여 기재하기로 한다.The editable video object providing server 110 stores a plurality of editable video objects that are matched with a plurality of video object IDs on a memory included in each of the user terminal 130 and the target terminal 140. In response to editing the editable video object in the user terminal 130 while building and maintaining the video object database, only the video object ID and the editing information are transmitted and received between the user terminal 130 and the target terminal 140. The terminal 130 and the target terminal 140 provide an editable video object service. Detailed description thereof will be described with reference to FIG. 2.
특히, 편집형 영상 객체 제공 서버(110)는 사용자 단말(130) 및 대상 단말(140) 각각에 포함되는 메모리 상에 구축 및 유지되는 영상 객체 데이터베이스를 XML 형태의 스키마로 설계하고(영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체들을 XML 형태의 스키마로 설계함), 사용자 단말(130) 및 대상 단말(140) 사이에서 영상 객체 아이디 및 편집 정보를 BiM(MPEG Binary Format) 기법을 기반으로 송수신함으로써, 사용자 단말(130) 및 대상 단말(140)이 지원하는 송수신 용량 및 송수신 속도의 제약 아래, 편집 가능한 영상 객체를 제공할 수 있다. 이에 대한 상세한 설명은 도 3 내지 4를 참조하여 기재하기로 한다.In particular, the editable video object providing server 110 designs an image object database constructed and maintained on a memory included in each of the user terminal 130 and the target terminal 140 in a schema of XML format (in the image object database). By designating a plurality of stored editable image objects in an XML format), by transmitting and receiving image object ID and edit information between the user terminal 130 and the target terminal 140 based on the MPEG Binary Format (Bim) technique, An editable image object may be provided under constraints of transmission / reception capacity and transmission / reception rate supported by the user terminal 130 and the target terminal 140. Detailed description thereof will be described with reference to FIGS. 3 to 4.
도 2는 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 서버의 구성을 설명하기 위한 블록도이다.2 is a block diagram illustrating a configuration of a schema-based editable video object providing server according to an exemplary embodiment.
도 2를 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버(200)는 도 1을 참조하여 상술된 편집형 영상 객체 제공 시스템에 포함되는 것으로, 프로세서(210), 버스(220), 네트워크 인터페이스(230), 메모리(240) 및 데이터베이스(250)를 포함할 수 있다. 메모리(240)는 운영체제(241) 및 서비스 제공 루틴(242)를 포함할 수 있다. 프로세서(210)는 영상 객체 데이터베이스 구축/유지부(211), 영상 객체 편집부(212), 아이디 추출/편집 정보 획득부(213), 전달부(214), 영상 객체 추출부(215) 및 영상 객체 제공부(216)를 포함한다. 다른 실시예들에서 편집형 영상 객체 제공 서버(200)는 도면에 도시된 구성요소들보다 더 많은 구성요소들 또는 더 적은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 편집형 영상 객체 제공 서버(200)는 디스플레이나 트랜시버(transceiver)와 같은 다른 구성요소들을 포함할 수도 있다.Referring to FIG. 2, the editable video object providing server 200 according to an embodiment is included in the editable video object providing system described above with reference to FIG. 1, and includes a processor 210, a bus 220, and a network. It may include an interface 230, a memory 240, and a database 250. The memory 240 may include an operating system 241 and a service providing routine 242. The processor 210 is an image object database construction / maintenance unit 211, an image object editing unit 212, an ID extraction / editing information acquisition unit 213, a transfer unit 214, an image object extraction unit 215, and an image object. It includes a providing unit 216. In other embodiments, the editable image object providing server 200 may include more components or fewer components than the components shown in the drawing. However, it is not necessary to clearly show most of the prior art components. For example, the editable image object providing server 200 may include other components such as a display or a transceiver.
메모리(240)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(240)에는 운영체제(241)와 서비스 제공 루틴(242)을 위한 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리(240)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스(230)를 통해 메모리(240)에 로딩될 수도 있다.The memory 240 is a computer-readable recording medium and may include a permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive. In addition, the memory 240 may store program codes for the operating system 241 and the service providing routine 242. These software components may be loaded from a computer readable recording medium separate from the memory 240 using a drive mechanism (not shown). Such a separate computer-readable recording medium may include a computer-readable recording medium (not shown) such as a floppy drive, a disk, a tape, a DVD / CD-ROM drive, a memory card, and the like. In other embodiments, the software components may be loaded into the memory 240 via the network interface 230 rather than the computer readable recording medium.
버스(220)는 편집형 영상 객체 제공 서버(200)의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스(220)는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.The bus 220 may enable communication and data transmission between components of the editable video object providing server 200. The bus 220 may be configured using a high-speed serial bus, a parallel bus, a storage area network and / or other suitable communication technology.
네트워크 인터페이스(230)는 편집형 영상 객체 제공 서버(200)를 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성요소일 수 있다. 네트워크 인터페이스(230)는, 이더넷 카드와 같은 네트워크 인터페이스 카드, 광학 송수신기, 무선 주파수 송수신기, 혹은 정보를 송수신할 수 있는 임의의 다른 타입의 디바이스일 수 있다. 이러한 네트워크 인터페이스들의 다른 예들은 모바일 컴퓨팅 디바이스들 및 USB 내의 블루투스(Bluetooth), 저전력 광역 통신망, 3G 및 WiFi 등을 포함하는 무선기기일 수 있다. 일부 예들에서, 컴퓨팅 디바이스는, 서버, 모바일 폰, 혹은 다른 네트워크화된 컴퓨팅 디바이스와 같은 외부 디바이스와 무선으로 통신하기 위해 네트워크 인터페이스(230)를 사용할 수 있다. 특히, 네트워크 인터페이스(230)는 편집형 영상 객체 제공 서버(200)를 네트워크를 통해 사용자 단말 및 대상 단말과 연결시킬 수 있다.The network interface 230 may be a computer hardware component for connecting the editable video object providing server 200 to a computer network. The network interface 230 may be a network interface card such as an Ethernet card, an optical transceiver, a radio frequency transceiver, or any other type of device capable of transmitting and receiving information. Other examples of such network interfaces may be mobile computing devices and wireless devices including Bluetooth in USB, low power wide area networks, 3G and WiFi, and the like. In some examples, computing device may use network interface 230 to wirelessly communicate with an external device, such as a server, mobile phone, or other networked computing device. In particular, the network interface 230 may connect the editable video object providing server 200 to a user terminal and a target terminal through a network.
데이터베이스(250)는 편집형 영상 객체 서비스를 제공하기 위한 데이터를 저장 및 유지하는 역할을 할 수 있다. 예를 들어, 데이터베이스(250)에는 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장될 수 있다. 따라서, 데이터베이스(250)는 도 3을 참조하여 후술되는 사용자 단말 및 대상 단말 각각의 메모리 상에 영상 객체 데이터베이스를 구축 및/또는 업데이트하는 과정에서 이용될 수 있다.The database 250 may serve to store and maintain data for providing an editable video object service. For example, the plurality of editable image objects may be matched with the plurality of image object IDs and stored in the database 250. Therefore, the database 250 may be used in the process of constructing and / or updating the image object database on the memory of each of the user terminal and the target terminal described below with reference to FIG. 3.
도면에서는, 편집형 영상 객체 제공 서버(200)의 내부에 데이터베이스(250)를 구축하여 포함하는 것으로 도시하고 있으나, 이에 한정되는 것은 아니며 시스템 구현 방식이나 환경 등에 따라 생략될 수 있고 혹은 전체 또는 일부의 데이터베이스가 별개의 다른 시스템 상에 구축된 외부 데이터베이스로서 존재하는 것 또한 가능하다.In the drawing, although the database 250 is built and included in the editable video object providing server 200, the present invention is not limited thereto and may be omitted according to a system implementation method or environment, or may be omitted in whole or in part. It is also possible for the database to exist as an external database built on a separate, different system.
프로세서(210)는 기본적인 산술, 로직 및 편집형 영상 객체 제공 서버(200)의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(240) 또는 네트워크 인터페이스(230)에 의해, 그리고 버스(220)를 통해 프로세서(210)로 제공될 수 있다. 프로세서(210)는 영상 객체 데이터베이스 구축/유지부(211), 영상 객체 편집부(212), 아이디 추출/편집 정보 획득부(213), 전달부(214), 영상 객체 추출부(215) 및 영상 객체 제공부(216)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리(240)와 같은 기록 장치에 저장될 수 있다.The processor 210 may be configured to process instructions of a computer program by performing input / output operations of the basic arithmetic, logic, and editable image object providing server 200. The instructions may be provided to the processor 210 by the memory 240 or the network interface 230 and via the bus 220. The processor 210 is an image object database construction / maintenance unit 211, an image object editing unit 212, an ID extraction / editing information acquisition unit 213, a transfer unit 214, an image object extraction unit 215, and an image object. It can be configured to execute the program code for the provider 216. Such program code may be stored in a recording device such as memory 240.
영상 객체 데이터베이스 구축/유지부(211)는 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한다.The image object database construction / maintenance unit 211 constructs and maintains an image object database in which a plurality of editable image objects are matched with a plurality of image object IDs and stored on a memory included in each of the user terminal and the target terminal. do.
여기서, 복수의 편집형 영상 객체들 각각은 편집형 영상 객체 이미지를 포함한다. 따라서, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매치되어 저장된다는 것은, 복수의 편집형 영상 객체 이미지들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 것을 의미한다.Here, each of the plurality of editable video objects includes an editable video object image. Accordingly, the plurality of editable video object images are matched and stored with the plurality of video object IDs, respectively, and the plurality of editable video object images are matched with the plurality of video object IDs, respectively.
또한, 복수의 편집형 영상 객체들 각각은 편집형 영상 객체(편집형 영상 객체 이미지)의 표정, 동작, 상태 또는 환경 중 적어도 하나를 나타내는 엘리멘트를 포함할 수 있다. 따라서, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장된다는 것은, 복수의 엘리멘트들이 복수의 엘리멘트 아이디들과 각각 매칭되어 저장되는 것을 의미할 수 있다.Each of the plurality of editable video objects may include an element representing at least one of an expression, an action, a state, or an environment of the editable video object (the edited video object image). Accordingly, the plurality of editable image objects may be matched and stored with the plurality of image object IDs, respectively, and may mean that the plurality of elements are matched with the plurality of element IDs and stored.
즉, 영상 객체 데이터베이스 구축/유지부(211)는 복수의 편집형 영상 객체 이미지들을 복수의 영상 객체 아이디들과 각각 매칭하여 저장하고, 복수의 엘리멘트들을 복수의 엘리멘트 아이디들과 각각 매칭하여 저장함으로써, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지할 수 있다.That is, the image object database construction / maintenance unit 211 stores the plurality of editable image object images by matching each of the plurality of image object IDs and stores the plurality of elements by matching each of the plurality of element IDs. A video object database in which a plurality of editable image objects are matched with and stored in a plurality of image object IDs may be constructed and maintained.
특히, 영상 객체 데이터베이스 구축/유지부(211)는 복수의 편집형 영상 객체들 및 복수의 영상 객체 아이디들을 XML 형태의 스키마로 설계함으로써, 복수의 편집형 영상 객체들 및 복수의 영상 객체 아이디들이 각각 매칭되어 저장되는 영상 객체 데이터베이스를 저용량으로 구축 및 유지할 수 있다. 마찬가지로, 복수의 엘리멘트들 및 복수의 엘리멘트 아이디들 역시 XML 형태의 스키마로 설계될 수 있다.In particular, the image object database construction / maintenance unit 211 designs a plurality of editable image objects and a plurality of image object IDs in an XML format, so that the plurality of editable image objects and the plurality of image object IDs are respectively. The image object database that is matched and stored can be constructed and maintained at low capacity. Similarly, the plurality of elements and the plurality of element IDs may also be designed in an XML format schema.
이와 같이, 영상 객체 데이터베이스 구축/유지부(211)는 복수의 편집형 영상 객체들 및 복수의 영상 객체 아이디들을 XML 형태의 스키마로 설계함으로써, 후술되는 전달부(214)가 영상 객체 아이디 및 편집 정보를 대상 단말로 전달함에 있어, BiM 기법을 이용하도록 하여 전송 용량을 최소화하고 전송 속도를 극대화하도록 할 수 있다. 이에 대한 상세한 설명은 도 3 내지 4를 참조하여 기재하기로 한다.As such, the image object database construction / maintenance unit 211 designs a plurality of editable image objects and a plurality of image object IDs in an XML format, so that the transmission unit 214, which will be described later, is used for the image object ID and editing information. In transmitting to the target terminal, it is possible to use the BiM technique to minimize the transmission capacity and maximize the transmission speed. Detailed description thereof will be described with reference to FIGS. 3 to 4.
또한, 영상 객체 데이터베이스 구축/유지부(211)는 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에 구축 및 유지되는 영상 객체 데이터베이스를 업데이트할 수도 있다.In addition, the image object database construction / maintenance unit 211 may update the image object database constructed and maintained on a memory included in each of the user terminal and the target terminal.
영상 객체 편집부(212)는 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집한다.The image object editing unit 212 edits any one of the plurality of editable image objects stored in the image object database included in the user terminal in response to a user input generated on the user interface provided by the user terminal. do.
구체적으로, 영상 객체 편집부(212)는 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고, 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택한 뒤, 선택된 엘리멘트에 기초하여 어느 하나의 편집형 영상 객체를 변경하여 편집할 수 있다.In detail, the image object editing unit 212 may edit an image of any one of a plurality of editable image objects stored in an image object database included in the user terminal in response to a user input generated on a user interface provided by the user terminal. After selecting an object and selecting one element included in one editable image object, the editable image object may be changed and edited based on the selected element.
이 때, 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하는 것은, 복수의 편집형 영상 객체 이미지들 중 어느 하나의 편집형 영상 객체 이미지를 선택하는 것을 의미할 수 있다. 이에, 영상 객체 편집부(212)는 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체 이미지들 중 어느 하나의 편집형 영상 객체 이미지를 선택하고, 어느 하나의 편집형 영상 객체 이미지와 연관된 복수의 엘리멘트들(선택된 어느 하나의 편집형 영상 객체에 포함되는 복수의 엘리멘트들) 중 어느 하나의 엘리멘트를 선택할 수 있다. 따라서, 영상 객체 편집부(212)는 선택된 어느 하나의 엘리멘트가 나타내는 표정, 동작, 상태 또는 환경 중 적어도 하나를 선택된 어느 하나의 편집형 영상 객체 이미지에 반영함으로써, 어느 하나의 편집형 영상 객체를 변경, 편집하여 재생형 영상 객체를 생성할 수 있다.In this case, selecting one of the plurality of editable image objects may mean selecting one of the plurality of editable image object images. Accordingly, the image object editing unit 212 selects any one of the editable image object images among the plurality of editable image object images stored in the image object database included in the user terminal, and is associated with any one of the editable image object images. One of a plurality of elements (a plurality of elements included in one selected editable image object) may be selected. Accordingly, the image object editing unit 212 changes at least one editable image object by reflecting at least one of an expression, an operation, a state, or an environment indicated by any one selected element in the selected image object. You can edit to create a playable video object.
여기서, 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하는 것과 선택된 어느 하나의 편집형 영상 객체에 포함되는 복수의 엘리멘트들 중 어느 하나의 엘리멘트를 선택하는 것은, 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 수동 편집 입력에 응답하여 수동으로 수행되거나, 사용자 인터페이스 상에서 발생되는 영상 객체 자동 생성 입력에 응답하여 자동으로 수행될 수 있다. 이에 대한 상세한 설명은 도 5 및 6을 참조하여 기재하기로 한다.Here, selecting one of the plurality of editable video objects and selecting one of the elements included in the selected one of the edited video objects is provided by the user terminal. The image may be manually performed in response to a user manual edit input generated on the user interface, or may be automatically performed in response to an image object automatic generation input generated on the user interface. Detailed description thereof will be described with reference to FIGS. 5 and 6.
또한, 영상 객체 편집부(212)는 어느 하나의 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체를 사용자 단말 상에서 재생함으로써, 사용자 단말의 사용자가 편집형 영상 객체의 편집 결과를 확인하도록 할 수 있다.In addition, the image object editing unit 212 may play back the reproduced image object generated by editing one of the editable image objects on the user terminal, so that the user of the user terminal may confirm the editing result of the editable image object. .
아이디 추출/편집 정보 획득부(213)는 영상 객체 편집부(212)에 의해 어느 하나의 편집형 영상 객체가 편집됨에 따라, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득한다. 이 때, 편집 정보는 편집형 영상 객체가 편집 및 변경되어 재생형 영상 객체로 생성됨에 있어서, 편집형 영상 객체가 어떻게 편집 및 변경되는가를 나타내는 정보로, 영상 객체 아이디와 마찬가지로 XML 형태의 스키마로 설계될 수 있다.The ID extracting / editing information obtaining unit 213 corresponds to any one editable video object from the video object database included in the user terminal as any edited video object is edited by the video object editing unit 212. The video object ID is extracted, and the edited edit information of any one editable video object is obtained. In this case, the edit information is information indicating how the editable video object is edited and changed when the editable video object is edited and changed to generate a playable video object. Like the video object ID, the edited information is designed as an XML schema. Can be.
구체적으로, 아이디 추출/편집 정보 획득부(213)는 영상 객체 편집부(212)가 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 편집형 영상 객체를 선택함에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출한 뒤, 영상 객체 편집부(212)가 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택함에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 엘리멘트에 대응하는 엘리멘트 아이디를 추출하고, 추출된 엘리멘트 아이디를 편집 정보로 획득할 수 있다.In detail, the ID extracting / editing information obtaining unit 213 responds to the image object editing unit 212 selecting one of the editable image objects from the image object database included in the user terminal, and the image object included in the user terminal. After extracting the video object ID corresponding to one of the editable video objects from the database, the video object editor 212 is included in the user terminal in response to selecting one element included in one of the edited video objects. An element ID corresponding to any one element may be extracted from the image object database, and the extracted element ID may be obtained as edit information.
즉, 어느 하나의 편집형 영상 객체가 편집된 편집 정보는, 영상 객체 편집부(212)에서 선택한 어느 하나의 엘리멘트에 대응하는 엘리멘트 아이디일 수 있다.That is, the edit information in which any editable video object is edited may be an element ID corresponding to any one element selected by the video object editing unit 212.
상술한 영상 객체 편집부(212) 및 아이디 추출/편집 정보 획득부(213) 각각의 동작은, 사용자 단말에 포함되는 메모리 상에 구축 및 유지되는 영상 객체 데이터베이스를 기반으로 수행되기 때문에, 영상 객체 편집부(212) 및 아이디 추출/편집 정보 획득부(213) 각각은 사용자 단말의 메모리에 접근할 수 있는 권한을 가질 수 있으며, 영상 객체 편집부(212) 및 아이디 추출/편집 정보 획득부(213) 각각의 일부 동작은 영상 객체 편집부(212) 및 아이디 추출/편집 정보 획득부(213) 각각의 제어에 따라 사용자 단말의 프로세서가 실행의 주체가 되어 수행될 수 있다.Since the operations of each of the above-described image object editing unit 212 and the ID extracting / editing information obtaining unit 213 are performed based on the image object database constructed and maintained on the memory included in the user terminal, the image object editing unit ( 212) and each of the ID extracting / editing information obtaining unit 213 may have a right to access a memory of the user terminal, and a part of each of the image object editing unit 212 and the ID extracting / editing information obtaining unit 213. The operation may be performed by the processor of the user terminal as the subject of execution under the control of each of the image object editing unit 212 and the ID extracting / editing information obtaining unit 213.
전달부(214)는 아이디 추출/편집 정보 획득부(213)에서 추출된 영상 객체 아이디 및 획득된 편집 정보를 대상 단말로 전달한다. 여기서, 영상 객체 아이디 및 편집 정보는 XML 형태의 스키마로 설계되어 있기 때문에, 전달부(214)는 BiM 기법을 기반으로 영상 객체 아이디 및 편집 정보를 대상 단말로 전송함으로써, 전송 용량을 최소화하고, 전송 속도를 극대화할 수 있다.The transfer unit 214 transfers the image object ID extracted from the ID extracting / editing information obtaining unit 213 and the obtained edited information to the target terminal. Here, since the video object ID and the edit information are designed in the form of XML, the transmission unit 214 transmits the video object ID and the edit information to the target terminal based on the BiM scheme, thereby minimizing the transmission capacity and transmitting the You can maximize speed.
또한, 전달부(214)는 대상 단말이 지원하는 재생 방식을 고려하여, 영상 객체 아이디 및 편집 정보를 대상 단말로 전달할 수도 있다. 예를 들어, 대상 단말이 재생형 영상 객체를 사운드 방식으로만 재생하는 것을 지원하는 기기인 경우, 전달부(214)는 편집 정보 중 사운드 방식의 재생과 관련된 일부 정보만을 대상 단말로 전달할 수도 있다. 따라서, 전달부(214)는 사용자 단말과 대상 단말 사이의 데이터 전송 용량을 최소화함으로써, 데이터 전송 속도를 극대화할 수 있다.In addition, the transfer unit 214 may transfer the video object ID and the edit information to the target terminal in consideration of a reproduction scheme supported by the target terminal. For example, when the target terminal is a device that supports reproducing the reproducible video object only in the sound system, the delivery unit 214 may transmit only some information related to the reproduction of the sound system to the target terminal. Therefore, the transmission unit 214 may maximize the data transmission speed by minimizing the data transmission capacity between the user terminal and the target terminal.
영상 객체 추출부(215)는 전달부(214)가 영상 객체 아이디 및 편집 정보를 대상 단말로 전달함에 응답하여, 대상 단말에 포함되는 영상 객체 데이터베이스로부터 해당 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출한다. 이 때, 대상 단말에 포함되는 영상 객체 데이터베이스는 사용자 단말에 포함되는 영상 객체 데이터베이스와 동일한 데이터를 포함하는 동일한 데이터베이스이기 때문에, 대상 단말에 포함되는 영상 객체 데이터베이스 상에서 해당 영상 객체 아이디에 대응하는 편집형 영상 객체는, 아이디 추출/편집 정보 획득부(213)가 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 해당 영상 객체 아이디를 추출할 때 이용한 편집형 영상 객체(사용자 단말에서 편집된 편집형 영상 객체)와 동일한 것일 수 있다.The image object extractor 215 transmits the editable image object corresponding to the image object ID from the image object database included in the target terminal in response to the delivery unit 214 transmitting the image object ID and the edit information to the target terminal. Extract. In this case, since the image object database included in the target terminal is the same database including the same data as the image object database included in the user terminal, the editable image corresponding to the corresponding image object ID on the image object database included in the target terminal. The object may be the same as the editable video object (editable video object edited by the user terminal) used by the ID extracting / editing information obtaining unit 213 to extract the corresponding video object ID from the video object database included in the user terminal. Can be.
여기서, 영상 객체 추출부(215)가 추출한 편집형 영상 객체는 편집형 영상 객체의 이미지를 포함하기 때문에, 영상 객체 제공부(216)는, 영상 객체 추출부(215)에서 추출된 편집형 영상 객체(정확하게는, 편집형 영상 객체 이미지)에 편집 정보(전달부(214)에서 전달된 편집 정보)를 적용함으로써, 사용자 단말에서 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체와 동일한 재생형 영상 객체를 생성한 뒤, 대상 단말로 제공할 수 있다.Here, since the editable video object extracted by the video object extractor 215 includes an image of the editable video object, the video object providing unit 216 extracts the editable video object extracted by the video object extractor 215. By applying the edit information (the edit information transmitted from the delivery unit 214) to the (correctly, the editable video object image), the reproduced video identical to the reproduced video object generated by editing the edited video object in the user terminal. After the object is created, it may be provided to the target terminal.
이 때, 영상 객체 추출부(215)는 대상 단말이 지원하는 재생 방식에 기초하여 대상 단말에 재생형 영상 객체를 재생할 수 있다. 이에 대한 상세한 설명은 도 7 내지 8을 참조하여 기재하기로 한다.In this case, the video object extractor 215 may play back the playback type video object on the target terminal based on the playback scheme supported by the target terminal. Detailed description thereof will be described with reference to FIGS. 7 to 8.
상술한 영상 객체 추출부(215) 및 영상 객체 제공부(216) 각각의 동작은, 대상 단말에 포함되는 메모리 상에 구축 및 유지되는 영상 객체 데이터베이스를 기반으로 수행되기 때문에, 영상 객체 추출부(215) 및 영상 객체 제공부(216) 각각은 대상 단말의 메모리에 접근할 수 있는 권한을 가질 수 있으며, 영상 객체 추출부(215) 및 영상 객체 제공부(216) 각각의 일부 동작은 영상 객체 추출부(215) 및 영상 객체 제공부(216) 각각의 제어에 따라 대상 단말의 프로세서가 실행의 주체가 되어 수행될 수 있다.Since the operations of each of the above-described image object extracting unit 215 and the image object providing unit 216 are performed based on the image object database constructed and maintained on the memory included in the target terminal, the image object extracting unit 215 ) And the image object providing unit 216 may have a right to access the memory of the target terminal, and some operations of the image object extracting unit 215 and the image object providing unit 216 may be performed by the image object extracting unit. The processor of the target terminal may be executed as the subject of execution under the control of each of the control unit 215 and the image object providing unit 216.
이상, 편집형 영상 객체 제공 서버(200)가 프로세서(210), 버스(220), 네트워크 인터페이스(230), 메모리(240) 및 데이터베이스(250)를 포함하는 경우로 설명하였으나, 이에 제한되거나 한정되지 않고, 프로세서(210)의 핵심 구성부들(영상 객체 데이터베이스 구축/유지부(211), 영상 객체 편집부(212), 아이디 추출/편집 정보 획득부(213), 전달부(214), 영상 객체 추출부(215) 및 영상 객체 제공부(216))만을 포함할 수도 있다.As described above, the editable image object providing server 200 includes the processor 210, the bus 220, the network interface 230, the memory 240, and the database 250, but is not limited thereto. Core components of the processor 210 (image object database construction / maintenance unit 211, image object editing unit 212, ID extraction / editing information acquisition unit 213, transfer unit 214, image object extraction unit) 215 and the image object providing unit 216 may be included only.
도 3은 일 실시예에 따른 영상 객체 데이터베이스를 설명하기 위한 도면이다.3 is a diagram for describing an image object database, according to an exemplary embodiment.
도 3을 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 영상 객체 데이터베이스(300)를 구축 및 유지할 수 있다.Referring to FIG. 3, an editable video object providing server according to an embodiment may build and maintain an image object database 300 on a memory included in each of a user terminal and a target terminal.
구체적으로, 편집형 영상 객체 제공 서버는 복수의 편집형 영상 객체들(320, 330)을 복수의 영상 객체 아이디들(310)과 각각 매칭하여 저장함으로써, 영상 객체 데이터베이스(300)를 구축할 수 있다.In detail, the editable video object providing server may construct the video object database 300 by matching and storing the plurality of editable video objects 320 and 330 with the plurality of video object IDs 310, respectively. .
이 때, 복수의 편집형 영상 객체들(320, 330) 각각은 편집형 영상 객체 이미지(정지 이미지)(320)를 포함하고, 편집형 영상 객체 이미지(320)와 연관된 복수의 엘리멘트들(330)을 포함하기 때문에, 편집형 영상 객체 제공 서버는 복수의 편집형 영상 객체 이미지들(320)을 복수의 영상 객체 아이디들(310)과 각각 매칭하여 저장하고, 복수의 편집형 영상 객체 이미지들(320) 각각과 연관된 복수의 엘리멘트들(330)을 복수의 엘리멘트 아이디들(340)과 각각 매칭하여 저장함으로써, 영상 객체 데이터베이스(300)를 구축할 수 있다.In this case, each of the plurality of editable image objects 320 and 330 includes an editable image object image (still image) 320 and a plurality of elements 330 associated with the editable image object image 320. Since the editable video object providing server stores the plurality of editable video object images 320 by matching each of the plurality of video object IDs 310 and stores the plurality of editable video object images 320, respectively. ) The image object database 300 may be constructed by matching and storing the plurality of elements 330 associated with each element with the plurality of element IDs 340, respectively.
여기서, 복수의 엘리멘트들(330) 각각은, 정지 이미지인 복수의 편집형 영상 객체 이미지들(320) 각각의 표정, 동작, 상태 또는 환경 중 적어도 어느 하나를 나타내는 데이터를 의미한다.Here, each of the plurality of elements 330 means data representing at least one of an expression, an operation, a state, or an environment of each of the plurality of editable image object images 320 which are still images.
예를 들어, 편집형 영상 객체 제공 서버는 '사람'의 정지 이미지를 나타내는 제1 편집형 영상 객체 이미지를 제1 영상 객체 아이디 '001'에 매칭하여 저장한 뒤, 제1 편집형 영상 객체 이미지와 연관된 '웃음'의 표정을 나타내는 제1-1 엘리멘트를 제1-1 엘리멘트 아이디 '001'에 매칭하여 저장하고, 제1 편집형 영상 객체 이미지와 연관된 '울음'의 표정을 나타내는 제1-2 엘리멘트를 제1-2 엘리멘트 아이디 '002'에 매칭하여 저장하며, 제1 편집형 영상 객체 이미지와 연관된 '화남'의 표정을 나타내는 제1-3 엘리멘트를 제1-3 엘리멘트 아이디 '003'에 매칭하여 저장할 수 있다. 여기서, 제1-1 엘리멘트, 제1-2 엘리멘트 및 제1-3 엘리멘트는 제1 편집형 영상 객체 이미지와도 매칭되어 연관 저장될 수 있다.For example, the editable video object providing server stores the first editable video object image representing a still image of a person by matching the first video object ID '001' and then stores the first edited video object image. A first-first element representing an associated 'laugh' expression and storing the first-first element corresponding to the first-first element ID '001' and storing the first-second element representing the expression of 'cry' associated with the first edited image object image. To store the first and second element ID '002', and match the first and third elements representing the expression of 'angry' associated with the first editable image object image to the first and second element ID '003'. Can be stored. Here, the first-first element, the first-second element, and the first-third element may be matched with and stored in the first editable image object image.
이와 같이 영상 객체 데이터베이스(300)에 저장되는 복수의 영상 객체 아이디들(310), 복수의 편집형 영상 객체 이미지들(320), 복수의 엘리멘트들(330) 및 복수의 엘리멘트 아이디들(340)은 모두 XML 형태의 스키마로 설계될 수 있다. 따라서, 영상 객체 데이터베이스(300) 자체는 XML 형태의 스키마를 지원하는 데이터베이스로, XML 형태의 스키마로 설계되는 데이터들을 저장 및 유지하기 때문에, 저용량으로 구축될 수 있다.As such, the plurality of image object IDs 310, the plurality of editable image object images 320, the plurality of elements 330, and the plurality of element IDs 340 stored in the image object database 300 may be provided. All can be designed as XML type schemas. Therefore, the image object database 300 itself is a database that supports an XML-type schema. Since the image object database 300 stores and maintains data designed in the XML-type schema, the image object database 300 may be constructed at a low capacity.
이 때, 편집형 영상 객체 제공 서버는 복수의 편집형 영상 객체들(320, 330)이 복수의 영상 객체 아이디들(310)과 각각 매칭되어 저장된 데이터베이스(도 2에 도시된 데이터베이스)를 서버 자체에 구축하여 보관하다가, 사용자 단말 및 대상 단말이 편집형 영상 객체 서비스를 이용하기 위하여 등록될 때, 서버 자체에 보관 중인 데이터베이스를 사용자 단말의 메모리 및 대상 단말의 메모리 각각에 카피하여 구축함으로써, 사용자 단말 및 대상 단말이 동일한 영상 객체 데이터베이스(300)를 유지하도록 할 수 있다.In this case, the editable video object providing server may store a database (database shown in FIG. 2) stored in the server itself by matching the plurality of editable video objects 320 and 330 with the plurality of video object IDs 310, respectively. When the user terminal and the target terminal are registered and registered to use the editable video object service, the database stored in the server itself is copied into the memory of the user terminal and the memory of the target terminal, thereby constructing the user terminal and the target terminal. The target terminal may maintain the same image object database 300.
또한, 편집형 영상 객체 제공 서버는 상술한 영상 객체 데이터베이스(300) 구축 과정과 동일하게, 사용자 단말 및 대상 단말 각각에 구축 및 유지되는 영상 객체 데이터베이스(300)를 업데이트할 수 있다. 이러한 업데이트 과정은, 편집형 영상 객체 제공 서버가 사용자 단말 및 대상 단말과 무선 또는 유선의 통신으로 연결되어 수행될 수 있으며, 영상 객체 데이터베이스(300)에 저장된 데이터들은 모두 XML 형태의 스키마로 설계되기 때문에, 업데이트 과정의 속도 및 효율이 증가될 수 있다.In addition, the editable image object providing server may update the image object database 300 which is constructed and maintained in each of the user terminal and the target terminal, in the same manner as the above-described process of constructing the image object database 300. The update process may be performed by the editable video object providing server connected to the user terminal and the target terminal by wireless or wired communication, and the data stored in the image object database 300 are all designed in an XML format. As a result, the speed and efficiency of the update process can be increased.
도 4는 일 실시예에 따른 대상 단말로 편집형 영상 객체를 제공하기 위한 사용자 단말과 대상 단말 사이의 데이터 전달 과정을 설명하기 위한 도면이다.4 is a diagram illustrating a data transfer process between a user terminal and a target terminal for providing an editable video object to a target terminal according to an exemplary embodiment.
도 4를 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버는 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체가 편집됨에 따라, 사용자 단말(410)에 포함되는 영상 객체 데이터베이스(411)로부터 어느 하나의 편집형 영상 객체에 대응하여 추출된 영상 객체 아이디 및 획득된 편집 정보(430)만을 대상 단말(420)로 전달한다.Referring to FIG. 4, the editable video object providing server according to an embodiment may include a video object database included in the user terminal 410 as one of the plurality of editable video objects is edited. Only the extracted image object ID and the obtained edited information 430 corresponding to any one editable image object are transmitted to the target terminal 420.
이 때, 편집 정보는 어느 하나의 편집형 영상 객체가 편집 및 변경되어 재생형 영상 객체로 생성됨에 있어서, 편집형 영상 객체가 어떻게 편집 및 변경되는가를 나타내는 정보로, 어느 하나의 편집형 영상 객체에 포함되는 선택된 어느 하나의 엘리멘트에 대응하는 엘리멘트 아이디일 수 있다.At this time, the edit information is information indicating how the editable video object is edited and changed in any one editable video object being edited and changed to generate a playable video object. It may be an element ID corresponding to any one selected element included.
예를 들어, 사용자 단말(410)에 포함되는 영상 객체 데이터베이스(411)에서 '사람'의 정지 이미지를 나타내는 제1 편집형 영상 객체 이미지가 선택되고, 제1 편집형 영상 객체 이미지와 연관된 '웃음'의 표정을 나타내는 제1-1 엘리멘트가 선택되어 제1 편집형 영상 객체가 편집되었다면, 편집형 영상 객체 제공 서버는 영상 객체 데이터베이스(411)로부터 제1 편집형 영상 객체 이미지에 대응하는 제1 영상 객체 아이디 '001'을 추출하고, 제1-1 엘리멘트에 대응하는 제1-1 엘리멘트 아이디 '001'을 편집 정보로 획득할 수 있다. 따라서, 편집형 영상 객체 제공 서버는 제1 영상 객체 아이디 '001'과 제1-1 엘리멘트 아이디 '001'이 결합된 '001001'의 아이디 데이터(430)를 대상 단말(420)로 전달할 수 있다.For example, in the image object database 411 included in the user terminal 410, a first editable image object image representing a still image of a person is selected, and a 'laugh' associated with the first edited image object image is selected. If the first editable video object has been edited by selecting the 1-1 element representing the facial expression of, the editable video object providing server provides a first video object corresponding to the first editable video object image from the video object database 411. The ID '001' may be extracted, and the first-first element ID '001' corresponding to the first-first element may be obtained as edit information. Accordingly, the editable video object providing server may transmit the ID data 430 of '001001' in which the first video object ID '001' and the 1-1 element ID '001' are combined to the target terminal 420.
이와 같은 영상 객체 아이디 및 편집 정보(430)는 XML 형태의 스키마로 설계되어 있기 때문에, 데이터 용량이 매우 낮으며, BiM 기법을 기반으로 송수신됨으로써, 전송 용량을 최소화하고 전송 속도를 극대화할 수 있다. 이에, 편집형 영상 객체 제공 서버는 사용자 단말(410) 및 대상 단말(420)이 지원하는 송수신 용량 및 송수신 속도의 제약을 만족시키며, 편집 가능한 영상 객체를 대상 단말(420)로 제공할 수 있다.Since the video object ID and the editing information 430 are designed in the form of XML, the data volume is very low and can be transmitted and received based on the BiM technique, thereby minimizing the transmission capacity and maximizing the transmission speed. Accordingly, the editable video object providing server satisfies the constraints of the transmission / reception capacity and the transmission / reception speed supported by the user terminal 410 and the target terminal 420, and may provide an editable video object to the target terminal 420.
편집형 영상 객체 제공 서버는 대상 단말(420)이 영상 객체 아이디 및 편집 정보(430)를 수신함에 응답하여, 대상 단말(420)에 포함되는 영상 객체 데이터베이스(421)로부터 영상 객체 아이디에 대응하는 편집형 영상 객체(정확하게는 편집형 영상 객체 이미지)를 추출하고, 추출된 편집형 영상 객체(정확하게는 편집형 영상 객체 이미지)에 편집 정보를 적용함으로써, 재생형 영상 객체를 생성한 뒤, 대상 단말(420)에 제공할 수 있다.In response to the target terminal 420 receiving the image object ID and the editing information 430, the editable image object providing server edits corresponding to the image object ID from the image object database 421 included in the target terminal 420. After extracting the type image object (exactly the editable image object image) and applying the editing information to the extracted editable image object (exactly the editable image object image), after generating the reproduction image object, the target terminal ( 420.
여기서, 편집형 영상 객체에 편집 정보를 적용한다는 것은, 편집 정보인 엘리멘트 아이디에 대응하는 엘리멘트가 나타내는 표정, 동작, 상태 또는 환경 중 적어도 하나를 정지 이미지인 편집형 영상 객체 이미지에 적용함으로써, 정지 이미지가 움직이는 컨텐츠 데이터를 재생형 영상 객체로 생성하는 것을 의미한다.Here, the application of the editing information to the editable video object may be performed by applying at least one of a facial expression, an action, a state, or an environment indicated by an element corresponding to an element ID, which is the edit information, to the editable video object image. This means that the moving content data is generated as a playable image object.
예를 들어, 앞서 예시에서 설명한 바와 같이, 제1 영상 객체 아이디 '001'과 제1-1 엘리멘트 아이디 '001'이 결합된 '001001'의 아이디 데이터(430)가 대상 단말(420)로 전달됨에 응답하여, 편집형 영상 객체 제공 서버는 영상 객체 데이터베이스(421)로부터 제1 영상 객체 아이디 '001'에 대응하는 '사람'의 정지 이미지를 나타내는 제1 편집형 영상 객체 이미지를 추출하고, 제1-1 엘리멘트 아이디 '001'에 대응하는 '웃음'의 표정을 나타내는 제1-1 엘리멘트를 선택한 뒤, 제1 편집형 영상 객체 이미지인 '사람'에 제1-1 엘리멘트인 '웃음'의 표정을 적용함으로써, '사람이 웃고 있는 컨텐츠'인 재생형 영상 객체를 생성하여 대상 단말(420)로 제공할 수 있다.For example, as described in the above example, the ID data 430 of '001001' in which the first image object ID '001' and the 1-1 element ID '001' are combined is transmitted to the target terminal 420. In response, the editable video object providing server extracts a first editable video object image representing a still image of a 'person' corresponding to the first video object ID '001' from the video object database 421, and first-first-first. 1 After selecting the 1-1 element representing the expression of 'laugh' corresponding to the element ID '001', the expression of the 1-1 element 'laugh' is applied to the 'person' which is the first editable video object image. As a result, the reproduction type video object that is the content of which the person is smiling may be generated and provided to the target terminal 420.
도 5는 일 실시예에 따른 편집형 영상 객체를 편집하는 과정을 설명하기 위한 도면이다.5 is a diagram for describing a process of editing an editable image object, according to an exemplary embodiment.
도 5를 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말이 제공하는 사용자 인터페이스(510) 상에서 발생되는 사용자 수동 편집 입력(511)에 응답하여, 복수의 편집형 영상 객체들(521, 522, 523, 524, 525) 중 어느 하나의 편집형 영상 객체를 선택하고 편집할 수 있다.Referring to FIG. 5, in response to a user manual edit input 511 generated on a user interface 510 provided by a user terminal, the editable video object providing server according to an embodiment may include a plurality of editable video objects ( One of 521, 522, 523, 524, and 525 may be selected and edited.
예를 들어, 사용자 인터페이스(510) 상에 디스플레이된 '수동 생성' 버튼(511)에서 사용자 입력이 발생되면, 편집형 영상 객체 제공 서버는 수동 편집 사용자 인터페이스(520)를 사용자 단말에 로드할 수 있다. 여기서, 수동 편집 사용자 인터페이스(520)에는 복수의 편집형 영상 객체들(521, 522, 523, 524, 525)이 디스플레이됨으로써, 사용자가 직접 선택 입력하여 어느 하나의 편집형 영상 객체를 선택하여 편집하도록 지원할 수 있다.For example, when a user input is generated from the 'manual generation' button 511 displayed on the user interface 510, the editable video object providing server may load the manual editing user interface 520 on the user terminal. . Here, a plurality of editable video objects 521, 522, 523, 524, and 525 are displayed on the manual editing user interface 520, so that the user can directly select and edit any editable video object. Can support
더 구체적인 예를 들면, 수동 편집 사용자 인터페이스(520)에 디스플레이된 '사람'의 정지 이미지를 나타내는 제1 편집형 영상 객체 이미지(521) 및 '곰'의 정지 이미지를 나타내는 제2 편집형 영상 객체 이미지(525) 중 사용자 선택 입력에 의해 제1 편집형 영상 객체 이미지(521)가 선택되고, 제1 편집형 영상 객체 이미지(521)와 연관된 '웃음'의 표정을 나타내는 제1-1 엘리멘트(522), '화남'의 표정을 나타내는 제1-2 엘리멘트(523) 및 '울음'의 표정을 나타내는 제1-3 엘리멘트(524) 중 사용자 선택 입력에 의해 제 1-1 엘리멘트(522)가 선택되면, 편집형 영상 객체 제공 서버는 선택된 제 1-1 엘리멘트(522)에 기초하여 제1 편집형 영상 객체 이미지(521)를 변경하여 '사람이 웃고 있는 컨텐츠'인 재생형 영상 객체(도면에는 도시되지 않음)를 생성한 뒤, 사용자 단말에 제공할 수 있다.More specifically, for example, the first editable image object image 521 representing a still image of 'person' and the second editable image object image representing a still image of 'bear' displayed in the manual editing user interface 520. The first editable video object image 521 is selected by a user selection input of 525, and the first-first element 522 indicating an expression of 'laugh' associated with the first editable video object image 521. When the first-first element 522 is selected by a user selection input from the first-second element 523 representing the expression of anger and the third element 524 representing the expression of crying, The editable video object providing server changes the first editable video object image 521 based on the selected first-first element 522 to display a playable video object that is 'content smiling by a person' (not shown in the drawing). ) To be provided to the user terminal. There.
이 때, 편집형 영상 객체 제공 서버는 편집형 영상 객체(521, 522)가 편집되어 생성된 재생형 영상 객체를 사용자 단말의 사용자 인터페이스 상에서 재생함으로써, 사용자 단말의 사용자가 편집 결과를 직접적으로 확인하도록 할 수 있다At this time, the editable video object providing server reproduces the reproduced video object generated by editing the editable video objects 521 and 522 on the user interface of the user terminal, so that the user of the user terminal can directly check the editing result. can do
도 6은 다른 일 실시예에 따른 편집형 영상 객체를 편집하는 과정을 설명하기 위한 도면이다.6 is a diagram for describing a process of editing an editable image object, according to another exemplary embodiment.
도 6을 참조하면, 다른 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말이 제공하는 사용자 인터페이스(610) 상에서 발생되는 영상 객체 자동 생성 입력(611)에 응답하여, 사용자 단말을 사용하는 사용자의 위치 정보, 환경 정보, 신체 센싱 정보, 스케줄 정보 또는 영상 객체 사용 히스토리 정보 중 적어도 하나의 정보를 획득함으로써, 획득된 적어도 하나의 정보에 기초하여 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고 편집할 수 있다.Referring to FIG. 6, the editable video object providing server according to another exemplary embodiment responds to the video object automatic generation input 611 generated on the user interface 610 provided by the user terminal, and uses the user terminal. Editing of any one of a plurality of editable image objects based on the at least one information obtained by obtaining at least one of position information, environmental information, body sensing information, schedule information or image object usage history information of the You can select and edit video objects.
예를 들어, 사용자 인터페이스(610) 상에 디스플레이된 '자동 생성' 버튼(611)에서 사용자 입력이 발생되면, 편집형 영상 객체 제공 서버는 자동 생성 사용자 인터페이스(620)를 사용자 단말에 로드할 수 있다. 여기서, 자동 생성 사용자 인터페이스(620)에는 사용자의 위치 정보 및 신체 센싱 정보(621)와 함께, 사용자의 위치 정보 및 신세 센싱 정보(621)를 기초로 어느 하나의 편집형 영상 객체가 편집되어 생성된 재생형 영상 객체(622)가 디스플레이될 수 있다.For example, when a user input is generated from the 'auto generation' button 611 displayed on the user interface 610, the editable image object providing server may load the auto generation user interface 620 into the user terminal. . Here, in the auto-generated user interface 620, any editable image object is edited and generated based on the user's location information and the user's location information and the body sensing information 621 along with the user's location information and body sensing information 621. The playback image object 622 may be displayed.
더 구체적인 예를 들면, 사용자의 위치 정보가 '북서울 숲'을 나타내고, 사용자의 신체 센싱 정보인 심박수가 '150'인 경우, 편집형 영상 객체 제공 서버는 사용자가 현재 운동하고 있음을 인식하여 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 '운동'과 관련된 어느 하나의 영상 객체 이미지를 선택하고, 사용자의 현재 위치가 '북서울 숲'임을 인식하여 '숲'의 환경을 나타내는 어느 하나의 엘리멘트를 선택한 뒤, 선택된 운동'과 관련된 어느 하나의 영상 객체 이미지에 '숲'의 환경을 나타내는 어느 하나의 엘리멘트를 적용함으로써, '사람이 숲에서 운동하고 있는 컨텐츠'인 재생형 영상 객체(622)를 자동으로 생성하여 사용자 단말의 사용자 인터페이스(620)에 디스플레이할 수 있다.More specifically, when the location information of the user indicates 'North Seoul forest' and the heart rate, which is the user's body sensing information, is '150', the editable video object providing server recognizes that the user is currently exercising and the user After selecting one image object image related to 'movement' from the image object database included in the terminal and recognizing that the current location of the user is 'North Seoul forest', the user selects one element representing the environment of 'forest' , By automatically applying one of the elements representing the environment of the 'forest' to any one of the image object image associated with the 'selected movement', automatically generating a reproducible image object 622, which is 'content that the person is exercising in the forest' The display may be displayed on the user interface 620 of the user terminal.
도 7은 일 실시예에 따른 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공하는 과정을 설명하기 위한 도면이다.FIG. 7 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to an exemplary embodiment.
도 7을 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말(710)이 제공하는 사용자 인터페이스(711) 상에서 발생되는 사용자 입력에 응답하여, 어느 하나의 편집형 영상 객체를 편집함으로써, 재생형 영상 객체(712)를 생성하고 사용자 인터페이스(711) 상에 디스플레이한 뒤, 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디 및 편집 정보를 대상 단말(720)로 전달할 수 있다.Referring to FIG. 7, in response to a user input generated on a user interface 711 provided by the user terminal 710, the editable video object providing server according to an embodiment may edit an edited video object. After generating and displaying the playable video object 712 on the user interface 711, the video object ID and the edit information corresponding to one of the edited video objects may be transmitted to the target terminal 720.
이에, 편집형 영상 객체 제공 서버는 대상 단말(720)에 포함되는 영상 객체 데이터베이스로부터 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출함으로써, 추출된 편집형 영상 객체에 편집 정보를 적용하여 재생형 영상 객체(722)를 생성한 뒤, 대상 단말(720)이 제공하는 사용자 인터페이스(721) 상에 재생형 영상 객체(722)를 디스플레이할 수 있다.Accordingly, the editable video object providing server extracts an editable video object corresponding to the video object ID from the video object database included in the target terminal 720, and applies the edit information to the extracted edited video object to reproduce the playable video. After generating the object 722, the playback type video object 722 may be displayed on the user interface 721 provided by the target terminal 720.
여기서, 사용자 단말(710)에 디스플레이되는 재생형 영상 객체(712)는 사용자 단말(710)에 포함되는 영상 객체 데이터베이스에 기반하여 생성되고, 대상 단말(720)에 디스플레이되는 재생형 영상 객체(722)는 대상 단말(720)에 포함되는 영상 객체 데이터베이스에 기반하여 생성된다. 따라서, 사용자 단말(710)에 포함되는 영상 객체 데이터베이스와 대상 단말(720)에 포함되는 영상 객체 데이터베이스는 동일하게 구축되기 때문에, 사용자 단말(710)에 디스플레이되는 재생형 영상 객체(712)와 대상 단말(720)에 디스플레이되는 재생형 영상 객체(722)는 동일한 컨텐츠일 수 밖에 없다.Here, the reproduced video object 712 displayed on the user terminal 710 is generated based on the image object database included in the user terminal 710 and is displayed on the target terminal 720. Is generated based on the image object database included in the target terminal 720. Therefore, since the image object database included in the user terminal 710 and the image object database included in the target terminal 720 are identically constructed, the reproduced image object 712 and the target terminal displayed on the user terminal 710 are the same. The reproducible video object 722 displayed at 720 may be identical content.
이 때, 편집형 영상 객체 제공 서버는 재생형 영상 객체(712)를 사용자 단말(710)의 사용자 인터페이스(711) 상에 디스플레이함에 있어, 사용자 단말(710)이 지원하는 재생 방식에 기초하여 재생형 영상 객체(712)를 재생할 수 있고, 재생형 영상 객체(722)를 대상 단말(720)의 사용자 인터페이스(721) 상에 디스플레이함에 있어, 대상 단말(720)이 지원하는 재생 방식에 기초하여 재생형 영상 객체(722)를 재생할 수 있다.In this case, the editing type video object providing server displays the playback type video object 712 on the user interface 711 of the user terminal 710 based on the playback method supported by the user terminal 710. The video object 712 can be played back, and the playback type video object 722 is displayed on the user interface 721 of the target terminal 720 based on the playback method supported by the target terminal 720. The video object 722 may be played.
예를 들어, 도면과 같이, 사용자 단말(710) 및 대상 단말(720) 모두 스마트폰으로서, 재생형 영상 객체(712, 722)를 그래픽 방식 및 사운드 방식으로 재생할 수 있는 경우, 편집형 영상 객체 제공 서버는 사용자 단말(710)에 그래픽 방식 및 사운드 방식 모두를 이용하여 재생형 영상 객체(712)를 제공하고, 대상 단말(720)에 그래픽 방식 및 사운드 방식 모두를 이용하여 재생형 영상 객체(722)를 제공할 수 있다.For example, as shown in the drawing, when both the user terminal 710 and the target terminal 720 are smartphones and the playback type video objects 712 and 722 can be reproduced in a graphic manner and a sound type, the editable image object is provided. The server provides the reproduced video object 712 to the user terminal 710 using both the graphic method and the sound method, and the reproduced video object 722 using both the graphic method and the sound method to the target terminal 720. Can be provided.
다른 예를 들면, 사용자 단말(710) 및 대상 단말(720) 모두 스마트폰으로서, 사용자 단말(710)은 재생형 영상 객체(712)를 그래픽 방식 및 사운드 방식으로 재생할 수 있으나, 대상 단말(720)은 재생형 영상 객체(722)를 그래픽 방식으로만 재생할 수 있는 경우, 편집형 영상 객체 제공 서버는 사용자 단말(710)에 그래픽 방식 및 사운드 방식 모두를 이용하여 재생형 영상 객체(712)를 제공하고, 대상 단말(720)에 그래픽 방식만을 이용하여 재생형 영상 객체(722)를 제공할 수 있다.For another example, both the user terminal 710 and the target terminal 720 are smartphones, and the user terminal 710 may reproduce the playable image object 712 in a graphic manner and a sound manner, but the target terminal 720 If the playable video object 722 can be reproduced only in a graphical manner, the editable video object providing server provides the reproduced video object 712 to the user terminal 710 using both a graphical method and a sound method. In addition, the reproduction type video object 722 may be provided to the target terminal 720 using only a graphic method.
또한, 편집형 영상 객체 제공 서버는 대상 단말(720)이 인형, 팔찌, 시계 펜던트 등의 기기일 경우에도, 대상 단말(720)이 지원하는 재생 방식에 기초하여 재생형 영상 객체(722)를 제공할 수 있다. 이에 대한 상세한 설명은 아래에서 기재하기로 한다.In addition, even when the target terminal 720 is a device such as a doll, a bracelet, a watch pendant, or the like, the editable video object providing server provides the playable video object 722 based on the playback method supported by the target terminal 720. can do. Detailed description thereof will be described below.
도 8은 다른 일 실시예에 따른 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공하는 과정을 설명하기 위한 도면이다.8 is a diagram for describing a process of applying editing information to an editable video object and providing the same to the target terminal according to another exemplary embodiment.
도 8을 참조하면, 다른 일 실시예에 따른 편집형 영상 객체 제공 서버는 사용자 단말(810)이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 어느 하나의 편집형 영상 객체를 편집함으로써, 재생형 영상 객체(811)를 생성하고 사용자 인터페이스 상에 디스플레이한 뒤, 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디 및 편집 정보를 대상 단말(820)로 전달할 수 있다.Referring to FIG. 8, the editable video object providing server according to another exemplary embodiment plays back by editing any one editable video object in response to a user input generated on a user interface provided by the user terminal 810. After generating and displaying the type image object 811 on the user interface, the image object ID and the edit information corresponding to one of the editable image objects may be transmitted to the target terminal 820.
이에, 편집형 영상 객체 제공 서버는 대상 단말(780)에 포함되는 영상 객체 데이터베이스로부터 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출함으로써, 추출된 편집형 영상 객체에 편집 정보를 적용하여 재생형 영상 객체(821)를 생성한 뒤, 대상 단말(820)이 지원하는 재생 방식에 기초하여 재생형 영상 객체(821)를 제공할 수 있다.Accordingly, the editable video object providing server extracts an editable video object corresponding to the video object ID from the video object database included in the target terminal 780, and applies edit information to the extracted edited video object to reproduce the playable video. After generating the object 821, the playback type video object 821 may be provided based on a playback method supported by the target terminal 820.
이 때, 대상 단말(820)은 도면에 도시된 바와 같이 인형이기 때문에, 대상 단말(820)은 인형의 표정 인터페이스를 통한 재생 방식, 신체 움직임의 동작 인터페이스를 통한 재생 방식, 신체 진동의 재생 방식, 사운드 방식 등을 지원할 수 있다.At this time, since the target terminal 820 is a doll as shown in the drawing, the target terminal 820 is a play method through the facial expression interface of the doll, a play method through the operation interface of the body movement, a play method of the body vibration, Sound system can be supported.
따라서, 편집형 영상 객체 제공 서버는 도면과 같이 인형의 표정 인터페이스를 통하여 재생형 영상 객체(821)를 제공할 수 있다.Accordingly, the editable video object providing server may provide the playable video object 821 through the doll's facial expression interface as shown in the figure.
이상, 대상 단말(820)이 인형인 것으로 설명하였으나, 이에 제한되거나 한정되지 않고, 재생형 영상 객체(821)를 재생할 수 있는 다양한 기기, 예컨대, 팔찌, 시계, 펜던트 등일 수 있다. 여기서, 재생형 영상 객체(821)를 재생할 수 있다는 것은, 재생형 영상 객체(821)의 일부 정보(예컨대, 진동, 사운드, 그래픽 등 중 어느 하나의 일부 정보)만을 재생할 수 있다는 것을 포함한다.As described above, the target terminal 820 is a doll, but is not limited thereto, and may be various devices capable of playing the reproducible video object 821, for example, a bracelet, a clock, a pendant, and the like. Here, the reproductionable video object 821 may include reproducing only some information (eg, some information of any one of vibration, sound, graphics, etc.) of the reproductionable video object 821.
도 9는 일 실시예에 따른 스키마 기반의 편집형 영상 객체 제공 방법을 나타낸 플로우 차트이다.9 is a flowchart illustrating a method of providing a schema-based editable video object, according to an exemplary embodiment.
도 9를 참조하면, 일 실시예에 따른 편집형 영상 객체 제공 방법은, 도 1 내지 2를 참조하여 상술한 편집형 영상 객체 제공 시스템(특히, 편집형 영상 객체 제공 시스템에 포함되는 편집형 영상 객체 제공 서버)에 의해 수행된다.Referring to FIG. 9, the method for providing an editable video object according to an embodiment may include the editable video object providing system described above with reference to FIGS. 1 to 2 (in particular, the editable video object included in the editable video object providing system). Providing server).
편집형 영상 객체 제공 시스템은, 사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지한다(910).The editable video object providing system constructs and maintains a video object database in which a plurality of editable video objects are respectively matched and stored with a plurality of video object IDs in a memory included in each of the user terminal and the target terminal (910). ).
여기서, 복수의 편집형 영상 객체들 및 복수의 영상 객체 아이디들은, XML 형태의 스키마로 설계될 수 있다. 따라서, 영상 객체 데이터베이스는 XML 형태의 스키마를 지원하는 데이터베이스일 수 있다.Here, the plurality of editable image objects and the plurality of image object IDs may be designed in a schema of XML. Therefore, the image object database may be a database supporting a schema of XML format.
이 때, 복수의 편집형 영상 객체들 각각은 편집형 영상 객체 이미지 및 적어도 하나의 엘리멘트를 포함할 수 있다. 편집형 영상 객체 이미지는 편집형 영상 객체의 기반이 되는 정지 이미지를 의미하고, 적어도 하나의 엘리멘트는 편집형 영상 객체(정확하게는, 편집형 영상 객체 이미지)의 표정, 동작, 상태 또는 환경 중 적어도 하나를 나타낸다. 이에, 복수의 편집형 영상 객체 이미지들 및 복수의 엘리멘트들 역시 XML 형태의 스키마로 설계될 수 있다.In this case, each of the plurality of editable image objects may include an editable image object image and at least one element. The editable video object image refers to a still image on which the editable video object is based, and at least one element represents at least one of an expression, an action, a state, or an environment of the editable video object (exactly, the editable video object image). Indicates. Accordingly, the plurality of editable image object images and the plurality of elements may also be designed in a schema of XML.
또한, 영상 객체 데이터베이스는 복수의 엘리멘트 아이디들이 포함될 수 있다. 여기서, 복수의 엘리멘트 아이디들은 복수의 엘리멘트들과 각각 매칭되어 저장되는 식별자 역할을 할 수 있다. 마찬가지로, 복수의 엘리멘트 아이디들 역시 XML 형태의 스키마로 설계될 수 있다.In addition, the image object database may include a plurality of element IDs. Here, the plurality of element IDs may serve as identifiers that are respectively matched and stored with the plurality of elements. Similarly, the plurality of element IDs may also be designed in a schema of XML.
따라서, 910 단계에서, 편집형 영상 객체 제공 시스템은, 복수의 편집형 영상 객체 이미지들을 복수의 영상 객체 아이디들과 각각 매칭하여 영상 객체 데이터베이스에 저장 및 유지할 수 있고, 복수의 편집형 영상 객체 이미지들과 연관된 적어도 하나의 엘리멘트를 적어도 하나의 엘리멘트 아이디와 각각 매칭하여 영상 객체 데이터베이스에 저장 및 유지할 수 있다.Accordingly, in operation 910, the editable video object providing system may match and store the plurality of editable video object images with the plurality of video object IDs, respectively, in the video object database, and the plurality of editable video object images. At least one element associated with the at least one element ID may be matched with each of at least one element ID, and stored and maintained in the image object database.
이어서, 편집형 영상 객체 제공 시스템은, 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집한다(920).Subsequently, the editable video object providing system, in response to a user input generated on a user interface provided by the user terminal, edited image of any one of a plurality of editable video objects stored in a video object database included in the user terminal. The object is edited (920).
구체적으로, 920 단계에서, 편집형 영상 객체 제공 시스템은, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고(복수의 편집형 영상 객체 이미지들 중 어느 하나의 편집형 영상 객체 이미지를 선택), 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택한 뒤(어느 하나의 편집형 영상 객체 이미지에 연관된 어느 하나의 엘리멘트를 선택), 선택된 엘리멘트에 기초하여 어느 하나의 편집형 영상 객체를 변경함으로써(어느 하나의 편집형 영상 객체 이미지에 선택된 엘리멘트를 적용), 재생형 영상 객체를 생성할 수 있다.In detail, in operation 920, the editable video object providing system selects one editable video object from among a plurality of editable video objects from a video object database included in the user terminal (a plurality of editable video object images). Select one of the editable video object images), select one element included in one of the editable video objects (select one of the elements associated with one of the editable video object images), By changing one of the editable video objects based on the selected element (applying the selected element to one of the edited video object images), the playable video object may be generated.
또한, 920 단계에서, 편집형 영상 객체 제공 시스템은, 생성된 재생형 영상 객체를 사용자 단말이 지원하는 재생 방식에 기초하여 사용자 단말에 재생할 수 있다.In operation 920, the editable video object providing system may play back the generated playback video object to the user terminal based on a playback method supported by the user terminal.
이와 같은 편집 과정은, 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 따라 수동 또는 자동으로 수행될 수 있다. 예를 들어, 편집형 영상 객체 제공 시스템은, 사용자 인터페이스 상에서 발생되는 영상 객체 자동 생성 입력에 응답하여, 사용자 단말을 사용하는 사용자의 위치 정보, 환경 정보, 신체 센싱 정보, 스케줄 정보 또는 영상 객체 사용 히스토리 정보 중 적어도 하나의 정보를 획득함으로써, 획득된 적어도 하나의 정보에 기초하여 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고 편집할 수 있다.Such an editing process may be performed manually or automatically according to a user input generated on a user interface provided by the user terminal. For example, the editable image object providing system, in response to an automatic image object generation input generated on a user interface, records location information, environment information, body sensing information, schedule information, or image object usage history of a user using a user terminal. By acquiring at least one piece of information, one of the plurality of editable image objects may be selected and edited based on the obtained at least one information.
다른 예를 들면, 편집형 영상 객체 제공 시스템은, 사용자 인터페이스 상에서 발생되는 사용자 수동 편집 입력에 응답하여, 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 선택하고 편집할 수도 있다.For another example, the editable video object providing system may select and edit any one of a plurality of editable video objects in response to a user manual edit input generated on a user interface.
그 다음, 편집형 영상 객체 제공 시스템은, 어느 하나의 편집형 영상 객체가 편집됨에 따라, 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득한다(930).Next, as the editable video object providing system is edited, the editable video object providing system extracts a video object ID corresponding to any one of the edited video objects from the video object database included in the user terminal. One editable image object obtains edited edit information (930).
이 때, 930 단계에서, 편집형 영상 객체 제공 시스템은, 920 단계에서 선택된 엘리멘트에 대응하는 엘리멘트 아이디를 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 추출함으로써, 추출된 엘리멘트 아이디를 편집 정보로 획득할 수 있다.In this case, in operation 930, the editable image object providing system extracts an element ID corresponding to the element selected in operation 920 from the image object database included in the user terminal, thereby obtaining the extracted element ID as edit information. .
그 다음, 편집형 영상 객체 제공 시스템은, 영상 객체 아이디 및 편집 정보를 대상 단말로 전달한다(940).Next, the editable video object providing system transmits the video object ID and the edit information to the target terminal (940).
여기서, 영상 객체 아이디 및 편집 정보 모두 XML 형태의 스키마로 설계되었기 때문에, 편집형 영상 객체 제공 시스템은, 940 단계에서, BiM(MPEG Binary Format) 기법을 기반으로 영상 객체 아이디 및 편집 정보를 대상 단말로 전달할 수 있다.Here, since both the video object ID and the edit information are designed in the XML format schema, the editable video object providing system transmits the video object ID and the edit information to the target terminal in step 940 based on the MPEG Binary Format (BiM) technique. I can deliver it.
또한, 940 단계에서, 편집형 영상 객체 제공 시스템은 대상 단말이 지원하는 재생 방식을 고려하여, 편집 정보 중 일부 정보만을 대상 단말로 전달할 수 있다.In operation 940, the editable video object providing system may deliver only some of the edited information to the target terminal in consideration of a reproduction scheme supported by the target terminal.
그 다음, 편집형 영상 객체 제공 시스템은, 대상 단말에 포함되는 영상 객체 데이터베이스로부터 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출한다(950).Next, the editable video object providing system extracts the editable video object corresponding to the video object ID from the video object database included in the target terminal (950).
그 후, 편집형 영상 객체 제공 시스템은, 추출된 편집형 영상 객체에 편집 정보를 적용하여 대상 단말로 제공한다(960).Thereafter, the editable video object providing system applies edit information to the extracted edited video object and provides the edited video object to the target terminal (960).
구체적으로, 960 단계에서, 편집형 영상 객체 제공 시스템은, 950 단계에서 추출된 편집형 영상 객체(정확하게는, 편집형 영상 객체 이미지)에 편집 정보를 적용하여 재생형 영상 객체를 생성함으로써, 복원된 재생형 영상 객체를 대상 단말로 제공할 수 있다.In detail, in operation 960, the editable image object providing system is restored by applying the editing information to the edited image object (exactly, the editable image object image) extracted in step 950, thereby generating a reproduced image object. The playback type video object may be provided to the target terminal.
또한, 960 단계에서, 편집형 영상 객체 제공 시스템은, 재생형 영상 객체를 대상 단말이 지원하는 재생 방식에 기초하여 대상 단말 단말에 재생할 수 있다.In operation 960, the editable video object providing system may play back the playable video object to the target terminal terminal based on a playback method supported by the target terminal.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs). Can be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

Claims (15)

  1. 스키마 기반의 편집형 영상 객체 제공 방법에 있어서,In the schema-based editing image object providing method,
    사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는 단계; Constructing and maintaining a video object database in which a plurality of editable video objects are matched and stored with a plurality of video object IDs, respectively, on a memory included in each of the user terminal and the target terminal;
    상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계; In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal;
    상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information;
    상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계; Transmitting the image object ID and the edit information to the target terminal;
    상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는 단계; 및 Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And
    상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계Applying the edit information to the extracted editable video object and providing the edited information to the target terminal;
    를 포함하는 편집형 영상 객체 제공 방법.Editing image object providing method comprising a.
  2. 제1항에 있어서,The method of claim 1,
    상기 복수의 편집형 영상 객체들 및 상기 복수의 영상 객체 아이디들은, The plurality of editable image objects and the plurality of image object IDs may include:
    XML 형태의 스키마로 설계되는, 편집형 영상 객체 제공 방법.Editing image object providing method, which is designed in XML format schema.
  3. 제1항에 있어서,The method of claim 1,
    상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계는, The transmitting of the video object ID and the edit information to the target terminal may include:
    BiM(MPEG Binary Format) 기법을 기반으로 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계인, 편집형 영상 객체 제공 방법.And transmitting the image object ID and the edit information to the target terminal based on a MPEG Binary Format (BiM) technique.
  4. 제1항에 있어서,The method of claim 1,
    상기 복수의 편집형 영상 객체들 각각은, Each of the plurality of editable image objects,
    상기 복수의 편집형 영상 객체들 각각의 표정, 동작, 상태 또는 환경 중 적어도 하나를 나타내는 적어도 하나의 엘리멘트를 포함하고, At least one element representing at least one of an expression, an action, a state, or an environment of each of the plurality of editable image objects,
    상기 영상 객체 데이터베이스를 구축 및 유지하는 단계는, Building and maintaining the image object database,
    상기 적어도 하나의 엘리멘트를 적어도 하나의 엘리멘트 아이디와 각각 매칭하여 상기 영상 객체 데이터베이스에 저장 및 유지하는 단계Matching each of the at least one element with at least one element ID and storing and maintaining the at least one element in the image object database.
    를 포함하는 편집형 영상 객체 제공 방법.Editing image object providing method comprising a.
  5. 제4항에 있어서,The method of claim 4, wherein
    상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는, Editing an edited video object of any one of the plurality of editable video objects stored in the video object database included in the user terminal,
    상기 어느 하나의 편집형 영상 객체에 포함되는 어느 하나의 엘리멘트를 선택하는 단계; 및 Selecting one element included in one of the editable video objects; And
    상기 선택된 엘리멘트에 기초하여 상기 어느 하나의 편집형 영상 객체를 변경하는 단계Changing any one of the editable image objects based on the selected element
    를 포함하고, Including,
    상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계는, Acquiring the edited information edited by any one of the editable video objects,
    상기 영상 객체 데이터베이스로부터 상기 선택된 엘리멘트에 대응하는 엘리멘트 아이디를 추출하는 단계; 및 Extracting an element ID corresponding to the selected element from the image object database; And
    상기 추출된 엘리멘트 아이디를 상기 편집 정보로 획득하는 단계Acquiring the extracted element ID as the edit information;
    를 포함하는 편집형 영상 객체 제공 방법.Editing image object providing method comprising a.
  6. 제5항에 있어서,The method of claim 5,
    상기 선택된 엘리멘트에 기초하여 상기 어느 하나의 편집형 영상 객체를 변경하는 단계는, Changing the one edited video object based on the selected element,
    상기 어느 하나의 편집형 영상 객체를 변경하여 재생형 영상 객체를 생성하는 단계; 및 Generating a playable video object by changing one of the editable video objects; And
    상기 사용자 단말이 지원하는 재생 방식에 기초하여 상기 사용자 단말에 상기 재생형 영상 객체를 재생하는 단계Playing the playback type video object on the user terminal based on a playback method supported by the user terminal;
    를 더 포함하는 편집형 영상 객체 제공 방법.Editing image object providing method further comprising.
  7. 제1항에 있어서,The method of claim 1,
    상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는, Editing an edited video object of any one of the plurality of editable video objects stored in the video object database included in the user terminal,
    상기 사용자 인터페이스 상에서 발생되는 영상 객체 자동 생성 입력에 응답하여, 상기 사용자 단말을 사용하는 사용자의 위치 정보, 환경 정보, 신체 센싱 정보, 스케줄 정보 또는 영상 객체 사용 히스토리 정보 중 적어도 하나의 정보를 획득하는 단계; 및 Acquiring at least one of position information, environment information, body sensing information, schedule information, or image object usage history information of a user who uses the user terminal in response to an image object automatic generation input generated on the user interface; ; And
    상기 획득된 적어도 하나의 정보에 기초하여 상기 복수의 편집형 영상 객체들 중 상기 어느 하나의 편집형 영상 객체를 선택하고 편집하는 단계Selecting and editing any one of the plurality of editable image objects based on the obtained at least one information.
    를 포함하는 편집형 영상 객체 제공 방법.Editing image object providing method comprising a.
  8. 제1항에 있어서,The method of claim 1,
    상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계는, Editing an edited video object of any one of the plurality of editable video objects stored in the video object database included in the user terminal,
    상기 사용자 인터페이스 상에서 발생되는 사용자 수동 편집 입력에 응답하여, 상기 복수의 편집형 영상 객체들 중 상기 어느 하나의 편집형 영상 객체를 선택하고 편집하는 단계In response to a user manual edit input generated on the user interface, selecting and editing one of the editable video objects from among the plurality of editable video objects
    를 포함하는 편집형 영상 객체 제공 방법.Editing image object providing method comprising a.
  9. 제1항에 있어서,The method of claim 1,
    상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계는, The applying of the editing information to the extracted editable video object and providing the edited information to the target terminal may include:
    상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 재생형 영상 객체를 생성하는 단계; 및 Generating a playable video object by applying the edit information to the extracted editable video object; And
    상기 재생형 영상 객체를 상기 대상 단말로 제공하는 단계Providing the playback type video object to the target terminal
    를 포함하는 편집형 영상 객체 제공 방법.Editing image object providing method comprising a.
  10. 제9항에 있어서,The method of claim 9,
    상기 재생형 영상 객체를 상기 대상 단말로 제공하는 단계는, Providing the playback type video object to the target terminal,
    상기 대상 단말이 지원하는 재생 방식에 기초하여 상기 대상 단말에 상기 재생형 영상 객체를 재생하는 단계Playing the playback type video object on the target terminal based on a playback scheme supported by the target terminal;
    를 포함하는 편집형 영상 객체 제공 방법.Editing image object providing method comprising a.
  11. 스키마 기반의 편집형 영상 객체 제공 방법을 실행시키기 위해 컴퓨터로 읽을 수 있는 매체에 저장된 컴퓨터 프로그램에 있어서, A computer program stored in a computer readable medium for executing a schema-based editing image providing method,
    상기 편집형 영상 객체 제공 방법은, The editable video object providing method,
    사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는 단계; Constructing and maintaining a video object database in which a plurality of editable video objects are matched and stored with a plurality of video object IDs, respectively, on a memory included in each of the user terminal and the target terminal;
    상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는 단계; In response to a user input generated on a user interface provided by the user terminal, editing any one of the plurality of editable image objects stored in the image object database included in the user terminal;
    상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는 단계; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is Obtaining edited edit information;
    상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는 단계; Transmitting the image object ID and the edit information to the target terminal;
    상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는 단계; 및 Extracting an editable image object corresponding to the image object ID from the image object database included in the target terminal; And
    상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는 단계Applying the edit information to the extracted editable video object and providing the edited information to the target terminal;
    를 포함하는 컴퓨터 프로그램.Computer program comprising a.
  12. 스키마 기반의 편집형 영상 객체 제공 서버에 있어서, In the schema-based editable video object providing server,
    사용자 단말 및 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는, 영상 객체 데이터베이스 구축/유지부; An image object database construction / maintenance unit for constructing and maintaining an image object database in which a plurality of editable image objects are respectively matched and stored with a plurality of image object IDs, on a memory included in each of the user terminal and the target terminal;
    상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는, 영상 객체 편집부; In response to a user input generated on a user interface provided by the user terminal, an image object of any one of the plurality of editable image objects stored in the image object database included in the user terminal; editorial department;
    상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는, 아이디 추출/편집 정보 획득부; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is An ID extracting / editing information obtaining unit for obtaining the edited editing information;
    상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는, 전달부; A transmission unit for transmitting the image object ID and the edit information to the target terminal;
    상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는, 영상 객체 추출부; 및 A video object extracting unit for extracting an editable video object corresponding to the video object ID from the video object database included in the target terminal; And
    상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는, 영상 객체 제공부The image object providing unit applying the editing information to the extracted editable image object and providing the same to the target terminal.
    를 포함하는 편집형 영상 객체 제공 서버.Editable video object providing server comprising a.
  13. 제12항에 있어서,The method of claim 12,
    상기 복수의 편집형 영상 객체들 및 상기 복수의 영상 객체 아이디들은, The plurality of editable image objects and the plurality of image object IDs may include:
    XML 형태의 스키마로 설계되는, 편집형 영상 객체 제공 서버.Editing video object providing server, designed in XML format schema.
  14. 제12항에 있어서,The method of claim 12,
    상기 전달부는, The delivery unit,
    BiM(MPEG Binary Format) 기법을 기반으로 상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는, 편집형 영상 객체 제공 서버.The video object providing server for transmitting the video object ID and the editing information to the target terminal based on a BiM (MPEG Binary Format) technique.
  15. 스키마 기반의 편집형 영상 객체 제공 시스템에 있어서, In the schema-based editing image object providing system,
    사용자 단말; User terminal;
    대상 단말; 및 Target terminal; And
    편집형 영상 객체 제공 서버Editable video object server
    를 포함하고, Including,
    상기 편집형 영상 객체 제공 서버는, The editable video object providing server,
    상기 사용자 단말 및 상기 대상 단말 각각에 포함되는 메모리 상에, 복수의 편집형 영상 객체들이 복수의 영상 객체 아이디들과 각각 매칭되어 저장되는 영상 객체 데이터베이스를 구축 및 유지하는, 영상 객체 데이터베이스 구축/유지부; An image object database construction / maintenance unit for constructing and maintaining an image object database in which a plurality of editable image objects are matched with and stored in a plurality of image object IDs, respectively, on a memory included in each of the user terminal and the target terminal. ;
    상기 사용자 단말이 제공하는 사용자 인터페이스 상에서 발생되는 사용자 입력에 응답하여, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스에 저장된 상기 복수의 편집형 영상 객체들 중 어느 하나의 편집형 영상 객체를 편집하는, 영상 객체 편집부; In response to a user input generated on a user interface provided by the user terminal, an image object of any one of the plurality of editable image objects stored in the image object database included in the user terminal; editorial department;
    상기 어느 하나의 편집형 영상 객체가 편집됨에 따라, 상기 사용자 단말에 포함되는 영상 객체 데이터베이스로부터 상기 어느 하나의 편집형 영상 객체에 대응하는 영상 객체 아이디를 추출하고, 상기 어느 하나의 편집형 영상 객체가 편집된 편집 정보를 획득하는, 아이디 추출/편집 정보 획득부; As the edited video object is edited, the video object ID corresponding to the edited video object is extracted from the video object database included in the user terminal, and the edited video object is An ID extracting / editing information obtaining unit for obtaining the edited editing information;
    상기 영상 객체 아이디 및 상기 편집 정보를 상기 대상 단말로 전달하는, 전달부; A transmission unit for transmitting the image object ID and the edit information to the target terminal;
    상기 대상 단말에 포함되는 영상 객체 데이터베이스로부터 상기 영상 객체 아이디에 대응하는 편집형 영상 객체를 추출하는, 영상 객체 추출부; 및 A video object extracting unit for extracting an editable video object corresponding to the video object ID from the video object database included in the target terminal; And
    상기 추출된 편집형 영상 객체에 상기 편집 정보를 적용하여 상기 대상 단말로 제공하는, 영상 객체 제공부The image object providing unit applying the editing information to the extracted editable image object and providing the same to the target terminal.
    를 포함하는 편집형 영상 객체 제공 시스템.Editable image object providing system comprising a.
PCT/KR2017/004403 2016-04-26 2017-04-26 Schema-based editable visual object providing method and system WO2017188711A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0051040 2016-04-26
KR20160051040 2016-04-26

Publications (1)

Publication Number Publication Date
WO2017188711A1 true WO2017188711A1 (en) 2017-11-02

Family

ID=60160951

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/004403 WO2017188711A1 (en) 2016-04-26 2017-04-26 Schema-based editable visual object providing method and system

Country Status (2)

Country Link
KR (1) KR20170122142A (en)
WO (1) WO2017188711A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050156873A1 (en) * 2004-01-20 2005-07-21 Microsoft Corporation Custom emoticons
KR20070001400A (en) * 2005-06-29 2007-01-04 에스케이 텔레콤주식회사 Method and system for providing mobile instant massanger including avatar for use in mobile instant massanger service
KR20150026726A (en) * 2013-09-03 2015-03-11 한국전자통신연구원 Communication apparatus and method using editable visual object
KR20150026727A (en) * 2013-09-03 2015-03-11 한국전자통신연구원 Apparatus and method for generating editable visual object
KR20150124415A (en) * 2014-04-28 2015-11-05 김기태 Method and apparatus for providing message service using visual object

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050156873A1 (en) * 2004-01-20 2005-07-21 Microsoft Corporation Custom emoticons
KR20070001400A (en) * 2005-06-29 2007-01-04 에스케이 텔레콤주식회사 Method and system for providing mobile instant massanger including avatar for use in mobile instant massanger service
KR20150026726A (en) * 2013-09-03 2015-03-11 한국전자통신연구원 Communication apparatus and method using editable visual object
KR20150026727A (en) * 2013-09-03 2015-03-11 한국전자통신연구원 Apparatus and method for generating editable visual object
KR20150124415A (en) * 2014-04-28 2015-11-05 김기태 Method and apparatus for providing message service using visual object

Also Published As

Publication number Publication date
KR20170122142A (en) 2017-11-03

Similar Documents

Publication Publication Date Title
WO2017142278A1 (en) Apparatus and method for providing dynamic panorama function
WO2015030364A1 (en) Method for sharing media data and electronic device thereof
WO2016093552A2 (en) Terminal device and data processing method thereof
WO2017104987A1 (en) Photographing device and control method thereof
WO2013141562A1 (en) Method and apparatus for processing media file for augmented reality service
WO2018226021A1 (en) Method and apparatus for providing product placement
WO2016111470A1 (en) Master device, slave device, and control method therefor
KR20170029466A (en) Method, system and recording medium for providing content in messenger
WO2018074618A1 (en) Method and system for sharing effect for image
WO2020116960A1 (en) Electronic device for generating video comprising character and method thereof
WO2022124752A1 (en) Electronic device and control method for electronic device
WO2017175905A1 (en) Method and system for providing advertisement through lock screen on basis of message associated application
WO2011065680A2 (en) Managing multimedia contents using general objects
EP3167405A1 (en) Digital image processing apparatus and system and control method thereof
WO2017188711A1 (en) Schema-based editable visual object providing method and system
WO2021086018A1 (en) Method for displaying three-dimensional augmented reality
WO2023224265A1 (en) Photo sharing system that uses signage having reference area
WO2020045909A1 (en) Apparatus and method for user interface framework for multi-selection and operation of non-consecutive segmented information
WO2013065948A1 (en) Apparatus and method for producing a game event effect
WO2019164326A1 (en) Electronic device for sharing real-time content data
WO2020226270A1 (en) Device and method for creating and sending custom emoticon
WO2021230181A1 (en) Information processing method, information processing device, program, and information processing system
WO2018143779A1 (en) Method for displaying video related service, storage medium, and electronic device therefor
WO2018030557A1 (en) Messenger service method, system and recording medium for providing output effect
WO2024039018A1 (en) Method and system for indexing content in instant messaging service

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17789895

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17789895

Country of ref document: EP

Kind code of ref document: A1