WO2017039260A1 - 콘텐츠 편집 장치 및 편집 방법 - Google Patents

콘텐츠 편집 장치 및 편집 방법 Download PDF

Info

Publication number
WO2017039260A1
WO2017039260A1 PCT/KR2016/009586 KR2016009586W WO2017039260A1 WO 2017039260 A1 WO2017039260 A1 WO 2017039260A1 KR 2016009586 W KR2016009586 W KR 2016009586W WO 2017039260 A1 WO2017039260 A1 WO 2017039260A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
input
text
pin position
pin
Prior art date
Application number
PCT/KR2016/009586
Other languages
English (en)
French (fr)
Inventor
전수영
권지용
Original Assignee
스타십벤딩머신 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스타십벤딩머신 주식회사 filed Critical 스타십벤딩머신 주식회사
Priority claimed from KR1020160109793A external-priority patent/KR20170026274A/ko
Publication of WO2017039260A1 publication Critical patent/WO2017039260A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to a content editing apparatus and method.
  • the present invention relates to an apparatus and method for editing image content among contents.
  • Such a terminal has been implemented in the form of a multimedia player having complex functions such as photographing a picture or a video, playing a music or a video file, playing a game, receiving a broadcast, etc. as functions are diversified.
  • the terminal provides the content to the user in the form of playing or executing the content provided through the external content providing server or previously stored on the external display device or its own display.
  • Korean Patent Publication No. 10-2012-0005153 is disclosed.
  • the conventional terminal merely provides the provided or stored content, there is a problem that can not be modified and modified.
  • in processing an image included in the content there has been a conventional, complicated process, there was a problem that is not intuitive.
  • the background art described above is technical information that the inventors possess for the derivation of the present invention or acquired in the derivation process of the present invention, and is not necessarily a publicly known technique disclosed to the general public before the application of the present invention. .
  • One embodiment of the present invention is to provide a content editing apparatus and editing method.
  • the content editing apparatus is an image generator for generating an image based on a user input, a pin position on the image based on the user input
  • a pin position setting unit to set an image movement input sensing unit detecting a movement input for movement of an image corresponding to the set pin position, and an image corresponding to the pin position to move an image generated based on the movement input
  • a method for editing content by a content editing apparatus includes generating an image based on user input, setting a pin position on the image, and moving an image corresponding to the set pin position. Detecting a movement input for the and processing the generated image based on the movement input into a dynamic image in which the image corresponding to the pin position is moved.
  • the invention is a computer readable recording medium having recorded thereon a program for performing a content editing method, the content editing method based on a user input, generating an image, pin to the image Setting a position, detecting a movement input for movement of an image corresponding to a set pin position, and processing an image generated based on the movement input into a dynamic image in which an image corresponding to the pin position is moved; It includes.
  • the present invention is performed by a content editing apparatus, and is a recording medium for performing a content editing method, wherein the content editing method comprises: generating an image based on a user input; Setting a pin position at a second position; detecting a movement input for a movement of an image corresponding to the set pin position; and processing a specified image based on the movement input into a dynamic image in which an image corresponding to the pin position is moved. It includes a step.
  • an embodiment of the present invention can provide a content editing apparatus and a content editing method.
  • any one of the problem solving means of the present invention by adding a layer on the screen on which the content is displayed, and can be processed intuitively and simply by processing the image based on the input performed on the displayed layer.
  • FIG. 1 is a configuration diagram schematically showing the configuration of a content editing system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating a configuration of a content editing apparatus according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a content editing method according to an embodiment of the present invention.
  • 4 to 7 are exemplary views for explaining a content editing method according to an embodiment of the present invention.
  • FIG. 1 shows the best mode for carrying out the invention.
  • FIG. 1 is a configuration diagram schematically showing the configuration of a content editing system 100 according to an embodiment of the present invention.
  • the content editing system 100 includes a user terminal (10).
  • the user terminal 10 may be installed with a program that provides an interface for allowing a user to edit content.
  • the program is implemented in the content editing method according to an embodiment of the present invention
  • the user terminal 10 is installed the program can operate independently according to the content editing method according to an embodiment of the present invention, Implemented as a server 20 and a group of server-client system can operate according to the content editing method according to an embodiment of the present invention.
  • 'content' refers to various types of information digitally produced and distributed / edited, and includes, for example, text, images (including static images and dynamic images), and moving images.
  • the static image may be a fixed form of an image which does not change, such as a photograph
  • the dynamic image may be an image in which at least some of the size or shape of the image is deformed or at least some of the objects in the image change. Can be.
  • the 'content' may include chat content, video content, and SNS content depending on the function provided.
  • 'content' may mean data about an image or text.
  • Such a user terminal 10 may be implemented on an electronic terminal that includes an interface that enables user interaction.
  • the electronic terminal may be implemented as, for example, a computer or a portable terminal, a television, a wearable device, a contactless control device, or the like, which can be connected to a remote server through a network N or connected to other terminals and servers.
  • the computer includes, for example, a laptop, desktop, laptop, etc., which is equipped with a web browser
  • the portable terminal is, for example, a wireless communication device that ensures portability and mobility.
  • the television may include an Internet Protocol Television (IPTV), an Internet Television (Internet Television), a terrestrial TV, a cable TV, or the like.
  • IPTV Internet Protocol Television
  • Internet Television Internet Television
  • the wearable device is, for example, an information processing device of a type that can be worn directly on a human body such as a watch, glasses, accessories, clothes, shoes, etc., and is connected to a remote server or another terminal via a network directly or through another information processing device. It can be connected with.
  • the user terminal 10 may include a wired / wireless communication module, a display, an input device such as a keyboard and a mouse, a touch sensor, and a control device.
  • the user terminal 10 may output the content to the display.
  • the display and the touch sensor form a mutual layer structure or are integrally formed (hereinafter, referred to as 'touch screen')
  • the display may be used as an input device in addition to the output device.
  • the touch sensor has a form of a touch film, a touch sheet, a touch pad, or the like
  • the touch sensor may be stacked on the display to form a layer structure, and may be included in the display.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the display or capacitance occurring at a specific portion of the display into an electrical input signal.
  • the touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.
  • the corresponding signal (s) is sent to the touch controller.
  • the user's touch input can be tap, drag, flick, slide, press, multi touch, or pinch out depending on the user's motion, ie motion. out, and pinch in, and the like.
  • the touch inputs of the user described may further include various other touch inputs in addition to the touch inputs described as illustratively described.
  • the touch controller processes the signal (s) and then transmits the corresponding data to the control device. As a result, the control device can know which area of the display is touched.
  • the user terminal 10 may communicate with the server 20 via the network (N).
  • the network N may include a local area network (LAN), a wide area network (WAN), a value added network (VAN), a personal local area network (PAN), a mobile communication network. It can be implemented in all kinds of wired / wireless networks such as mobile radio communication network (Wibro), wireless broadband Internet (Wibro), mobile WiMAX, high speed downlink packet access (HSDPA), or satellite communication network.
  • LAN local area network
  • WAN wide area network
  • VAN value added network
  • PAN personal local area network
  • a mobile communication network It can be implemented in all kinds of wired / wireless networks such as mobile radio communication network (Wibro), wireless broadband Internet (Wibro), mobile WiMAX, high speed downlink packet access (HSDPA), or satellite communication network.
  • Wibro mobile radio communication network
  • WiMAX wireless broadband Internet
  • HSDPA high speed downlink packet access
  • the server 20 may be a server to share the edited content with other user terminal, for example, the server 20 may provide a web service to the user terminal 10 or each other server. It may be a web server, or may be, for example, a portal site server or a server system of various web content providers such as a chat service providing server.
  • server 20 may implement a server-client system together with the user terminal 10 to support editing of content.
  • the server 20 as described above may be implemented as a group of server systems such as a load balancing server, a database server, including a web server.
  • the content editing apparatus 10 may edit an image of the content.
  • Content can also edit text along with images.
  • the content editing apparatus 10 may move at least a part of the image displayed through the interface. It can also be composited with composite objects such as images or text that are separate from a specific image. In addition, the content editing apparatus 10 may process a specific image into a motion image. You can also edit the text.
  • the motion image according to an embodiment of the present invention may be an image animated by a pin to move at least a part of the fixed image. That is, the motion image is an image processed by the content editing apparatus 10 described below, and is an image having a meaning distinguished from the dynamic image of the content described above.
  • the content editing apparatus 10 may receive a user input for editing content. For example, an input for selecting a specific position of an image, an input for editing text, an input for generating an effect on the image, and a user input for selecting specific text or selecting a specific image may be received. To this end, the content editing apparatus 10 may use an input device such as a keyboard, a mouse, or a touch screen.
  • an input device such as a keyboard, a mouse, or a touch screen.
  • the content editing apparatus 10 may process the image or synthesize the processed image with text or a separate image.
  • the processed image may be displayed or transmitted to a server or a separate terminal.
  • FIG. 2 is a block diagram schematically showing the configuration of a content editing apparatus 10 according to an embodiment of the present invention.
  • Content editing apparatus 10 is an image generating unit 210, pin position setting unit 220, image movement input detection unit 230, image processing unit 240, synthesis unit 250 , A text input unit 260 and a text editing unit 270.
  • image processing unit 240 image processing unit 240
  • synthesis unit 250 A text input unit 260 and a text editing unit 270.
  • FIG. 2 since the components shown in FIG. 2 are not essential, the content editing apparatus 10 having more or fewer components may be implemented.
  • the image generator 210 generates an image based on a user input. For example, at least a part of the image included in the content may be generated based on a user input (for example, editing (cutting, pasting), modifying, transforming, combining, composing, etc.). At least one pre-stored image may be loaded to generate an image to be processed. For example, the image generator 210 may generate a combination of two or more images. In addition, the image generator 210 may generate an image based on a user input input through the input device. In this case, the image generator 210 may generate an image to be processed by using an image directly drawn by a user input.
  • a user input for example, editing (cutting, pasting), modifying, transforming, combining, composing, etc.
  • At least one pre-stored image may be loaded to generate an image to be processed.
  • the image generator 210 may generate a combination of two or more images.
  • the image generator 210 may generate an image based on a user input input through the input device.
  • the pin is an element for moving the image and includes a point, a figure, and an area.
  • the point is a specific point based on the image
  • the figure is a shape having a shape of polygon (triangle, rectangle, pentagon, etc.), circle, rhombus, trapezoid, star, etc.
  • the area has a boundary having a predetermined size or shape It is part of.
  • Such pins may be created or selected by user input and may exist in a predetermined form therein.
  • the pin position setting unit 220 sets a pin position in the image generated by the image generator 210.
  • the pin position setting unit 220 may set the pin position based on a user input, or automatically set the pin position at a preset position inside the pin position setting unit 220.
  • the pin position setting unit 220 may automatically set the pin position at a predetermined position therein and change at least some pin positions by a user input.
  • the pins may be displayed in various forms (eg, pointers, arrows, crosses, handles, etc.) at specific locations on the display for identification and position control by the user.
  • the pin position setting unit 220 may set at least one pin position on the generated image.
  • the pin position setting unit 220 may set the portion where the user's touch input is performed to the displayed image as the pin position. If there are a plurality of pin positions, the plurality of pin positions may be simultaneously set by the pin position setting unit 220 or sequentially.
  • the image generator 210 may additionally display the layer and display the image generated on the layer. Thereafter, the pin position setting unit 220 may set the pin position on the image displayed on the layer.
  • the pin position may be set in a portion corresponding to the background.
  • the image movement input detector 230 detects a movement input for movement of an image corresponding to the pin position.
  • the image of the predetermined range from the point where the pin position is set corresponds to the pin position.
  • the image corresponding to the pin position may be part of the specified image.
  • the image movement input detector 230 may detect a user input performed in a specific direction or in a specific form. For example, a user input such as tap, flicking, slide, press, multi-touch, pinch out, pinch in, etc. performed on the touch screen may be sensed.
  • Drag is an operation of releasing the touch screen after moving it to a specific position while maintaining a touch.
  • the object may be continuously moved and displayed according to the drag direction.
  • the flicking input refers to an input based on an operation of removing a contact after moving a user in a specific direction (up, down, left, right, or diagonal) after touching the touch screen
  • the moving input detecting unit 230 is a flicking input.
  • the slide input refers to an input based on an operation of moving to a specific position while the user keeps a touch on the touch screen.
  • the image movement input detector 230 slides the slide direction. Specific actions can be processed based on speed, etc.
  • the press means an operation of continuously maintaining the touch for a predetermined time after touching the touch screen.
  • the multi-touch refers to an operation of simultaneously touching a plurality of points of the touch screen.
  • pinch-out refers to an operation of dragging a plurality of pointers in multi-touch away from each other. That is, drag means starting from at least one point among a plurality of points that are multi-touched on the touch screen, and a plurality of points that are multi-touched away from each other.
  • pinch-in refers to an operation of dragging a touch screen in a direction in which a plurality of pointers that are multi-touch are closer to each other. That is, drag means starting from at least one point among a plurality of points that are multi-touched on the touch screen and occurring in a direction in which the plurality of points that are multi-touch come closer to each other.
  • the image movement input detector 230 may detect a movement input performed on the layer.
  • the image processing unit 240 processes the image generated by the image generating unit 210 into a motion image based on the movement input input through the image movement input detecting unit 230.
  • the image processor 240 may generate an operation image in which an image corresponding to the pin position moves based on the movement input.
  • the image processor 240 may generate an operation image in which a part of the image moves according to the direction in which the movement input is performed.
  • the image processing unit 240 may generate a motion image in which a part of the image performs a repetitive motion at a predetermined time period.
  • the image processing unit 240 may process the generated image into a motion image in which each image corresponding to each of the plurality of pin locations moves. In this case, the image processing unit 240 may process an image generated based on each movement input separately input for each image corresponding to each of the plurality of pin positions, into an operation image.
  • the image processing unit 240 may be processed into a static image by moving the image corresponding to the pin position, that is, a part of the image is a motion image of a fixed form at one point during the movement input based on the movement input. Therefore, the motion image processed by the image processing unit 240 may include a static image according to the movement of the pin position.
  • the synthesis unit 250 synthesizes the motion image with at least one of a separate image or text based on a user input.
  • the synthesis unit 250 may synthesize the motion image with a separate motion image, or may synthesize the edited text.
  • the combining unit 250 may synthesize various additional functions in the motion image.
  • the synthesizing unit 250 may synthesize various backgrounds with the motion image, or synthesize the motion image and sound (music, voice, effect sound, etc.).
  • the synthesis unit 250 may combine the various effects with the various effects (such as rotation of the motion image) in the motion image.
  • the text input unit 260 inputs text into content based on a user input.
  • the text input unit 260 may input text into content based on a user input input through an input device such as a mouse, a keyboard, and a touch screen. Text may be added to the content based on the input text.
  • the text editing unit 270 edits the text added by the text input unit 260 based on a user input.
  • the text editing unit 270 may change the style of the added text (text, font size, text color or motion).
  • the text editing unit 270 may convert the added text into the style of the previously provided text based on the user input.
  • the text editing unit 270 may match the style of the added text with the style of the provided text based on a user input.
  • the provided text may be provided by the server that provided the content together with the content, or may be provided by a server other than the server that provided the content.
  • the provided text may be text that is pre-stored in the content editing apparatus 10.
  • FIG. 3 is a flowchart illustrating a content editing method according to an embodiment of the present invention
  • Figures 4 to 7 is an exemplary view for explaining a content editing method according to an embodiment of the present invention.
  • FIGS. 4 and 5 are views for explaining a motion image processing method according to an exemplary embodiment of the present invention
  • each image in each of FIGS. 6 and 7 is an interface (for example, a touch screen) of the content editing apparatus 10. It shows how it appears through).
  • the content is described as content for chatting, but any number of other types of content can be applied.
  • the content editing apparatus 10 generates an image to be edited (S301). For example, the content editing apparatus 10 may generate at least a part of an image included in the content based on a user input. In addition, at least one pre-stored image may be loaded to generate an image to be processed. In addition, the content editing apparatus 10 may generate an image based on a user input input through the input apparatus.
  • the content editing apparatus 10 may set a pin position in the generated image (S303).
  • the pin position is set in the generated image based on the user input or the pin position is automatically set at a preset position inside the content editing apparatus 10 without user input.
  • the content editing apparatus 10 may automatically set the pin position at a preset position and then change at least some pin positions by a user input.
  • the content editing apparatus 10 may set at least one pin position on the generated image.
  • the pin position setting according to the user input will be described.
  • the content letter device 10 may set a portion where the user's touch input is performed on the displayed image as the pin position.
  • the content editing apparatus 10 may detect an image movement input in operation S305.
  • the content editing apparatus 10 detects a movement input for movement of an image corresponding to the pin position.
  • the image of the predetermined range from the point where the pin position is set corresponds to the pin position.
  • the content editing apparatus 10 may detect a user input performed in a specific direction or in a specific form. For example, user input such as tap, drag, flicking, slide, press, multi-touch, pinch out, and pinch in performed on the touch screen may be sensed.
  • the content editing apparatus 10 may determine an operation type operation range of the image corresponding to the pin position based on the user input received for movement.
  • the user may set the pin position 410 on a portion of the generated image.
  • a movement input for movement of an image corresponding to the pin position may be performed.
  • FIG. 4 illustrates that the user generates a movement input in the left and right directions.
  • the content editing apparatus 10 may process the image into a motion image based on the detected movement input in operation S307.
  • the content editing apparatus 10 processes the generated image into a motion image based on the input movement input.
  • the content editing apparatus 10 may generate an operation image in which an image corresponding to the pin position moves based on the movement input.
  • the content editing apparatus 10 may generate an operation image in which a part of the image moves according to the direction in which the movement input is performed.
  • the image content editing apparatus 10 may generate a motion image in which a part of the image performs a repetitive motion at a predetermined time period.
  • the content editing apparatus 10 may generate the animated motion image by processing the generated image. For example, as shown in FIG.
  • the image corresponding to the pin position may be moved in the left and right directions.
  • the larger the range of the input operation input for example, the longer the slide input in the case of the slide input, the larger the operating range of the image.
  • the content editing apparatus 10 may change an image that does not correspond to the pin position in accordance with the image corresponding to the moved pin position, so that the image corresponding to the pin position may be naturally displayed as if it is operating.
  • the content editing apparatus 10 may process the generated image into an operation image in which each image corresponding to each of the plurality of pin positions is moved.
  • the content editing apparatus 10 may process an image generated based on each movement input separately input for each image corresponding to each of the plurality of pin positions, into a motion image.
  • the image corresponding to the pin position may move in different directions.
  • FIG. 5 shows that the pin position 401 is set in the image of FIG. 4, the movement input is set, and the image 501 corresponding to the pin position is moved.
  • the image of FIG. 4 may be gradually changed to the image of FIG. 5 in which the arm is moved downward, and the image of FIG. 4 again with time. Can be changed gradually.
  • the content editing apparatus 10 may determine whether an input for image composition is received (S309).
  • the content editing apparatus 10 may synthesize an image with a compositing object (S311).
  • the content editing apparatus 10 synthesizes the motion image with at least one of a separate image or text based on a user input.
  • the content editing apparatus 10 may synthesize the motion image with a separate motion image, or may synthesize the motion image.
  • the composite object (image or text) synthesized with the motion image may be input based on a separate input device.
  • the content editing apparatus 10 may match the added text with the style of the previously provided text based on a user input.
  • the content editing apparatus 10 may match the style of the added text with the style of the previously provided text based on a user input.
  • the provided text may be provided by the server that provided the content together with the content, or may be provided by a server other than the server that provided the content.
  • the provided text may be text that is pre-stored in the content editing apparatus 10.
  • the content editing apparatus 10 animates a specific image and processes it into a motion image.
  • the text input together with the motion image is displayed as synthesized as shown in (c) of FIG. 6.
  • the synthesized image may be displayed as shown in FIG.
  • the content editing apparatus 10 may match the input text with the style of the previously provided text.
  • the edited text may be combined with the motion image as shown in FIG. 6C.
  • the content editing apparatus 10 may combine an image or text with a predetermined image and process the synthesized image into a motion image.
  • text is input by a user as shown in (a) of FIG. 7, a pin position is input while an image is selected, as shown in (b) of FIG. 7, and corresponding to the pin position.
  • the content editing apparatus 10 may display the synthesized text together with the animated motion image as shown in FIG. 7C. Meanwhile, as illustrated in FIG. 7B, pin position setting and movement input may be performed through a layer.
  • the content editing method may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by the computer.
  • Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
  • Computer readable media may include both computer storage media and communication media.
  • Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
  • Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.
  • the content editing method may be implemented as a computer program (or computer program product) including instructions executable by a computer.
  • the computer program includes programmable machine instructions processed by the processor and may be implemented in a high-level programming language, an object-oriented programming language, an assembly language, or a machine language.
  • the computer program may also be recorded on tangible computer readable media (eg, memory, hard disks, magnetic / optical media or solid-state drives, etc.).
  • the content editing method may be implemented by executing the computer program as described above by the computing device.
  • the computing device may include at least a portion of a processor, a memory, a storage device, a high speed interface connected to the memory and a high speed expansion port, and a low speed interface connected to the low speed bus and the storage device.
  • a processor may include at least a portion of a processor, a memory, a storage device, a high speed interface connected to the memory and a high speed expansion port, and a low speed interface connected to the low speed bus and the storage device.
  • Each of these components are connected to each other using a variety of buses and may be mounted on a common motherboard or otherwise mounted in a suitable manner.
  • the processor may process instructions within the computing device, such as to display graphical information for providing a graphical user interface (GUI) on an external input, output device, such as a display connected to a high speed interface. Instructions stored in memory or storage. In other embodiments, multiple processors and / or multiple buses may be used with appropriately multiple memories and memory types.
  • the processor may also be implemented as a chipset consisting of chips comprising a plurality of independent analog and / or digital processors.
  • the memory also stores information within the computing device.
  • the memory may consist of a volatile memory unit or a collection thereof.
  • the memory may consist of a nonvolatile memory unit or a collection thereof.
  • the memory may also be other forms of computer readable media, such as, for example, magnetic or optical disks.
  • the storage device can provide a large amount of storage space to the computing device.
  • the storage device may be a computer readable medium or a configuration including such a medium, and may include, for example, devices or other configurations within a storage area network (SAN), and may include a floppy disk device, a hard disk device, an optical disk device, Or a tape device, flash memory, or similar other semiconductor memory device or device array.
  • SAN storage area network
  • the present invention can be applied to a content editing apparatus that adds and displays a layer on a screen on which content is displayed and edits the content for an intuitive and easy process by processing an image based on an input performed on the displayed layer. There is this.

Abstract

본 발명은 콘텐츠 편집 장치 및 방법에 관한 것이다. 본 발명의 제1 측면에 따르면, 콘텐츠 편집 장치는 사용자 입력에 기초하여, 이미지를 생성하는 이미지 생성부, 이미지에 핀위치를 설정하는 핀위치 설정부, 설정된 핀위치에 대응하는 이미지의 이동에 대한 이동 입력을 감지하는 이미지 이동 입력 감지부 및 이동 입력에 기초하여 생성된 이미지를 핀위치에 대응하는 이미지가 이동하는 동작 이미지로 가공하는 이미지 가공부를 포함하여, 이미지를 직관적이고 간편하게 가공할 수 있다.

Description

콘텐츠 편집 장치 및 편집 방법
본 발명은 콘텐츠 편집 장치 및 방법에 관한 것이다. 특히 본 발명은 콘텐츠 중 이미지 콘텐츠를 편집하는 장치 및 방법에 관한 것이다.
오늘날 기술의 발전에 따라 사람들은 휴대폰, PMP, PDA 등의 이동 단말 및 데스크탑 등의 고정 단말을 이용하여 다양한 작업을 수행하고 있다.
또한 이러한 단말(termial)은 기능이 다양화됨에 따라 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재상, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(multimedia player) 형태로 구현되고 있다.
특히 단말은 외부의 콘텐츠 제공 서버를 통해 제공된 또는 자신에게 기 저장된 콘텐츠를 외부의 디스플레이 장치 또는 자신의 디스플레이에 재생하거나, 실행시키는 형태로 사용자에게 콘텐츠를 제공하고 있다.
이렇게 콘텐츠를 제공하는 단말과 관련된 종래의 기술로는 한국공개특허 제10-2012-0005153호가 있다.
그러나 종래의 단말은 단순히 제공되거나 저장된 콘텐츠를 제공하기만 할 뿐, 이것을 수정 및 변형할 수 없는 문제점이 있었다. 또한 기 저장되거나 사용자 생성한 콘텐츠를 수정하기 위해서는 어렵고 직관적이지 않은 문제도 있었다. 특히 콘텐츠에 포함된 이미지를 가공함에 있어서, 종래에는 복잡한 과정을 거쳐야 하고, 직관적이지 않은 문제점이 있었다.
따라서 근래에는 이러한 문제점을 해결할 수 있는 장치 및 방법이 요구되고 있는 실정이다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명의 일실시예는 콘텐츠 편집 장치 및 편집 방법을 제시하는 데에 목적이 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따르면, 콘텐츠 편집 장치는 사용자 입력에 기초하여, 이미지를 생성하는 이미지 생성부, 사용자 입력에 기초하여 상기 이미지에 핀위치를 설정하는 핀위치 설정부, 설정된 핀위치에 대응하는 이미지의 이동에 대한 이동 입력을 감지하는 이미지 이동 입력 감지부 및 상기 이동 입력에 기초하여 생성된 이미지를 상기 핀위치에 대응하는 이미지가 이동하는 동적 이미지로 가공하는 이미지 가공부를 포함한다.
본 발명의 제 2 측면에 따르면, 콘텐츠 편집 장치가 콘텐츠를 편집 하는 방법은 사용자 입력에 기초하여, 이미지를 생성하는 단계, 상기 이미지에 핀위치를 설정하는 단계, 설정된 핀위치에 대응하는 이미지의 이동에 대한 이동 입력을 감지하는 단계 및 상기 이동 입력에 기초하여 생성된 이미지를 상기 핀위치에 대응하는 이미지가 이동하는 동적 이미지로 가공하는 단계를 포함한다.
본 발명의 제 3 측면에 따르면, 본 발명은 콘텐츠 편집 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체이며, 상기 콘텐츠 편집 방법은 사용자 입력에 기초하여, 이미지를 생성하는 단계, 상기 이미지에 핀위치를 설정하는 단계, 설정된 핀위치에 대응하는 이미지의 이동에 대한 이동 입력을 감지하는 단계 및 상기 이동 입력에 기초하여 생성된 이미지를 상기 핀위치에 대응하는 이미지가 이동하는 동적 이미지로 가공하는 단계를 포함한다.
본 발명의 제 4측면에 따르면, 본 발명은 콘텐츠 편집 장치에 의해 수행되며, 콘텐츠 편집 방법을 수행하기 위한 기록매체이며, 상기 콘텐츠 편집 방법은 사용자 입력에 기초하여, 이미지를 생성하는 단계, 상기 이미지에 핀위치를 설정하는 단계, 설정된 핀위치에 대응하는 이미지의 이동에 대한 이동 입력을 감지하는 단계 및 상기 이동 입력에 기초하여 특정된 이미지를 상기 핀위치에 대응하는 이미지가 이동하는 동적 이미지로 가공하는 단계를 포함한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 발명의 일실시예는 콘텐츠 편집 장치 및 콘텐츠 편집 방법을 제시할 수 있다.
또한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 콘텐츠에 포함된 이미지를 동작 이미지로 가공하여 콘텐츠를 편집할 수 있다.
또한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 콘텐츠가 표시된 화면에 레이어를 추가하여 표시시키고, 표시된 레이어에 수행된 입력에 기초하여 이미지를 가공하여 직관적이고 간편하게 가공할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일실시예에 따른 콘텐츠 편집 시스템의 구성을 개략적으로 도시한 구성도이다.
도 2는 본 발명의 일실시예에 따른 콘텐츠 편집 장치의 구성을 개략적으로 도시한 블록도이다.
도 3은 본 발명의 일실시예에 따른 콘텐츠 편집 방법을 설명하기 위한 흐름도이다.
도 4 내지 도 7은 본 발명의 일실시예에 따른 콘텐츠 편집 방법을 설명하기 위한 예시도이다.
발명의 실시를 위한 최선의 형태를 보여주는 도면은 도 1이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 콘텐츠 편집 시스템(100)의 구성을 개략적으로 도시한 구성도이다.
즉 도 1에서 도시된 바와 같이, 본 발명의 일실시예에 따른 콘텐츠 편집 시스템(100)은 사용자 단말(10)을 포함한다.
사용자 단말(10)은, 콘텐츠를 사용자가 편집할 수 있도록 하는 인터페이스를 제공하는 프로그램이 설치될 수 있다. 이때 프로그램은 본 발명의 일실시예에 따른 콘텐츠 편집 방법이 구현된 것으로, 상기 프로그램이 설치된 사용자 단말(10)은 독립적으로 본 발명의 일실시예에 따른 콘텐츠 편집 방법에 따라 동작할 수 있으며, 또한 서버(20)와 일군의 서버-클라이언트 시스템으로서 구현되어 본 발명의 일실시예에 따른 콘텐츠 편집 방법에 따라 동작할 수 있다.
관련하여 '콘텐츠'는 디지털방식으로 제작되어 유통/편집되는 각종 정보를 의미하며, 예를 들어, 텍스트, 이미지(정적 이미지 및 동적 이미지 포함) 및 동영상 등을 포함한다. 여기서, 정적 이미지는 사진과 같은 형태의 변화되지 않는 고정된 형태의 이미지일 수 있고, 동적 이미지는 이미지의 크기 또는 모양 중 적어도 일부가 변형되거나, 이미지 내 객체 중 적어도 일부가 변화하는 형태의 이미지일 수 있다. 또한 '콘텐츠'는 제공되는 기능에 따라 채팅 콘텐츠, 동영상 콘텐츠, SNS 콘텐츠를 포함할 수도 있다. 또한 '콘텐츠'는 이미지 또는 텍스트에 관한 데이터를 의미할 수도 있다.
이와 같은 사용자 단말(10)은, 사용자의 인터렉션을 가능하게 하는 인터페이스를 포함하는 전자 단말기 상에 구현될 수 있다.
여기서 전자 단말기는, 예를 들어, 네트워크(N)를 통해 원격지의 서버에 접속하거나, 타 단말 및 서버와 연결 가능한 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device), 비접촉식 제어장치 등으로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop)등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant),GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일 WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 단말과 연결될 수 있다.
한편 사용자 단말(10)은 유무선 통신 모듈, 디스플레이, 키보드 및 마우스 등의 입력장치, 터치 센서 및 제어 장치 등을 포함할 수 있다.
사용자 단말(10)는 콘텐츠를 디스플레이에 출력시킬 수 있다.
한편 디스플레이가 및 터치 센서 가 상호 레이어 구조를 이루 거나 일체형으로 형성되는 경우(이하,'터치 스크린'이라 함)에, 디스플레이는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가 지는 경우 디스플레이에 적층되어 레이어 구조를 형성할 수도 있고, 상기 디스플레이의 구성에 포함시켜 일체형으로 이루어질 수 있다.
터치 센서는 디스플레이의 특정 부위에 가해진 압력 또는 디스플레이의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 사용자의 터치 입력은 사용자의 모션, 즉 동작에 따라 탭(tap), 드래그(drag), 플리킹(flicking), 슬라이드(slide), 프레스(press), 멀티 터치(multi touch), 핀치 아웃(pinch out), 및 핀치 인(pinch in) 등을 포함할 수 있다. 여기서, 설명된 사용자의 터치 입력들은 예시적으로 설명된 것으로 설명된 터치 입력들 이외의 다양한 다른 터치 입력들을 추가로 포함할 수 있다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어 장치로 전송한다. 이로써, 제어 장치는 디스플레이의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
한편, 사용자 단말(10)은 네트워크(N)를 통해 서버(20)와 통신할 수 있다.
이때 네트워크(N)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 개인 근거리 무선통신(Personal Area Network; PAN), 이동 통신망(mobile radio communication network), Wibro(Wireless Broadband Internet), Mobile WiMAX, HSDPA(High Speed Downlink Packet Access) 또는 위성 통신망 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.
반면 서버(20)는 편집된 콘텐츠를 타 사용자 단말과 공유할 수 있도록 하는 서버일 수 있으며, 예를 들어 서버(20)는, 사용자 단말(10) 또는 다른 서버 각각으로 웹 서비스를 제공할 수 있는 웹서버일 수 있으며, 또는 예를 들어, 포털 사이트 서버이거나, 채팅 서비스 제공 서버 등 다양한 웹 콘텐츠 프로바이더의 서버 시스템일 수 있다.
또한 서버(20)는, 사용자 단말(10)과 함께 서버-클라이언트 시스템을 구현하여 콘텐츠의 편집을 지원할 수 있다.
상술된 바와 같은 서버(20)는 웹서버를 포함하여 로드밸런싱 서버, 데이터베이스 서버 등 일군의 서버 시스템으로 구현될 수도 있다.
다음은 도 2를 참조하여 본 발명의 실시예에 따른 콘텐츠 편집 장치에 대해서 셜명한다. 또한 위에서 설명한 사용자 단말(10)을 콘텐츠 편집 장치로 하여 설명하도록 하겠다.
본 발명의 일실시예에 콘텐츠 편집 장치(10)은 콘텐츠의 이미지를 편집할 수 있다. 또한 콘텐츠는 이미지와 함께 텍스트를 편집할 수도 있다.
즉, 콘텐츠 편집 장치(10)는, 인터페이스를 통해 표시되는 이미지의 적어도 일부를 이동시킬 수 있다. 또한 특정 이미지와 별도의 이미지 또는 텍스트 등의 합성 객체와 합성할 수도 있다. 또한 콘텐츠 편집 장치(10)는 특정 이미지를 동작 이미지로 가공할 수 있다. 또한 텍스트를 편집할 수도 있다. 본 발명의 실시예에 따른 동작 이미지란 고정된 이미지의 적어도 일부가 이동되도록 핀에 의해 애니매이팅된 이미지일 수 있다. 즉, 동작 이미지는 하기에서 설명되는 콘텐츠 편집 장치(10)에 의해 가공된 이미지로서, 위에서 설명된 콘텐츠의 동적 이미지와 구별된 의미를 갖는 이미지이다.
한편 콘텐츠 편집 장치(10)는 콘텐츠 편집을 위한 사용자 입력을 수신할 수도 있다. 예를 들어 이미지의 특정 위치 선택을 위한 입력, 텍스트 편집을 위한 입력, 이미지에 효과를 발생시키기 위한 입력, 특정 텍스트를 선택하거나 특정 이미지를 선택하기 위한 사용자 입력을 수신할 수 있다. 이를 위해 콘텐츠 편집 장치(10)는 키보드, 마우스 또는 터치 스크린 등의 입력 장치를 이용할 수도 있다.
그에 따라 콘텐츠 편집 장치(10)는 이미지를 가공하거나, 가공된 이미지를 텍스트 또는 별도의 이미지와 합성할 수도 있다. 또한 가공된 이미지를 표시하거나, 서버 또는 별도의 단말로 송신할 수도 있다.
도 2 본 발명의 일실시예에 따른 콘텐츠 편집 장치(10)의 구성을 개략적으로 도시한 블록도이다.
본 발명의 실시예에 따른 콘텐츠 편집 장치(10)는 이미지 생성부(210), 핀위치 설정부(220), 이미지 이동 입력 감지부(230), 이미지 가공부(240), 합성부(250), 텍스트 입력부(260) 및 텍스트 편집부(270)을 포함한다. 그러나 도 2에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 콘텐츠 편집 장치(10)가 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
본 발명의 실시예에 따른, 이미지 생성부(210)는 사용자 입력에 기초하여 이미지를 생성한다. 예를 들어 콘텐츠에 포함된 이미지 중 적어도 일부를 사용자 입력(예를 들면, 편집(자르기(누끼따기), 붙이기), 수정, 변형, 결합, 합성 등)에 기초하여 생성할 수 있다. 기 저장된 적어도 하나의 이미지를 로드시켜 가공을 수행할 이미지를 생성할 수도 있다. 예를 들면, 이미지 생성부(210)는 두 개 이상의 이미지들의 조합에 의해 생성할 수도 있 다. 또한, 이미지 생성부(210)는 입력 장치를 통해 입력된 사용자 입력에 기초하여 이미지를 생성할 수 있다. 이때, 이미지 생성부(210)는 사용자 입력에 의해 직접 그려진 이미지를 이용하여 가공을 수행할 이미지를 생성할 수 있다.
본 발명의 실시예에 따른, 핀은 이미지의 이동을 위한 요소이고, 포인트, 도형, 영역을 포함한다. 이때, 포인트는 이미지를 기준으로 하는 특정 지점이고, 도형은 다각형(삼각형, 사각형, 오각형 등), 원, 마름모, 사다리꼴, 별 등의 형상을 갖는 모양이고, 영역은 소정의 크기나 형태를 갖는 경계 내의 부분이다. 이러한, 핀은 사용자 입력에 의해 생성되거나 선택될 수 있고, 내부에 미리 결정된 형태로 존재할 수 있다.
본 발명의 실시예에 따른, 핀위치 설정부(220)는 이미지 생성부(210)에 의해 생성된 이미지에 핀위치를 설정한다. 이를 위해, 핀위치 설정부(220)는 사용자 입력에 기초하여 핀위치를 설정하거나, 핀위치 설정부(220) 내부에 미리 설정된 위치에 핀위치를 자동으로 설정할 수 있다. 또한, 핀위치 설정부(220)는 내부에 미리 결정된 위치에 핀위치를 자동으로 설정한 후 사용자 입력에 의해 적어도 일부의 핀위치를 변경할 수도 있다. 이를 위해, 핀은 사용자에 의해 식별 및 위치 제어가 가능하도록 디스플레이의 특정 위치에 다양한 형태(예를 들면, 포인터, 화살표, 십자가, 핸들 등)로 표시될 수 있다. 핀위치 설정부(220)는 생성된 이미지에 적어도 하나의 핀위치를 설정할 수도 있다.
사용자 입력에 따른 핀위치 설정을 예를 들어 설명하면, 핀위치 설정부(220)는 표시된 이미지에 사용자의 터치 입력이 수행된 부분을 핀위치로 설정할 수도 있다. 만약, 핀위치가 복수개인 경우 복수개의 핀위치는 핀위치 설정부(220)에 의해 동시에 설정되거나, 순차적으로 설정될 수도 있다.
한편 이미지 생성부(210)는 이미지가 생성되면 레이어를 추가로 표시하고, 레이어상에 생성된 이미지를 표시할 수 있다. 이후 핀위치 설정부(220)는 레이어상에 표시된 이미지에 핀위치를 설정할 수도 있다.
한편 이미지가 객체와 배경을 포함하는 경우, 배경에 해당하는 부분에도 핀위치가 설정될 수 있다.
본 발명의 실시예에 따른, 이미지 이동 입력 감지부(230)는 핀위치와 대응하는 이미지의 이동에 대한 이동 입력을 감지한다. 핀위치가 설정된 지점으로부터 소정의 범위의 이미지는 핀위치와 대응한다. 한편 핀위치에 대응하는 이미지는 특정된 이미지의 일부 일 수 있다. 또한 이미지 이동 입력 감지부(230)는 특정 방향 또는 특정한 형태로 수행되는 사용자 입력을 감지할 수 있다. 예를 들어 터치 스크린에 수행된 탭, 플리킹, 슬라이드, 프레스, 멀티 터치, 핀치 아웃, 핀치 인 등의 사용자 입력을 감지할 수 있다.
드래그는 터치 스크린을 터치를 유지한 상태에서 특정 위치로 이동한 후 떼는 동작으로, 객체를 드래그하는 경우, 해당 객체는 드래그 방향에 따라 지속적으로 이동하여 표시될 수도 있다.
또한, 플리킹 입력은 사용자가 터치 스크린을 터치한 후 특정 방향(상, 하, 좌, 우 또는 대각선)으로 이동 후 접점을 떼는 동작에 기초한 입력을 의미하며, 이동 입력 감지부(230)는 플리킹 입력에 의해 터치 입력이 감지되면, 플릭 방향, 속도 등을 토대로 특정 동작의 처리를 수행한다.
또한, 슬라이드 입력은 사용자가 터치 스크린에 터치를 유지한 상태에서 특정 위치로 이동하는 동작에 기초한 입력을 의미하며, 이미지 이동 입력 감지부(230)는 슬라이드 입력에 의해 터치 입력이 감지되면, 슬라이드 방향 속도 등을 토대로 특정 동작을 처리할 수 있다.
또한, 프레스는 터치 스크린을 터치 후 기 설정된 시간 이상 지속적으로 터치를 유지하는 동작을 의미한다.
또한, 멀티 터치는 터치 스크린의 복수의 지점을 동시에 터치하는 동작을 의미한다.
또한, 핀치 아웃은 터치 스크린을 멀티 터치 중인 복수의 포인터가 서로 멀어지는 방향으로 드래그하는 동작을 의미한다. 즉, 터치 스크린에서 멀티 터치되는 복수의 지점 중 적어도 하나의 지점으로부터 시작되고, 멀티 터치되는 복수의 지점이 서로 멀어지는 방향으로 발생하는 드래그를 의미한다.
이와 반대로 핀치 인은 터치 스크린을 멀티 터치 중인 복수의 포인터가 서로 가까워지는 방향으로 드래그하는 동작을 의미한다. 즉, 터치 스크린에서 멀티 터치되는 복수의 지점 중 적어도 하나의 지점으로부터 시작되고, 멀티 터치 되는 복수의 지점이 서로 가까워지는 방향으로 발생하는 드래그를 의미한다.
한편 이미지 이동 입력 감지부(230)는 레이어상에 수행된 이동 입력을 감지할 수도 있다.
본 발명의 실시예에 따른, 이미지 가공부(240)는 이미지 이동 입력 감지부(230)를 통해 입력된 이동 입력에 기초하여, 이미지 생성부(210)에서 생성된 이미지를 동작 이미지로 가공한다. 이미지 가공부(240)는 이동 입력에 기초하여 핀위치에 대응하는 이미지가 이동하는 동작 이미지를 생성할 수 있다. 예를 들어 이미지 가공부(240)는 이동 입력의 수행 방향에 따라 이미지의 일부가 이동하는 동작 이미지를 생성할 수도 있다. 또한 이미지 가공부(240)는 동작 이미지를 생성함에 있어서, 이미지의 일부가 소정의 시간을 주기로 하여 반복 동작을 수행하는 동작 이미지를 생성할 수도 있다.
또한 복수의 핀위치가 설정된 경우, 이미지 가공부(240)는 생성된 이미지를 복수의 핀위치 각각에 대응하는 각각의 이미지가 이동하는 동작 이미지로 가공할 수 있다. 이때 이미지 가공부(240)는 복수의 핀위치 각각에 대응하는 각각의 이미지에 대해 개별적으로 입력된 각각의 이동 입력에 기초하여 생성된 이미지를 동작 이미지로 가공할 수도 있다.
한편, 이미지 가공부(240)는 이동 입력에 기초하여 핀위치에 대응하는 이미지 이동에 의한 정적 이미지, 즉 이미지의 일부가 이동 입력 중 한 시점에서 고정된 형태의 동작 이미지로 가공될 수도 있다. 따라서, 이미지 가공부(240)에서 가공된 동작 이미지는 핀위치의 이동에 따른 정적 이미지를 포함할 수도 있다.
본 발명의 실시예에 따른, 합성부(250)는 사용자 입력에 기초하여, 동작 이미지를 별도의 이미지 또는 텍스트 중 적어도 하나와 합성한다. 합성부(250)는 동작 이미지를 별도의 동작 이미지와 합성할 수도 있으며, 편집된 텍스트와 합성할 수도 있다.
합성부(250)는 동작 이미지에 다양한 부가 기능을 합성할 수 있다. 합성부(250)는 동작 이미지에 다양한 배경을 합성하거나, 동작 이미지와 사운드(음악, 음성, 효과음 등)을 합성할 수 있다. 그리고, 합성부(250)는 동작 이미지에 다양한 효과(동작 이미지의 회전 등)를 갖도록 다양한 효과들과 합성시킬 수 있다.
본 발명의 실시예에 따른, 텍스트 입력부(260)는 사용자 입력에 기초하여 콘텐츠에 텍스트를 입력한다. 텍스트 입력부(260)는 마우스, 키보드 및 터치 스크린 등의 입력 장치를 통해 입력된 사용자 입력에 기초하여 콘텐츠에 텍스트를 입력할 수 있다. 입력된 텍스트에 기초하여 컨턴츠에는 텍스트가 추가될 수 있다.
본 발명의 실시예에 따른, 텍스트 편집부(270)는 텍스트 입력부(260)에 의해 추가된 텍스트를 사용자 입력에 기초하여 편집한다. 또한 텍스트 편집부(270)는 추가된 텍스트의 스타일(글자체, 글자크기, 글자색 입체감 또는 움직임 등)을 변경할 수도 있다. 텍스트 편집부(270)는 추가된 텍스트를 사용자 입력에 기초하여 기 제공된 텍스트의 스타일 으로 변환시킬 수도 있다. 뿐만 아니라 텍스트 편집부(270)는 추가된 텍스트의 스타일을 사용자 입력에 기초하여 기 제공된 텍스트의 스타일과 일치시킬 수도 있다. 이때 제공된 제공 텍스트는 콘텐츠를 제공한 서버가 콘텐츠와 함께 제공한 것일 수도 있으며, 콘텐츠를 제공한 서버 이외의 서버로부터 제공 받은 것일 수도 있다. 본 발명의 또 다른 실시예에 따르면 제공된 제공 텍스트는 콘텐츠 편집 장치(10)에 기 저장되어 있는 텍스트 일 수도 있다.
다음은 도 3 내지 도 7을 참조하여 본 발명의 실시예에 따른 콘텐츠 편집 방법을 설명한다.
도 3은 본 발명의 일실시예에 따른 콘텐츠 편집 방법을 설명하기 위한 흐름도이고, 도 4 내지 도 7은 본 발명의 일실시예에 따른 콘텐츠 편집 방법을 설명하기 위한 예시도이다.
특히 도 4 및 도 5는 본 발명의 실시예에 따른 동작 이미지 가공 방법을 설명하기 위한 도면이며, 도 6 및 도 7 각각에서의 각 이미지는 콘텐츠 편집 장치(10)의 인터페이스(예를 들어 터치 스크린)를 통해 나타나는 모습을 도시한 것이다.
한편 이하에서는 설명의 편의를 위해 콘텐츠가 채팅을 위한 콘텐츠로로 설명되지만, 얼마든지 다른 종류의 콘텐츠에도 적용이 가능하다.
콘텐츠 편집 장치(10)는 편집할 이미지를 생성한다(S301). 예를 들어 콘텐츠 편집 장치(10)는 콘텐츠에 포함된 이미지 중 적어도 일부를 사용자 입력에 기초하여 생성할 수 있다. 또한 기 저장된 적어도 하나의 이미지를 로드시켜 가공을 수행할 이미지를 생성할 수도 있다. 또한 콘텐츠 편집 장치(10)는 입력 장치를 통해 입력된 사용자 입력에 기초하여 이미지를 생성할 수 있다.
콘텐츠 편집 장치(10)는 생성된 이미지에 핀위치를 설정할 수 있다(S303). 사용자 입력에 기초하여 생성된 이미지에 핀위치를 설정하거나 사용자 입력없이 콘텐츠 편집 장치(10) 내부에 미리 설정된 위치에 핀위치를 자동으로 설정한다. 또한, 콘텐츠 편집 장치(10)는 미리 설정된 위치에 핀위치를 자동으로 설정한 후 사용자 입력에 의해 적어도 일부의 핀위치를 변경할 수도 있다. 콘텐츠 편집 장치(10)는 생성된 이미지에 적어도 하나의 핀위치를 설정할 수도 있다.
사용자 입력에 따른 핀위치 설정을 예를 들어 설명하면, 콘텐츠 편지 장치(10)는 표시된 이미지에 사용자의 터치 입력이 수행된 부분을 핀위치로 설정할 수도 있다.
콘텐츠 편집 장치(10)는 이미지 이동 입력을 감지할 수 있다(S305). 콘텐츠 편집 장치(10)는 핀위치와 대응하는 이미지의 이동에 대한 이동 입력을 감지한다. 핀위치가 설정된 지점으로부터 소정의 범위의 이미지는 핀위치와 대응한다. 한편 콘텐츠 편집 장치(10)는 특정 방향 또는 특정한 형태로 수행되는 사용자 입력을 감지할 수 있다. 예를 들어 터치 스크린에 수행된 탭, 드래그, 플리킹, 슬라이드, 프레스, 멀티 터치, 핀치 아웃, 및 핀치 인 과 같은 사용자 입력을 감지할 수 있다. 또한 콘텐츠 편집 장치(10)는 이동을 위해 수신된 사용자 입력에 기초하여 핀위치에 대응하는 이미지의 동작 형태 동작 범위를 결정할 수 있다.
도 4에 도시된 바와 같이, 사용자는 생성된 이미지의 일부에 핀위치(410)를 설정할 수 있다. 또한 핀위치(410)가 설정되면, 핀위치에 대응하는 이미지의 이동에 대한 이동 입력을 수행할 수 있다. 특히 도 4에는 사용자가 좌우 방향으로 이동 입력을 발생시킨 것이 도시되어 있다.
콘텐츠 편집 장치(10)는 감지된 이동 입력에 기초하여 이미지를 동작 이미지로 가공할 수 있다(S307). 콘텐츠 편집 장치(10)는 입력된 이동 입력에 기초하여, 생성된 이미지를 동작 이미지로 가공한다. 콘텐츠 편집 장치(10)는 이동 입력에 기초하여 핀위치에 대응하는 이미지가 이동하는 동작 이미지를 생성할 수 있다. 예를 들어 콘텐츠 편집 장치(10)는 이동 입력의 수행 방향에 따라 이미지의 일부가 이동하는 동작 이미지를 생성할 수도 있다. 또한 이미지 콘텐츠 편집 장치(10)는 동작 이미지를 생성함에 있어서, 이미지의 일부가 소정의 시간을 주기로 하여 반복 동작을 수행하는 동작 이미지를 생성할 수도 있다. 즉 콘텐츠 편집 장치(10)는 생성된 이미지를 가공하여 애니메이팅된 동작 이미지를 생성할 수 있다. 예를 들어 도 4에 도시된 바와 같이, 콘텐츠 편집 장치(10)에 좌우 방향의 이동 입력이 수신된 경우, 핀위치에 대응하는 이미지를 좌우 방향으로 이동할 수 있다. 이때 입력되는 동작 입력의 범위가 클수록, 예를 들어 슬라이드 입력의 경우 길게 슬라이드 입력을 수행할수록 이미지의 동작 범위는 커질 수 있다. 또한 콘텐츠 편집 장치(10)는 이동된 핀위치에 대응하는 이미지에 맞춰 핀위치에 대응하지 않는 이미지를 변경시켜, 자연스럽게 핀위치에 대응하는 이미지가 동작하는 것처럼 표시되도록 할 수 있다.
한편 콘텐츠 편집 장치(10)는 생성된 이미지를 복수의 핀위치 각각에 대응하는 각각의 이미지가 이동하는 동작 이미지로 가공할 수 있다. 이때 콘텐츠 편집 장치(10)는 복수의 핀위치 각각에 대응하는 각각의 이미지에 대해 개별적으로 입력된 각각의 이동 입력에 기초하여 생성된 이미지를 동작 이미지로 가공할 수도 있다. 이를 통해 핀위치에 대응하는 이미지는 서로 다른 방향으로 움직일 수도 있다.
도 5에는 도 4의 이미지에 핀위치(401)가 설정되고, 이동 입력이 설정되어, 핀위치에 대응하는 이미지(501)가 이동한 것이 도시되어 있다. 객체의 팔 부분에 핀위치가 설정되고 이동 입력이 설정됨에 따라 도 4의 이미지는 점차적으로 팔 부분이 아래로 이동된 도 5의 이미지로 변경될 수 있으며, 시간의 흐름에 따라 다시 도4의 이미지로 점차적으로 변동될 수 있다.
콘텐츠 편집 장치(10)는 이미지 합성에 대한 입력의 수신 여부를 판단할 수 있다(S309).
이미지 합성에 대한 입력이 수신된 경우, 콘텐츠 편집 장치(10)는 이미지를 합성 객체와 합성할 수 있다(S311). 콘텐츠 편집 장치(10)는 사용자 입력에 기초하여, 동작 이미지를 별도의 이미지 또는 텍스트 중 적어도 하나와 합성한다. 콘텐츠 편집 장치(10)는 동작 이미지를 별도의 동작 이미지와 합성할 수도 있으며, 편집된 텍스트와 합성할 수도 있다.
이때 동작 이미지와 합성되는 합성 객체(이미지 또는 텍스트)는 별도의 입력 장치에 기초하여 입력된 것일 수 도 있다. 텍스트의 경우 콘텐츠 편집 장치(10)는 추가된 텍스트를 사용자 입력에 기초하여 기 제공된 텍스트의 스타일과 일치시킬 수도 있다. 뿐만 아니라 콘텐츠 편집 장치(10)는 추가된 텍스트의 스타일을 사용자 입력에 기초하여 기 제공된 텍스트의 스타일과 일치시킬 수도 있다. 이때 제공된 제공 텍스트는 콘텐츠를 제공한 서버가 콘텐츠와 함께 제공한 것일 수도 있으며, 콘텐츠를 제공한 서버 이외의 서버로부터 제공 받은 것 일 수도 있다. 본 발명의 또 다른 실시예에 따르면 제공된 제공 텍스트는 콘텐츠 편집 장치(10)에 기 저장되어 있는 텍스트 일 수도 있다.
S309 및 S311을 도 6 및 도 7을 참조하여 설명하면, 도 6 의 (a)에 도시된 바와 같이, 콘텐츠 편집 장치(10)가 특정 이미지를 애니메이팅하여 동작 이미지로 가공하고, 도6의 (b)에서 콘텐츠 편집 장치(10)에 도시된 바와 같이 텍스트가 입력되면, 도 6의 (c)에서 도시된 바와 같이 동작 이미지와 함께 입력된 텍스트가 합성되어 표시된다. 또한 이와 같이 합성된 이미지는 도 6의 (d)에서 도시된 바와 같이 표시될 수 있다.
특히 사용자가 도 6의 (b)에 도시된 기 제공된 텍스트를 선택하는 경우, 콘텐츠 편집 장치(10)는 입력된 텍스트를 기 제공된 텍스트의 스타일과 일치시킬 수 있다. 이렇게 편집된 텍스트는 도 6의 (c)에 도시된 바와 같이 동작 이미지와 합성될 수 있다.
본 발명의 또 다른 실시예에 따르면, 콘텐츠 편집 장치(10)는 이미지 또는 텍스트를 소정의 이미지와 합성시키고, 합성된 이미지를 동작 이미지로 가공할 수도 있다.
예를 들어, 도 7의 (a)에서 도시된 바와 같이 사용자에 의해 텍스트가 입력되고, 도 7의 (b)에서 도시된 바와 같이 이미지가 선택되면서 핀위치가 입력되고, 상기 핀위치에 대응하는 이미지의 이동 입력을 사용자가 수행하면, 콘텐츠 편집 장치(10)는 도 7의 (c)에서 도시된 바와 같이 애니메이팅된 동작 이미지와 함께 입력된 텍스트를 합성하여 표시할 수 있다. 한편 도 7의 (b)에 도시된 바와 같이 핀위치 설정 및 이동 입력은 레이어를 통해 수행될 수도 있다.
본 발명의 일실시예에 따른 콘텐츠 편집 방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
또한 본 발명의 일실시예에 따르는 콘텐츠 편집 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다.
따라서 본 발명의 일실시예에 따르는 콘텐츠 편집 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
본 발명은 콘텐츠가 표시된 화면에 레이어를 추가하여 표시시키고, 표시된 레이어에 수행된 입력에 기초하여 이미지를 가공하여 직관적이고 간편하게 가공하기 위해 콘텐츠를 편집하는 콘텐츠 편집 장치에 적용될 수 있음으로 산업상 이용 가능성이 있다.

Claims (19)

  1. 사용자 입력에 기초하여, 이미지를 생성하는 이미지 생성부;
    상기 이미지에 핀위치를 설정하는 핀위치 설정부;
    설정된 핀위치에 대응하는 이미지의 이동에 대한 이동 입력을 감지하는 이미지 이동 입력 감지부; 및
    상기 이동 입력에 기초하여 생성된 이미지를 상기 핀위치에 대응하는 이미지가 이동하는 동작 이미지로 가공하는 이미지 가공부를 포함하는 콘텐츠 편집 장치.
  2. 제1항에 있어서,
    상기 핀위치 설정부가
    복수의 핀위치를 설정하는 경우,
    상기 이미지 가공부는,
    상기 생성된 이미지를 상기 복수의 핀위치 각각에 대응하는 각각의 이미지가 이동하는 동작 이미지로 가공하는, 콘텐츠 편집 장치.
  3. 제2항에 있어서,
    상기 이미지 가공부는,
    상기 복수의 핀위치 각각에 대응하는 각각의 이미지에 대해 개별적으로 입력된 각각의 이동 입력에 기초하여 상기 생성된 이미지를 동작 이미지로 가공하는, 콘텐츠 편집 장치.
  4. 제1항에 있어서,
    상기 이미지 가공부는,
    상기 생성된 이미지를 상기 이동 입력의 수행 방향에 따라 상기 핀위치에 대응하는 이미지가 이동하는 동작 이미지로 가공하는, 콘텐츠 편집 장치.
  5. 제1항에 있어서,
    상기 콘텐츠 편집 장치는,
    사용자 입력에 기초하여, 상기 동작 이미지를 이미지 또는 텍스트 중 적어도 하나와 합성하는 합성부를 더 포함하는, 콘텐츠 편집 장치.
  6. 제5항에 있어서,
    상기 콘텐츠 편집 장치는,
    텍스트를 입력받는 텍스트 입력부; 및
    기 제공된 제공 텍스트 중 어느 하나에 대한 선택 입력을 감지하면, 입력된 텍스트를 선택된 제공 텍스트의 스타일과 일치시키는, 텍스트 편집부를 더 포함하고,
    상기 합성부는,
    상기 텍스트 편집부에 의해 편집된 텍스트를 상기 동작 이미지와 합성하는, 콘텐츠 편집 장치.
  7. 제1항에 있어서,
    상기 이미지 생성부;
    이미지가 생성되면, 화면에 레이어를 추가로 표시하고, 표시된 레이어상에 상기 생성된 이미지를 표시하며,
    상기 이미지 이동 입력 감지부는,
    상기 레이어에 수행된 이동 입력을 감지하는, 콘텐츠 편집 장치.
  8. 제1항에 있어서,
    상기 이미지의 이동을 위한 핀은 포인트, 도형, 영역을 포함하는, 콘텐츠 편집 장치.
  9. 제8항에 있어서,
    상기 핀은 사용자 입력에 의해 지정된 크기와 형태로 생성되는, 콘텐츠 편집 장치.
  10. 제1항에 있어서,
    상기 핀위치 설정부는 상기 핀위치를 미리 설정된 위치에 자동으로 설정 또는 사용자 입력에 기초하여 설정하는, 콘텐츠 편집 장치.
  11. 콘텐츠 편집 장치가 콘텐츠를 편집 하는 방법에 있어서,
    사용자 입력에 기초하여, 이미지를 생성하는 단계;
    상기 이미지에 핀위치를 설정하는 단계;
    설정된 핀위치에 대응하는 이미지의 이동에 대한 이동 입력을 감지하는 단계; 및
    상기 이동 입력에 기초하여 생성된 이미지를 상기 핀위치에 대응하는 이미지가 이동하는 동작 이미지로 가공하는 단계를 포함하는 콘텐츠 편집 방법.
  12. 제11항에 있어서,
    상기 가공하는 단계는,
    복수의 핀위치를 설정하는 경우, 상기 생성된 이미지를 상기 복수의 핀위치 각각에 대응하는 각각의 이미지가 이동하는 동작 이미지로 가공하는, 콘텐츠 편집 방법.
  13. 제12항에 있어서,
    상기 가공하는 단계는,
    상기 복수의 핀위치 각각에 대응하는 각각의 이미지에 대해 개별적으로 입력된 각각의 이동 입력에 기초하여 상기 생성된 이미지를 동작 이미지로 가공하는, 콘텐츠 편집 방법.
  14. 제11항에 있어서,
    상기 가공하는 단계는,
    상기 생성된 이미지를 상기 이동 입력의 수행 방향에 따라 상기 핀위치에 대응하는 이미지가 이동하는 동작 이미지로 가공하는, 콘텐츠 편집 방법.
  15. 제11항에 있어서,
    상기 콘텐츠 편집 방법은,
    사용자 입력에 기초하여, 상기 동작 이미지를 이미지 또는 텍스트 중 적어도 하나와 합성하는 단계를 더 포함하는, 콘텐츠 편집 방법.
  16. 제15항에 있어서,
    상기 콘텐츠 편집 방법은,
    텍스트를 입력 받는 단계; 및
    기 제공된 제공 텍스트 중 어느 하나에 대한 선택 입력을 감지하면, 입력된 텍스트를 선택된 제공 텍스트의 스타일과 일치시키는 단계를 더 포함하고,
    상기 합성하는 단계는,
    상기 상기 입력된 텍스트를 상기 선택된 제공 텍스트의 스타일과 일치를 통해 편집된 텍스트를 상기 동작 이미지와 합성하는, 콘텐츠 편집 방법.
  17. 제11항에 있어서,
    상기 이미지를 생성하는 단계는,
    이미지가 생성되면, 화면에 레이어를 추가로 표시하고, 표시된 레이어상에 상기 생성된 이미지를 표시하는 단계를 더 포함하며,
    상기 이동 입력을 감지하는 단계는,
    상기 레이어에 수행된 이동 입력을 감지하는, 콘텐츠 편집 방법.
  18. 제11항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.
  19. 콘텐츠 편집 장치에 의해 수행되며, 제11항에 기재된 방법을 수행하기 위해 기록매체에 저장된 컴퓨터 프로그램.
PCT/KR2016/009586 2015-08-28 2016-08-29 콘텐츠 편집 장치 및 편집 방법 WO2017039260A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2015-0121667 2015-08-28
KR20150121667 2015-08-28
KR10-2016-0109793 2016-08-29
KR1020160109793A KR20170026274A (ko) 2015-08-28 2016-08-29 콘텐츠 편집 장치 및 편집 방법

Publications (1)

Publication Number Publication Date
WO2017039260A1 true WO2017039260A1 (ko) 2017-03-09

Family

ID=58187944

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/009586 WO2017039260A1 (ko) 2015-08-28 2016-08-29 콘텐츠 편집 장치 및 편집 방법

Country Status (1)

Country Link
WO (1) WO2017039260A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175235A (ja) * 1999-12-16 2001-06-29 Nec Corp 携帯無線通信端末およびそのスタイル処理方法
JP2002319036A (ja) * 2001-02-13 2002-10-31 Sega Corp アニメーション生成プログラム
KR20060104324A (ko) * 2005-03-30 2006-10-09 주식회사 케이티프리텔 캐릭터 합성 메시지 전송 방법 및 시스템
US20070211067A1 (en) * 1997-10-15 2007-09-13 Electric Planet, Inc. System and method for generating an animatable character
US20090046097A1 (en) * 2007-08-09 2009-02-19 Scott Barrett Franklin Method of making animated video

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070211067A1 (en) * 1997-10-15 2007-09-13 Electric Planet, Inc. System and method for generating an animatable character
JP2001175235A (ja) * 1999-12-16 2001-06-29 Nec Corp 携帯無線通信端末およびそのスタイル処理方法
JP2002319036A (ja) * 2001-02-13 2002-10-31 Sega Corp アニメーション生成プログラム
KR20060104324A (ko) * 2005-03-30 2006-10-09 주식회사 케이티프리텔 캐릭터 합성 메시지 전송 방법 및 시스템
US20090046097A1 (en) * 2007-08-09 2009-02-19 Scott Barrett Franklin Method of making animated video

Similar Documents

Publication Publication Date Title
CN109782976B (zh) 文件处理方法、装置、终端及存储介质
US11632576B2 (en) Live video broadcast method, live broadcast device and storage medium
CN109683761B (zh) 内容收藏方法、装置及存储介质
WO2014088355A1 (en) User terminal apparatus and method of controlling the same
KR20170026274A (ko) 콘텐츠 편집 장치 및 편집 방법
WO2014017790A1 (en) Display device and control method thereof
WO2014017722A1 (en) Display device for executing multiple applications and method for controlling the same
WO2016048024A1 (en) Display apparatus and displaying method thereof
EP2741190A2 (en) Display Device and Method of Controlling the same
WO2022007724A1 (zh) 视频处理方法、装置、设备及存储介质
WO2014088310A1 (en) Display device and method of controlling the same
WO2015005605A1 (en) Remote operation of applications using received data
US11604580B2 (en) Configuration of application execution spaces and sub-spaces for sharing data on a mobile touch screen device
CN111970571B (zh) 视频制作方法、装置、设备及存储介质
WO2022007722A1 (zh) 显示方法、装置、设备及存储介质
WO2017209568A1 (ko) 전자 장치 및 그의 동작 방법
WO2015099300A1 (en) Method and apparatus for processing object provided through display
EP3019945A1 (en) Portable device for providing combined ui component and method of controlling the same
CN113891164A (zh) 视频列表的显示方法、装置、电子设备和存储介质
WO2017078350A1 (ko) 컨텐츠 표시 방법 및 이를 구현한 전자 장치
US20230326110A1 (en) Method, apparatus, device and media for publishing video
US20240119082A1 (en) Method, apparatus, device, readable storage medium and product for media content processing
EP3413176A1 (en) Mobile terminal and method for controlling the same
WO2014051381A1 (en) Electronic apparatus, method for authoring multimedia content and computer readable recording medium storing a program for performing the method
WO2020045909A1 (en) Apparatus and method for user interface framework for multi-selection and operation of non-consecutive segmented information

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16842226

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16842226

Country of ref document: EP

Kind code of ref document: A1