WO2017039257A1 - 콘텐츠 편집 장치 및 편집 방법 - Google Patents

콘텐츠 편집 장치 및 편집 방법 Download PDF

Info

Publication number
WO2017039257A1
WO2017039257A1 PCT/KR2016/009583 KR2016009583W WO2017039257A1 WO 2017039257 A1 WO2017039257 A1 WO 2017039257A1 KR 2016009583 W KR2016009583 W KR 2016009583W WO 2017039257 A1 WO2017039257 A1 WO 2017039257A1
Authority
WO
WIPO (PCT)
Prior art keywords
text
content
layer
input
unit
Prior art date
Application number
PCT/KR2016/009583
Other languages
English (en)
French (fr)
Inventor
전수영
권지용
Original Assignee
스타십벤딩머신 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스타십벤딩머신 주식회사 filed Critical 스타십벤딩머신 주식회사
Priority claimed from KR1020160109791A external-priority patent/KR20170026272A/ko
Publication of WO2017039257A1 publication Critical patent/WO2017039257A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to a content editing apparatus and method.
  • the present invention relates to an apparatus and method for editing text in content.
  • Such a terminal has been implemented in the form of a multimedia player having complex functions such as photographing a picture or a video, playing a music or a video file, playing a game, receiving a broadcast, etc. as functions are diversified.
  • the terminal provides the content to the user in the form of playing or executing the content provided through the external content providing server or previously stored on the external display device or its own display.
  • the conventional terminal merely provides the provided or stored content, there is a problem that can not be modified and modified.
  • the background art described above is technical information that the inventors possess for the derivation of the present invention or acquired in the derivation process of the present invention, and is not necessarily a publicly known technique disclosed to the general public before the application of the present invention. .
  • One embodiment of the present invention is to provide a content editing apparatus and editing method.
  • the content editing apparatus is a text specifying unit for specifying the text based on the selection input for the text contained in the content, the screen on which the content is displayed
  • a layer display unit displaying a layer by adding a layer to at least a portion of the region, a user input sensing unit detecting a user input performed on the displayed layer, and an editing unit editing the specified text based on the user input and displaying the layer on the layer do.
  • a text specifying unit for specifying text based on a selection input for text included in content
  • a layer display unit for displaying a layer by adding a layer to at least a portion of the screen on which the content is displayed
  • a user input sensing unit for sensing a user input performed on a layer
  • an editing unit for generating a text image by mapping a motion corresponding to the user input with the specified text, and displaying the generated text image.
  • the image may be changed by a user input having a motion different from that of the user input.
  • a method for editing content by a content editing apparatus includes specifying text based on a selection input for text included in the content, and applying a layer to at least a portion of the screen on which the content is displayed. Adding and displaying, detecting a user input performed on the displayed layer, and editing and displaying the specified text on the layer based on the user input.
  • the present invention is a computer-readable recording medium having recorded thereon a program for performing a content editing method, wherein the content editing method specifies a text based on a selection input for text included in the content. Displaying a layer by adding a layer to at least a portion of the screen on which the content is displayed; detecting a user input performed on the displayed layer; and editing a specified text based on the user input to display the layer on the layer Steps.
  • the present invention is performed by a content editing apparatus and is a recording medium for performing a content editing method, wherein the content editing method selects text based on a selection input for text included in the content. Specifying a layer, adding and displaying a layer in at least a portion of the area on the screen on which the content is displayed, detecting a user input performed on the displayed layer, and editing the specified text based on the user input Displaying.
  • an embodiment of the present invention can provide a content editing apparatus and a content editing method.
  • the edited text on the displayed layer can be displayed in a variety of ways.
  • FIG. 1 is a configuration diagram schematically showing the configuration of a content editing system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating a configuration of a content editing apparatus according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a content editing method according to an embodiment of the present invention.
  • 4 to 12 are exemplary views for explaining a content editing method according to an embodiment of the present invention.
  • FIG. 1 shows the best mode for carrying out the invention.
  • FIG. 1 is a configuration diagram schematically showing the configuration of a content editing system 100 according to an embodiment of the present invention.
  • the content editing system 100 includes a user terminal (10).
  • the user terminal 10 may be installed with a program that provides an interface for the user to edit the content.
  • the program is implemented in the content editing method according to an embodiment of the present invention
  • the user terminal 10 is installed the program can operate independently according to the content editing method according to an embodiment of the present invention, Implemented as a server 20 and a group of server-client system can operate according to the content editing method according to an embodiment of the present invention.
  • 'content' refers to various types of information digitally produced and distributed / edited, and includes, for example, text, images (including static images and dynamic images), and moving images.
  • the static image may be a fixed form of an image which does not change, such as a photograph
  • the dynamic image may be an image in which at least some of the size or shape of the image is deformed or at least some of the objects in the image change. Can be.
  • the 'content' may include chat content, video content, and SNS content depending on the function provided.
  • Such a user terminal 10 may be implemented on an electronic terminal that includes an interface that enables interaction with a user.
  • the electronic terminal may be implemented as, for example, a computer or a portable terminal, a television, a wearable device, a contactless control device, or the like, which can be connected to a remote server through a network N or connected to other terminals and servers.
  • the computer includes, for example, a laptop, desktop, laptop, etc., which is equipped with a web browser
  • the portable terminal is, for example, a wireless communication device that ensures portability and mobility.
  • the television may include an Internet Protocol Television (IPTV), an Internet Television (Internet Television), a terrestrial TV, a cable TV, or the like.
  • IPTV Internet Protocol Television
  • Internet Television Internet Television
  • the wearable device is, for example, an information processing device of a type that can be worn directly on a human body such as a watch, glasses, accessories, clothes, shoes, etc., and is connected to a remote server or another terminal via a network directly or through another information processing device. It can be connected with.
  • the user terminal 10 may include a wired / wireless communication module, a display, an input device such as a keyboard and a mouse, a touch sensor, and a control device.
  • the user terminal 10 may output the content to the display.
  • the display and the touch sensor form a mutual layer structure or are integrally formed (hereinafter referred to as 'touch screen')
  • the display may be used as an input device in addition to the output device.
  • the touch sensor has a form of a touch film, a touch sheet, or a touch pad
  • the touch sensor may be stacked on the display to form a layer structure, and may be included in the configuration of the display to be integrated.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the display or capacitance occurring at a specific portion of the display into an electrical input signal.
  • the touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.
  • the touch controller processes the signal (s) and then transmits the corresponding data to the control device. As a result, the control device can know which area of the display is touched.
  • the user's touch input can be tap, drag, flick, slide, press, multi touch, or pinch out depending on the user's motion, ie motion. out, and pinch in, and the like.
  • the touch inputs of the user described may further include various other touch inputs in addition to the touch inputs described as illustratively described.
  • the tap is a light touch and release operation of the touch screen, which means a touch gesture such as a mouse click in a general personal computer.
  • dragging is an operation of releasing the touch screen after moving it to a specific position while maintaining a touch.
  • the object may be continuously moved and displayed according to the drag direction.
  • flicking refers to an operation of detaching a contact after moving in a specific direction (up, down, left, right, or diagonal) after touching the touch screen, and the user terminal 10 receives a touch input by flicking.
  • the specific operation is performed based on the flicking direction, the speed, and the like.
  • a page turning operation of an e-book may be performed based on the flicking direction.
  • the slide refers to an operation of moving to a specific position while maintaining a touch on the touch screen.
  • the user terminal 10 may process a specific operation based on a slide direction speed or the like. have. For example, a menu selection operation in proximity to the slide direction may be performed.
  • the press means an operation of continuously maintaining the touch for a predetermined time after touching the touch screen.
  • the multi-touch refers to an operation of simultaneously touching a plurality of points of the touch screen.
  • pinch-out refers to an operation of dragging a plurality of pointers in multi-touch away from each other. That is, drag means starting from at least one point among a plurality of points that are multi-touched on the touch screen, and a plurality of points that are multi-touched away from each other.
  • pinch-in refers to an operation of dragging a touch screen in a direction in which a plurality of pointers that are multi-touch are closer to each other. That is, drag means starting from at least one point among a plurality of points that are multi-touched on the touch screen and occurring in a direction in which the plurality of points that are multi-touch come closer to each other.
  • the user terminal 10 may communicate with the server 20 via the network (N).
  • the network N may include a local area network (LAN), a wide area network (WAN), a value added network (VAN), a personal local area network (PAN), a mobile communication network. It can be implemented in all kinds of wired / wireless networks such as mobile radio communication network (Wibro), wireless broadband Internet (Wibro), mobile WiMAX, high speed downlink packet access (HSDPA), or satellite communication network.
  • LAN local area network
  • WAN wide area network
  • VAN value added network
  • PAN personal local area network
  • a mobile communication network It can be implemented in all kinds of wired / wireless networks such as mobile radio communication network (Wibro), wireless broadband Internet (Wibro), mobile WiMAX, high speed downlink packet access (HSDPA), or satellite communication network.
  • Wibro mobile radio communication network
  • WiMAX wireless broadband Internet
  • HSDPA high speed downlink packet access
  • the server 20 may be a server to share the edited content with other user terminal, for example, the server 20 is a web that can provide a web service to the user terminal 10 or each of the other server It may be a server, or may be, for example, a portal site server or a server system of various web content providers such as a chat service providing server.
  • server 20 may implement a server-client system together with the user terminal 10 to support editing of content.
  • the server 20 as described above may be implemented as a group of server systems such as a load balancing server, a database server, including a web server.
  • the content editing apparatus 10 may edit text among contents.
  • the content editing apparatus 10 may move the text displayed through the interface or change the style (text, font size, text color, etc.) of the text.
  • the content editing apparatus 10 may receive a command for moving the text or changing the style of the text.
  • the content editing apparatus 10 may process the command for each letter constituting the entire text, or group the entire text into one group and process the command for the group.
  • the content editing apparatus 10 may move the text itself, move each letter constituting the text, change the style of the entire text, or change the style of each letter constituting the text.
  • FIG. 2 is a block diagram schematically showing the configuration of a content editing apparatus 10 according to an embodiment of the present invention.
  • the content editing apparatus 10 may include a text input unit 210, a text specifying unit 220, an image specifying unit 230, a layer display unit 240, a user input detecting unit 250, and an editing unit ( 260, a content transmission execution unit 270, and a confirmation input receiver 280.
  • a text input unit 210 may include a text input unit 210, a text specifying unit 220, an image specifying unit 230, a layer display unit 240, a user input detecting unit 250, and an editing unit ( 260, a content transmission execution unit 270, and a confirmation input receiver 280.
  • an editing unit 260, a content transmission execution unit 270, and a confirmation input receiver 280.
  • the text input unit 210 adds text to content based on a user input.
  • the text input unit 210 may add text to content based on a user input input through an input device such as a mouse, a keyboard, and a touch screen.
  • the text specifying unit 220 specifies at least a part of the text included in the content based on a user input.
  • the text specifying unit 220 may specify text based on a user input input through the input device.
  • the image specifying unit 230 specifies at least some of the images included in the content based on the user input.
  • the image specifying unit 230 may specify an image based on a user input input through the input device.
  • the layer display unit 240 adds and displays a layer on at least a portion of the screen where the content is displayed, that is, the display.
  • the user input detector 250 may detect a user input performed on a layer.
  • the user input detector 250 may detect a touch input performed on a portion on which a layer is displayed on a touch screen on which a layer is displayed.
  • the editing unit 260 edits the text specified by the text specifying unit 220 based on the user input detected by the user input detecting unit 250.
  • the editing unit 260 may display the edited text on the layer.
  • the editing unit 260 may display the text by enlarging or reducing the size of the specified text according to the size of the layer.
  • the editor 260 edits the text to generate a text image by mapping a motion corresponding to the user input with the text.
  • the editor 260 may use the user input performed on the layer in the user input sensor to generate the text image, but is not limited to the user inputs performed on the layer.
  • the text image generated by the editing unit 260 may have one of a static image, a dynamic image, and a video.
  • the editing unit 260 may detect another user input corresponding to another motion in the user input detecting unit 250. In this case, the editing unit 260 may generate the changed text image by mapping the text included in the already generated text image with another motion. Thus, the text image may change if there is a user input with a different motion.
  • the editing unit 260 may generate a text image to which various additional functions are applied. For example, the editor 260 may insert various backgrounds into the background portion of the text in the text image. The editor 260 may change the style of the text or add text effects (text having shadows, etc.). In addition, the editing unit 260 may synthesize a text image and a sound (music, effect sound, voice).
  • the editing unit 260 when the user input detecting unit 250 detects a flicking input in a transverse direction to the layer, gradually moves the specified text according to the direction of the flicking input. I can display it. At this time, if the user input detection unit 250 detects a slide input on the layer while the specified text is gradually moving, the editing unit 260 gradually moves the specified text according to the direction in which the slide input is performed. And can be displayed.
  • the editing unit 260 enlarges the layer and displays the specified text according to the direction of the drag input. It can be displayed by moving it in the range of the enlarged layer.
  • the editing unit 260 may gradually move each character included in the specified text from the top of the layer to the bottom of the layer and gradually move each character that has reached the bottom to the opposite direction by a predetermined range. have.
  • the editing unit 260 may gradually display each character included in the specified text by sequentially moving the characters from the top to the bottom of the layer sequentially, and randomly moving each letter gradually from the top of the layer to the bottom. Can also be displayed.
  • the editing unit 260 if the user input detection unit 250 detects a press input for a predetermined time or more in the layer, the editing unit 260 gradually increments the layer and the specified text based on the press input time. It can be enlarged and displayed.
  • the editing unit 260 when the user input detection unit 250 detects the drag input in the vertical direction by multi-touching the layer, the editing unit 260 enlarges the layer according to the direction of the drag input, The rendered text can be displayed in three dimensions on an enlarged layer.
  • the editing unit 260 displays the stereoscopic text in the direction in which the flicking input is performed. It can be displayed by moving gradually.
  • the text is added to the content based on a user input, and the user input detector 250 selects and inputs any one of the provided texts.
  • the editing unit 260 may match the style of the text added through the text input unit 210 with the style of the selected provided text.
  • the provided text may be provided by the server that provided the content together with the content, or may be provided by a server other than the server that provided the content.
  • the provided text may be text that is pre-stored in the content editing apparatus 10. In this case, when the text is added by the text specifying unit 220 and the user input is detected by the user input detecting unit 250, the editing unit 260 edits the added text based on the detected user input. Can be displayed on the layer.
  • the editing unit 260 adds the specified image. Text can be displayed together in a layer.
  • the editer 260 may gradually increase the size of the added text and display the same on the layer.
  • the content transmission performing unit 270 performs the transmission of content including the text edited by the editing unit 260.
  • the content transmission execution unit 270 may transmit the content to a separate server, or request the server to transmit the content including the edited text to a separate terminal.
  • the server may be a server providing content, or may be a separate server provided for communication.
  • the confirmation input receiver 280 may receive a confirmation input of the content on which the transmission was performed.
  • the confirmation input receiver 280 may receive a signal generated based on the confirmation of the content transmitted from the specific terminal.
  • the user of the terminal receiving the content transmitted by the content transmitting unit 270 may generate a confirmation input signal by touching the received content.
  • the generated confirmation input signal may be received by the confirmation input receiver 280 through the server or directly.
  • the server may be a server providing content, or may be a separate server provided for communication.
  • FIG 3 is a flowchart illustrating a content editing method according to an embodiment of the present invention
  • Figures 4 to 12 is an exemplary view for explaining a content editing method according to an embodiment of the present invention.
  • each image in each of FIGS. 4 to 12 illustrates the appearance of the user terminal 10 through an interface (for example, a touch screen).
  • 4 to 12 mainly describe each embodiment of the content editing method.
  • the content is limited to being content for chatting.
  • the present invention is not limited thereto, and the present invention can be applied to other kinds of contents.
  • the content editing apparatus 10 determines whether to add text to the content (S301).
  • the content editing apparatus 10 may add text to content based on a user input.
  • the content editing apparatus 10 may add text to content based on a user input input through an input device such as a mouse, a keyboard, and a touch screen. In this way, the content editing apparatus 10 may use not only text already included in the content but also text added according to a user input for editing.
  • the content editing apparatus 10 When the text is added according to a user input, the content editing apparatus 10 includes the added text in the content and displays it (S303).
  • the content editing apparatus 10 specifies the text in the content (S305).
  • the content editing apparatus 10 specifies at least some of the text included in the content based on the user input.
  • the content editing apparatus 10 may specify the text based on a user input input through the input device.
  • the content editing apparatus 10 adds and displays a layer in at least a portion of the area on the screen where the content is displayed (S307).
  • the layer may be displayed in a semi-transparent form.
  • the present invention is not limited thereto, and the present invention may be applied even when the layer is displayed in any other form.
  • the content editing apparatus 10 detects a user input performed on the layer in operation S309. According to an embodiment of the present invention, the content editing apparatus 10 may detect a touch input performed on a layer.
  • the content editing apparatus 10 edits and displays the specified text on the layer based on a user input performed on the layer (S311).
  • the content editing apparatus 10 will edit and display the specified text with reference to FIGS. 4 to 12.
  • FIG. 4 when the content editing apparatus 10 receives a user input for text specification, the content editing apparatus 10 adds and displays a layer to the content.
  • FIG. 4A illustrates that the user specifies the text by touching an area in which the specific text is displayed in the displayed content.
  • 4 (b) shows that a layer is added to the content and displayed.
  • the text specification and the layer addition display may be equally applied to the following embodiments, and thus the description of the text specification and the layer addition display will be omitted.
  • the content editing apparatus 10 may move the text as shown in FIG. 4C. have.
  • the moving direction of the text may be based on the direction of the flicking input.
  • the content editing apparatus 10 may gradually move and display text.
  • the content editing apparatus 10 when the user inputs a slide to the layer while moving the text, gradually moves and displays the moving text according to the direction in which the slide input is performed. can do.
  • each letter constituting the text when the user inputs a slide command to move up and down, each letter constituting the text may be moved according to the up and down move command.
  • each of the letters constituting the text may move within the text moving area.
  • the content editing apparatus 10 when the content editing apparatus 10 detects a motion according to a vertical drag input to a layer, the content editing apparatus 10 may enlarge the layer according to the direction of the drag input. In addition, the content editing apparatus 10 may move and display the text in a range of an enlarged layer, as shown in FIGS. 5C and 5D.
  • the content editing apparatus 10 gradually displays each character included in the text by gradually moving it from the top to the bottom of the layer, and as shown in FIG. Each character that reaches the bottom end may be displayed by gradually moving in the opposite direction by a predetermined range.
  • the content editing apparatus 10 may gradually display each character included in the specified text by sequentially moving the characters from the top to the bottom of the layer sequentially, and randomly moving each character from the top of the layer to the bottom of the layer. It can also be moved and displayed.
  • a user specifies text
  • a user inputs a press input for a predetermined time or more to a layer.
  • the content editing apparatus 10 may gradually enlarge and display the layer and the text displayed on the layer based on the press input time, as shown in FIG. 6C.
  • the content editing apparatus 10 when the user specifies the text and the user performs a longitudinal drag input with a multi touch on the layer, the content editing apparatus ( Referring to (b) of FIG. 7, the layer is enlarged according to the direction of the drag input, and as shown in (c) of FIG. It can be changed to the text of and displayed. In this case, the content editing apparatus 10 may enlarge the text according to the size of the enlarged layer.
  • the content editing apparatus 10 when the user performs a flicking input in a specific direction on the enlarged layer, gradually increases the stereoscopic text according to the direction in which the flicking input is performed. Can be moved and displayed.
  • (d) of FIG. 7 illustrates that the stereoscopic text gradually moves from the bottom of the layer to the top of the layer.
  • a user may add text to content based on a user input.
  • text may be added in a form of inputting text into a text input window.
  • the user may select one of the provided texts as shown in FIG. 8B.
  • the content editing apparatus 10 may change the content of the added text as shown in FIG. 8D.
  • the style can be displayed by matching the style of the selected provided text.
  • the provided text may be provided by the server that provided the content together with the content, or may be provided by a server other than the server that provided the content.
  • the provided text may be text that is pre-stored in the content editing apparatus 10.
  • the added text may be equally applied to the above-described embodiment.
  • the content editing apparatus 10 may enlarge the added text based on a user input as shown in FIG. 9B. It may be gradually moved as shown in FIG. 9 (c), or may be displayed in three dimensions as shown in FIG. 9 (d).
  • an image may be specified in the content.
  • the content editing apparatus 10 displays the image. And added text can be displayed together in layers. Subsequently, when the user performs a pinch-out input to the layer as illustrated in FIG. 10C, the content editing apparatus 10 gradually increases the size of the added text as illustrated in FIG. 10D. Can be displayed on the layer. Although not shown, by the user's pinch-in input, the content editing apparatus 10 may gradually reduce the size of the added text and display it on the layer.
  • the content editing apparatus 10 may cause the edited text to disappear on the screen.
  • the content editing apparatus 10 may cause the edited text to disappear on the screen based on the confirmation input received through the specific terminal.
  • the content editing apparatus 10 may transmit the content including the edited text.
  • the content editing apparatus 10 may transmit the content to a separate server, or may request the server to transmit the content including the edited text to a separate terminal.
  • the server may be a server providing content, or may be a separate server provided for communication.
  • the text edited by the content editing apparatus 10 may be displayed on the screen of the terminal receiving the content transmitted by the content editing apparatus 10.
  • the content editing apparatus 10 may receive a confirmation input of the content on which the transmission is performed.
  • the content editing apparatus 10 may receive a signal generated based on the confirmation of the content transmitted from the specific terminal.
  • the terminal receiving the content may generate a confirmation input or may cause the server that sent the content to generate a confirmation input.
  • the content editing apparatus 10 may cause the edited text to disappear on the screen.
  • the content editing apparatus 10 disappears as the edited text is blurred after a predetermined time as shown in the upper part of FIG. 11 (b), or before the deformed text is transformed as shown in the lower part of FIG. It can be converted into text and displayed.
  • the edited text may disappear as shown at the bottom of FIG. 12.
  • the content editing apparatus 10 may not only make the edited text disappear on the screen of the content editing apparatus 10 but also make it disappear on the screen of the terminal that has received the content.
  • the content editing method may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by the computer.
  • Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
  • Computer readable media may include both computer storage media and communication media.
  • Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
  • Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.
  • the content editing method may be implemented as a computer program (or computer program product) including instructions executable by a computer.
  • the computer program includes programmable machine instructions processed by the processor and may be implemented in a high-level programming language, an object-oriented programming language, an assembly language, or a machine language.
  • the computer program may also be recorded on tangible computer readable media (eg, memory, hard disks, magnetic / optical media or solid-state drives, etc.).
  • the content editing method may be implemented by executing the computer program as described above by the computing device.
  • the computing device may include at least a portion of a processor, a memory, a storage device, a high speed interface connected to the memory and a high speed expansion port, and a low speed interface connected to the low speed bus and the storage device.
  • a processor may include at least a portion of a processor, a memory, a storage device, a high speed interface connected to the memory and a high speed expansion port, and a low speed interface connected to the low speed bus and the storage device.
  • Each of these components are connected to each other using a variety of buses and may be mounted on a common motherboard or otherwise mounted in a suitable manner.
  • the processor may process instructions within the computing device, such as to display graphical information for providing a graphical user interface (GUI) on an external input, output device, such as a display connected to a high speed interface. Instructions stored in memory or storage. In other embodiments, multiple processors and / or multiple buses may be used with appropriately multiple memories and memory types.
  • the processor may also be implemented as a chipset consisting of chips comprising a plurality of independent analog and / or digital processors.
  • the memory also stores information within the computing device.
  • the memory may consist of a volatile memory unit or a collection thereof.
  • the memory may consist of a nonvolatile memory unit or a collection thereof.
  • the memory may also be other forms of computer readable media, such as, for example, magnetic or optical disks.
  • the storage device can provide a large amount of storage space to the computing device.
  • the storage device may be a computer readable medium or a configuration including such a medium, and may include, for example, devices or other configurations within a storage area network (SAN), and may include a floppy disk device, a hard disk device, an optical disk device, Or a tape device, flash memory, or similar other semiconductor memory device or device array.
  • SAN storage area network
  • the present invention can be applied to a content editing apparatus having a function of editing a content for displaying text by adding a layer to a screen on which content is displayed and displaying the edited text on the displayed layer in various ways. There is a possibility.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 콘텐츠 편집 장치 및 방법에 관한 것이다. 본 발명의 제1 측면에 따르면, 콘텐츠 편집 장치는 콘텐츠에 포함된 텍스트에 대한 선택 입력에 기초하여 텍스트를 특정하는 텍스트 특정부, 상기 콘텐츠가 표시된 화면에서 적어도 일부의 영역에 레이어를 추가시켜 표시하는 레이어 표시부, 표시된 레이어에 수행된 사용자 입력을 감지하는 사용자 입력 감지부, 특정된 텍스트를 상기 사용자 입력에 기초하여 편집하여 상기 레이어에 표시하는 편집부를 포함하여 사용자에게 콘텐츠에 포함된 텍스트를 직관적이고 간단하게 편집할 수 있게 한다.

Description

콘텐츠 편집 장치 및 편집 방법
본 발명은 콘텐츠 편집 장치 및 방법에 관한 것이다. 특히 본 발명은 콘텐츠의 텍스트를 편집하는 장치 및 방법에 관한 것이다.
오늘날 기술의 발전에 따라 사람들은 휴대폰, PMP, PDA 등의 이동 단말 및 데스크탑 등의 고정 단말을 이용하여 다양한 작업을 수행하고 있다.
또한 이러한 단말(termial)은 기능이 다양화됨에 따라 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재상, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(multimedia player) 형태로 구현되고 있다.
특히 단말은 외부의 콘텐츠 제공 서버를 통해 제공된 또는 자신에게 기 저장된 콘텐츠를 외부의 디스플레이 장치 또는 자신의 디스플레이에 재생하거나, 실행시키는 형태로 사용자에게 콘텐츠를 제공하고 있다.
이렇게 콘텐츠를 제공하는 단말과 관련된 종래의 기술로는 한국공개특허 10-2012-0005153이 있다.
그러나 종래의 단말은 단순히 제공되거나 저장된 콘텐츠를 제공하기만 할 뿐, 이것을 수정 및 변형할 수 없는 문제점이 있었다.
따라서 근래에는 이러한 문제점을 해결할 수 있는 장치 및 방법이 요구되고 있는 실정이다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명의 일실시예는 콘텐츠 편집 장치 및 편집 방법을 제시하는 데에 목적이 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따르면, 콘텐츠 편집 장치는 콘텐츠에 포함된 텍스트에 대한 선택 입력에 기초하여 텍스트를 특정하는 텍스트 특정부, 상기 콘텐츠가 표시된 화면에서 적어도 일부의 영역에 레이어를 추가시켜 표시하는 레이어 표시부, 표시된 레이어에 수행된 사용자 입력을 감지하는 사용자 입력 감지부 및 특정된 텍스트를 상기 사용자 입력에 기초하여 편집하여 상기 레이어에 표시하는 편집부를 포함한다.
본 발명의 제 2 측면에 따르면, 콘텐츠에 포함된 텍스트에 대한 선택 입력에 기초하여 텍스트를 특정하는 텍스트 특정부, 상기 콘텐츠가 표시된 화면에서 적어도 일부의 영역에 레이어를 추가시켜 표시하는 레이어 표시부, 표시된 레이어에 수행된 사용자 입력을 감지하는 사용자 입력 감지부, 및 상기 사용자 입력에 대응되는 모션을 상기 특정된 텍스트와 매핑시켜 텍스트 이미지를 생성하고, 생성된 텍스트 이미지를 표시하는 편집부를 포함하고, 상기 텍스트 이미지는 상기 사용자 입력과 다른 모션을 갖는 사용자 입력에 의해 변경 가능하다.
본 발명의 제 3 측면에 따르면, 콘텐츠 편집 장치가 콘텐츠를 편집하는 방법은 콘텐츠에 포함된 텍스트에 대한 선택 입력에 기초하여 텍스트를 특정하는 단계, 상기 콘텐츠가 표시된 화면에서 적어도 일부의 영역에 레이어를 추가시켜 표시하는 단계, 표시된 레이어에 수행된 사용자 입력을 감지하는 단계 및 특정된 텍스트를 상기 사용자 입력에 기초하여 편집하여 상기 레이어에 표시하는 단계를 포함한다.
본 발명의 제 4 측면에 따르면, 본 발명은 콘텐츠 편집 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체이며, 상기 콘텐츠 편집 방법은 콘텐츠에 포함된 텍스트에 대한 선택 입력에 기초하여 텍스트를 특정하는 단계, 상기 콘텐츠가 표시된 화면에서 적어도 일부의 영역에 레이어를 추가시켜 표시하는 단계, 표시된 레이어에 수행된 사용자 입력을 감지하는 단계 및 특정된 텍스트를 상기 사용자 입력에 기초하여 편집하여 상기 레이어에 표시하는 단계를 포함한다.
본 발명의 제 5 측면에 따르면, 본 발명은 콘텐츠 편집 장치에 의해 수행되며, 콘텐츠 편집 방법을 수행하기 위한 기록매체이며, 상기 콘텐츠 편집 방법은 콘텐츠에 포함된 텍스트에 대한 선택 입력에 기초하여 텍스트를 특정하는 단계, 상기 콘텐츠가 표시된 화면에서 적어도 일부의 영역에 레이어를 추가시켜 표시하는 단계, 표시된 레이어에 수행된 사용자 입력을 감지하는 단계 및 특정된 텍스트를 상기 사용자 입력에 기초하여 편집하여 상기 레이어에 표시하는 단계를 포함한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 발명의 일실시예는 콘텐츠 편집 장치 및 콘텐츠 편집 방법을 제시할 수 있다.
또한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 콘텐츠에 포함된 텍스트를 편집할 수 있다.
또한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 콘텐츠가 표시된 화면에 레이어를 추가하여 표시시키고, 표시된 레이어에 편집된 텍스트를 표시하여 다양한 방식으로 텍스트를 표시할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일실시예에 따른 콘텐츠 편집 시스템의 구성을 개략적으로 도시한 구성도이다.
도 2는 본 발명의 일실시예에 따른 콘텐츠 편집 장치의 구성을 개략적으로 도시한 블록도이다.
도 3은 본 발명의 일실시예에 따른 콘텐츠 편집 방법을 설명하기 위한 흐름도이다.
도 4 내지 도 12는 본 발명의 일실시예에 따른 콘텐츠 편집 방법을 설명하기 위한 예시도이다.
본 발명의 실시를 위한 최선의 형태를 보여주는 도면은 도 1이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 콘텐츠 편집 시스템(100)의 구성을 개략적으로 도시한 구성도이다.
즉 도 1에서 도시된 바와 같이, 본 발명의 일실시예에 따른 콘텐츠 편집 시스템(100)은 사용자 단말(10)을 포함한다.
사용자 단말(10)은 콘텐츠를 사용자가 편집할 수 있도록 하는 인터페이스를 제공하는 프로그램이 설치될 수 있다. 이때 프로그램은 본 발명의 일실시예에 따른 콘텐츠 편집 방법이 구현된 것으로, 상기 프로그램이 설치된 사용자 단말(10)은 독립적으로 본 발명의 일실시예에 따른 콘텐츠 편집 방법에 따라 동작할 수 있으며, 또한 서버(20)와 일군의 서버-클라이언트 시스템으로서 구현되어 본 발명의 일실시예에 따른 콘텐츠 편집 방법에 따라 동작할 수 있다.
관련하여 '콘텐츠'는 디지털방식으로 제작되어 유통/편집되는 각종 정보를 의미하며, 예를 들어, 텍스트, 이미지(정적 이미지 및 동적 이미지 포함) 및 동영상 등을 포함한다. 여기서, 정적 이미지는 사진과 같은 형태의 변화되지 않는 고정된 형태의 이미지일 수 있고, 동적 이미지는 이미지의 크기 또는 모양 중 적어도 일부가 변형되거나, 이미지 내 객체 중 적어도 일부가 변화하는 형태의 이미지일 수 있다. 또한 '콘텐츠'는 제공되는 기능에 따라 채팅 콘텐츠, 동영상 콘텐츠, SNS 콘텐츠를 포함할 수도 있다.
이와 같은 사용자 단말(10)은 사용자와 인터렉션을 가능하게 하는 인터페이스를 포함하는 전자 단말기 상에 구현될 수 있다.
여기서 전자 단말기는, 예를 들어, 네트워크(N)를 통해 원격지의 서버에 접속하거나, 타 단말 및 서버와 연결 가능한 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device), 비접촉식 제어장치 등으로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant),GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일 WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 단말과 연결될 수 있다.
한편 사용자 단말(10)은 유무선 통신 모듈, 디스플레이, 키보드 및 마우스 등의 입력장치, 터치 센서 및 제어 장치 등을 포함할 수 있다.
사용자 단말(10)은 콘텐츠를 디스플레이에 출력시킬 수 있다.
한편 디스플레이가 및 터치 센서가 상호 레이어 구조를 이루거나 일체형으로 형성되는 경우(이하,'터치 스크린'이라 함)에, 디스플레이는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가지는 경우 디스플레이에 적층되어 레이어 구조를 형성할 수도 있고, 상기 디스플레이의 구성에 포함시켜 일체형으로 이루어질 수 있다.
터치 센서는 디스플레이의 특정 부위에 가해진 압력 또는 디스플레이의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어 장치로 전송한다. 이로써, 제어 장치는 디스플레이의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
사용자의 터치 입력은 사용자의 모션, 즉 동작에 따라 탭(tap), 드래그(drag), 플리킹(flicking), 슬라이드(slide), 프레스(press), 멀티 터치(multi touch), 핀치 아웃(pinch out), 및 핀치 인(pinch in) 등을 포함할 수 있다. 여기서, 설명된 사용자의 터치 입력들은 예시적으로 설명된 것으로 설명된 터치 입력들 이외의 다양한 다른 터치 입력들을 추가로 포함할 수 있다.
본 명세서에서 탭은 터치 스크린을 가볍게 한번 눌렀다 떼는 동작으로, 일반 퍼스널 컴퓨터에서의 마우스의 클릭과 같은 터치 제스처를 의미한다.
또한, 드래그는 터치 스크린을 터치를 유지한 상태에서 특정 위치로 이동한 후 떼는 동작으로, 객체를 드래그하는 경우, 해당 객체는 드래그 방향에 따라 지속적으로 이동하여 표시될 수도 있다.
또한, 플리킹은 터치 스크린을 터치한 후 특정 방향(상, 하, 좌, 우 또는 대각선)으로 이동 후 접점을 떼는 동작을 의미하며, 사용자 단말(10)은 플리킹에 의해 터치 입력이 수신되면, 플리킹 방향, 속도 등을 토대로 특정 동작의 처리를 수행한다. 예를 들어, 플리킹 방향을 토대로 전자 책(e-book)의 페이지 넘김 동작을 수행할 수 있다.
또한, 슬라이드는 터치 스크린에 터치를 유지한 상태에서 특정 위치로 이동하는 동작을 의미하며, 사용자 단말(10)은 슬라이드에 의해 터치 입력이 수신되면, 슬라이드 방향 속도 등을 토대로 특정 동작을 처리할 수 있다. 예를 들어, 슬라이드 방향을 토대로 근접해 있는 메뉴 선택 동작을 수행할 수 있다.
또한, 프레스는 터치 스크린을 터치 후 기 설정된 시간 이상 지속적으로 터치를 유지하는 동작을 의미한다.
또한, 멀티 터치는 터치 스크린의 복수의 지점을 동시에 터치하는 동작을 의미한다.
또한, 핀치 아웃은 터치 스크린을 멀티 터치 중인 복수의 포인터가 서로 멀어지는 방향으로 드래그하는 동작을 의미한다. 즉, 터치 스크린에서 멀티 터치되는 복수의 지점 중 적어도 하나의 지점으로부터 시작되고, 멀티 터치되는 복수의 지점이 서로 멀어지는 방향으로 발생하는 드래그를 의미한다.
이와 반대로 핀치 인은 터치 스크린을 멀티 터치 중인 복수의 포인터가 서로 가까워지는 방향으로 드래그하는 동작을 의미한다. 즉, 터치 스크린에서 멀티 터치되는 복수의 지점 중 적어도 하나의 지점으로부터 시작되고, 멀티 터치 되는 복수의 지점이 서로 가까워지는 방향으로 발생하는 드래그를 의미한다.
한편, 사용자 단말(10)은 네트워크(N)를 통해 서버(20)와 통신할 수 있다.
이때 네트워크(N)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 개인 근거리 무선통신(Personal Area Network; PAN), 이동 통신망(mobile radio communication network), Wibro(Wireless Broadband Internet), Mobile WiMAX, HSDPA(High Speed Downlink Packet Access) 또는 위성 통신망 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.
반면 서버(20)는 편집된 콘텐츠를 타 사용자 단말과 공유할 수 있도록 하는 서버일 수 있으며, 예를 들어 서버(20)는 사용자 단말(10) 또는 다른 서버 각각으로 웹 서비스를 제공할 수 있는 웹서버 일 수 있으며, 또는 예를 들어, 포털 사이트 서버이거나, 채팅 서비스 제공 서버 등 다양한 웹 콘텐츠 프로바이더의 서버 시스템일 수 있다.
또한 서버(20)는 사용자 단말(10)과 함께 서버-클라이언트 시스템을 구현하여 콘텐츠의 편집을 지원할 수 있다.
상술된 바와 같은 서버(20)는 웹서버를 포함하여 로드밸런싱 서버, 데이터베이스 서버 등 일군의 서버 시스템으로 구현될 수도 있다.
다음은 도 2를 참조하여 본 발명의 실시예에 따른 콘텐츠 편집 장치에 대해서 설명한다. 또한 위에서 설명한 사용자 단말(10)을 콘텐츠 편집 장치로 하여 설명하도록 한다.
본 발명의 일실시예에 콘텐츠 편집 장치(10)는 콘텐츠 중 텍스트를 편집할 수 있다.
즉, 콘텐츠 편집 장치(10)는 인터페이스를 통해 표시되는 텍스트를 이동시키거나, 텍스트의 스타일(글자체, 글자크기, 및 글자색 입체감 등)을 변경시킬 수 있다.
먼저 콘텐츠 편집 장치(10)는 텍스트의 이동, 또는 텍스트의 스타일 변경을 위한 명령을 수신할 수 있다.
그에 따라 콘텐츠 편집 장치(10)는 전체 텍스트를 구성하는 글자 각각에 대해 명령을 처리하거나, 전체 텍스트를 1개의 그룹으로써 그룹핑하고 상기 그룹에 대해 명령을 처리할 수 있다.
즉, 콘텐츠 편집 장치(10)는 텍스트 그 자체의 이동, 텍스트를 구성하는 글자 각각을 이동시키거나, 또는, 텍스트 전체의 스타일을 변경하거나, 텍스트를 구성하는 글자 각각의 스타일을 변경할 수 있다.
도 2 본 발명의 일실시예에 따른 콘텐츠 편집 장치(10)의 구성을 개략적으로 도시한 블록도이다.
본 발명의 실시예에 따른 콘텐츠 편집 장치(10)는 텍스트 입력부(210), 텍스트 특정부(220), 이미지 특정부(230), 레이어 표시부(240), 사용자 입력 감지부(250), 편집부(260), 콘텐츠 전송 수행부(270) 및 확인 입력 수신부(280)를 포함한다. 그러나 도 2에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 콘텐츠 편집 장치(10)가 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
본 발명의 실시예에 따른, 텍스트 입력부(210)는 사용자 입력에 기초하여 콘텐츠에 텍스트를 추가한다. 텍스트 입력부(210)는 마우스, 키보드 및 터치 스크린 등의 입력 장치를 통해 입력된 사용자 입력에 기초하여 콘텐츠에 텍스트를 추가할 수 있다.
본 발명의 실시예에 따른, 텍스트 특정부(220)는 콘텐츠에 포함된 텍스트 중 적어도 일부를 사용자 입력에 기초하여 특정한다. 텍스트 특정부(220)는 입력 장치를 통해 입력된 사용자 입력에 기초하여 텍스트를 특정할 수 있다.
본 발명의 실시예에 따른, 이미지 특정부(230)는 콘텐츠에 포함된 이미지 중 적어도 일부를 사용자 입력에 기초하여 특정한다. 이미지 특정부(230)는 입력 장치를 통해 입력된 사용자 입력에 기초하여 이미지를 특정할 수 있다.
본 발명의 실시예에 따른, 레이어 표시부(240)는 콘텐츠가 표시된 화면 즉 디스플레이에서 적어도 일부의 영역에 레이어를 추가시켜 표시한다.
본 발명의 실시예에 따른, 사용자 입력 감지부(250)는 레이어에 수행된 사용자 입력을 감지할 수 있다. 예를 들어 사용자 입력 감지부(250)는 레이어가 표시된 터치 스크린 상에서, 레이어가 표시된 부분에 수행된 터치 입력을 감지할 수도 있다.
본 발명의 실시예에 따른, 편집부(260)는 텍스트 특정부(220)에 의해 특정된 텍스트를 사용자 입력 감지부(250)에서 감지된 사용자 입력에 기초하여 편집한다. 또한 편집부(260)는 편집된 텍스트를 레이어에 표시할 수 있다. 이때 편집부(260)는 레이어의 크기에 따라 특정된 텍스트의 크기를 확대하거나 축소시켜 텍스트를 표시할 수 도 있다.
그리고, 편집부(260)는 텍스트를 사용자 입력에 대응되는 모션을 텍스트와 매핑시켜 텍스트 이미지를 생성하도록 편집한다. 이때, 텍스트 이미지 생성을 위해 편집부(260)는 사용자 입력 감지부에서 레이어에 수행된 사용자 입력을 이용할 수 있지만, 레이어에 수행된 사용자 입력들로만 한정되지는 않는다. 그리고, 편집부(260)에서 생성된 텍스트 이미지는 정적 이미지, 동적 이미지, 및 동영상 중 하나의 형태를 가질 수 있다.
또한, 편집부(260)는 텍스트 이미지가 생성된 후에 사용자 입력 감지부(250)에서 다른 모션에 대응되는 다른 사용자 입력을 감지할 수 있다. 이때, 편집부(260)는 이미 생성된 텍스트 이미지에 포함된 텍스트를 다른 모션과 매핑시켜 변경된 텍스트 이미지를 생성할 수 있다. 따라서, 텍스트 이미지는 다른 모션을 갖는 사용자 입력이 존재하면, 변경될 수 있다.
한편, 편집부(260)는 다양한 부가 기능이 적용된 텍스트 이미지를 생성할 수 있다. 예를 들면, 편집부(260)는 텍스트 이미지 내에서 텍스트의 배경 부분에 다양한 배경을 삽입할 수 있다. 편집부(260)는 텍스트의 스타일을 변경하거나, 텍스트 효과(그림자를 갖는 텍스트 등)를 추가할 수 있다. 또한, 편집부(260)는 텍스트 이미지와 사운드(음악, 효과음, 음성)를 합성할 수도 있다.
아래에서는 사용자 입력 감지부(250) 및 편집부(260)의 텍스트 편집에 대해서 예를 들어 설명한다.
본 발명의 일 실시예에 따르면, 사용자 입력 감지부(250)가 레이어에 횡방향의 플리킹 입력을 감지하면, 편집부(260)는 플리킹 입력의 방향에 따라, 특정된 텍스트를 점진적으로 이동시켜 표시할 수 있다. 이때, 사용자 입력 감지부(250)가 특정된 텍스트가 점진적으로 이동하는 중, 상기 레이어에 슬라이드 입력을 감지하면, 편집부(260)는 슬라이드 입력이 수행된 방향에 따라, 특정된 텍스트를 점진적으로 움직이며 표시할 수 있다.
본 발명의 또 다른 실시예에 따르면, 사용자 입력 감지부(250)가 레이어에 종방향의 드래그 입력을 감지하면, 편집부(260)는 드래그 입력의 방향에 따라, 레이어를 확대시키고, 특정된 텍스트를 확대된 레이어의 범위에서 이동시켜 표시할 수 있다.
또한 이때 편집부(260)는 특정된 텍스트에 포함된 문자 각각을 레이어의 최상단에서 최하단으로 점진적으로 이동시켜 표시하고, 최하단에 도달한 문자 각각을 소정의 범위만큼 반대방향으로 점진적으로 이동시켜 표시할 수도 있다. 이때 편집부(260)는 특정된 텍스트에 포함된 문자 각각을 앞에 문자부터 순차적으로 레이어의 최상단에서 최하단으로 점진적으로 이동시켜 표시할 수도 있으며, 무작위로 문자 각각을 레이어의 최상단에서 최하단으로 점진적으로 이동시켜 표시할 수도 있다.
본 발명의 또 다른 실시예에 따르면, 사용자 입력 감지부(250)가 레이어에 소정의 시간 이상의 프레스 입력을 감지하면, 편집부(260)는 프레스 입력 시간에 기초하여, 레이어와 특정된 텍스트를 점진적으로 확대시켜 표시할 수 있다.
본 발명의 또 다른 실시예에 따르면, 사용자 입력 감지부(250)가 레이어에 멀티 터치로 종방향의 드래그 입력을 감지하면, 편집부(260)는 드래그 입력의 방향에 따라, 레이어를 확대시키고, 특정된 텍스트를 확대된 레이어에 입체화시켜 표시할 수 있다. 또한 이때 사용자 입력 감지부(250)가 확대된 레이어에 특정된 텍스트를 입체화시켜 표시하는 중, 레이어에 플리킹 입력을 감지하면, 편집부(260)는 입체화된 텍스트를 플리킹 입력이 수행된 방향에 따라 점진적으로 움직이며 표시할 수 있다.
본 발명의 또 다른 실시예에 따르면, 텍스트 입력부(210)를 통해, 사용자 입력에 기초하여 상기 콘텐츠에 텍스트가 추가되고, 사용자 입력 감지부(250)가 기 제공된 제공 텍스트 중 어느 하나에 대한 선택 입력을 감지하면, 편집부(260)는 텍스트 입력부(210)를 통해 추가된 텍스트의 스타일을 선택된 제공 텍스트의 스타일과 일치시켜 표시할 수 있다. 이때 제공된 제공 텍스트는 콘텐츠를 제공한 서버가 콘텐츠와 함께 제공한 것일 수도 있으며, 콘텐츠를 제공한 서버 이외의 서버로부터 제공받은 것일 수도 있다. 본 발명의 또 다른 실시예에 따르면 제공된 제공 텍스트는 콘텐츠 편집 장치(10)에 기 저장되어 있는 텍스트일 수도 있다. 이때 텍스트 특정부(220)에 의해 추가된 텍스트가 된 특정되고, 사용자 입력 감지부(250)에 의해 사용자 입력이 감지된 경우, 편집부(260)는 감지된 사용자 입력에 기초하여 추가된 텍스트를 편집하여 레이어에 표시할 수 있다.
본 발명의 또 다른 실시예에 따르면, 이미지 특정부(230)를 통해 콘텐츠에 포함된 이미지가 특정되고, 텍스트 입력부(210)를 통해 텍스트가 추가된 경우, 편집부(260)는 특정된 이미지를 추가된 텍스트를 레이어에 함께 표시할 수 있다. 또한 이때, 사용자 입력 감지부(250)가 레이어에 핀치 아웃 입력을 감지하면, 편집부(260)는 추가된 텍스트의 크기를 점진적으로 증가시켜, 레이어에 표시할 수 있다.
본 발명의 실시예에 따른 콘텐츠 전송 수행부(270)는 편집부(260)에 의해 편집된 텍스트가 포함된 콘텐츠의 전송을 수행한다. 콘텐츠 전송 수행부(270)는 별도의 서버로 콘텐츠를 전송할 수도 있으며, 서버에게 별도의 단말로 편집된 텍스트가 포함된 콘텐츠를 전송할 것을 요청할 수도 있다. 이때 서버는 콘텐츠를 제공한 서버일 수도 있으며, 통신을 위해 구비된 별도의 서버일 수도 있다.
본 발명의 실시예에 따른 확인 입력 수신부(280)는 전송이 수행된 콘텐츠의 확인 입력을 수신할 수 있다. 콘텐츠 전송 수행부(270)가 특정 단말에 대해 콘텐츠 전송을 수행한 경우, 확인 입력 수신부(280)는 특정 단말에서 전송된 콘텐츠의 확인에 기초하여 발생된 신호를 수신할 수 있다.
구체적으로 콘텐츠 전송 수행부(270)에서 전송한 콘텐츠를 수신한 단말의 사용자는 수신된 콘텐츠를 터치하는 방식으로 확인 입력 신호를 발생시킬 수 있다. 발생된 확인 입력 신호는 서버를 통하거나 직접적으로 확인 입력 수신부(280)에 수신될 수도 있다. 이때 서버는 콘텐츠를 제공한 서버일 수도 있으며, 통신을 위해 구비된 별도의 서버일 수도 있다.
다음은 도 3 내지 도 12를 참조하여 본 발명의 실시예에 따른 콘텐츠 편집 방법을 설명한다.
도 3은 본 발명의 일실시예에 따른 콘텐츠 편집 방법을 설명하기 위한 흐름도이고, 도 4 내지 도 12는 본 발명의 일실시예에 따른 콘텐츠 편집 방법을 설명하기 위한 예시도이다.
특히 도 4 내지 도 12 각각에서의 각 이미지는 사용자 단말(10)의 인터페이스(예를 들어 터치 스크린)를 통해 나타나는 모습을 도시한 것이다. 도 4 내지 도 12는 콘텐츠 편집 방법에 관한 각 실시예를 위주로 서술한다. 또한 이하에서는 설명의 편의를 위해 콘텐츠가 채팅을 위한 콘텐츠인 것으로 한정하여 설명한다. 그러나 본 발명은 이에 한정되지 않고, 얼마든지 다른 종류의 콘텐츠에도 적용이 가능하다.
콘텐츠 편집 장치(10)는 콘텐츠에 텍스트의 추가 여부를 판단한다(S301). 콘텐츠 편집 장치(10)는 사용자 입력에 기초하여 콘텐츠에 텍스트를 추가할 수 있다. 콘텐츠 편집 장치(10)는 마우스, 키보드, 및 터치 스크린 등의 입력 장치를 통해 입력된 사용자 입력에 기초하여 콘텐츠에 텍스트를 추가할 수 있다. 이를 통해, 콘텐츠 편집 장치(10)는 콘텐츠에 이미 포함된 텍스트뿐만 아니라 사용자 입력에 따라 추가된 텍스트까지 편집에 이용할 수 있다.
콘텐츠 편집 장치(10)는 사용자 입력에 따라 텍스트가 추가된 경우 추가된 텍스트를 콘텐츠에 포함시켜 표시한다(S303).
콘텐츠 편집 장치(10)는 콘텐츠에서 텍스트를 특정한다(S305). 콘텐츠 편집 장치(10)는 콘텐츠에 포함된 텍스트 중 적어도 일부를 사용자 입력에 기초하여 특정한다. 콘텐츠 편집 장치(10)는 입력 장치를 통해 입력된 사용자 입력에 기초하여 텍스트를 특정할 수 있다.
콘텐츠 편집 장치(10)는 콘텐츠가 표시된 화면에서 적어도 일부의 영역에 레이어를 추가시켜 표시한다(S307). 도 4 내지 도 12에 도시된 바와 같이 레이어는 반 투명한 형태로 표시될 수도 있다. 그러나 본 발명은 이에 한정되지 않고, 얼마든지 다른 형태로 레이어가 표시된 경우에도 본 발명의 적용이 가능하다.
콘텐츠 편집 장치(10)는 레이어에 수행된 사용자 입력을 감지한다(S309). 본 발명의 일 실시예에 따르면 콘텐츠 편집 장치(10)는 레이어에 수행된 터치 입력을 감지할 수 있다.
콘텐츠 편집 장치(10)는 레이어에 수행된 사용자 입력에 기초하여 특정된 텍스트를 편집하여 레이어에 표시한다(S311).
이하에서는 도 4 내지 도 12를 참조하여 콘텐츠 편집 장치(10)가 특정된 텍스트를 편집하여 표시하는 것을 설명한다.
본 발명의 일 실시예에 따르면, 도 4에 도시된 바와 같이, 콘텐츠 편집 장치(10)가 텍스트 특정에 대한 사용자 입력을 수신하면, 콘텐츠 편집 장치(10)는 콘텐츠에 레이어를 추가시켜 표시한다. 도 4의 (a)에는 사용자가 표시된 콘텐츠에서 특정 텍스트가 표시된 영역을 터치하여 텍스트를 특정하는 것이 도시되어 있다. 또한 도 4의 (b)에는 콘텐츠에 레이어가 추가되어 표시된 것이 도시되어 있다. 이러한 텍스트 특정 및 레이어 추가 표시는 이하의 실시예에서도 동일하게 적용될 수 있어, 이하의 실시예에 대한 설명에서 텍스트 특정 및 레이어 추가 표시에 대한 설명은 생략한다.
또한 도 4의 (b)에 도시된 바와 같이 사용자가 레이어에 횡방향의 플리킹 입력을 수행하면, 콘텐츠 편집 장치(10)는 도 4의 (c)에 도시된 바와 같이, 텍스트를 이동시킬 수 있다. 이때 텍스트의 이동방향은 플리킹 입력의 방향에 기초할 수 있다. 또한 콘텐츠 편집 장치(10)는 텍스트를 점진적으로 이동시켜 표시할 수 있다. 이때 도 4의 (d)에 도시된 바와 같이 텍스트 이동 중 사용자가 레이어에 슬라이드 입력을 수행하면, 콘텐츠 편집 장치(10)는 슬라이드 입력이 수행된 방향에 따라, 이동 중인 텍스트를 점진적으로 움직이며 표시할 수 있다. 특히 도 4의 (d)에 도시된 바와 같이, 사용자가 위아래 이동하는 슬라이드 명령을 입력하면, 텍스트를 구성하는 글자 각각은 상기 위아래 이동 명령에 따라 각각 이동할 수 있다.
본 발명의 또 다른 실시예에 따르면, 5의 (a)에서 도시된 바와 같이, 사용자가 텍스트를 특정하고, 도 5의 (b)와 같이 텍스트의 이동영역을 설정하면, 도 5의 (c) 및 (d)에서 도시된 바와 같이, 텍스트 이동영역 이내에서 텍스트를 구성하는 글자 각각이 이동할 수 있다.
구체적으로 도 5의 (b)와 같이, 콘텐츠 편집 장치(10)가 레이어에 종방향의 드래그 입력에 따른 모션을 감지하면, 드래그 입력의 방향에 따라, 레이어를 확대시킬 수 있다. 또한 콘텐츠 편집 장치(10)는 도 5의 (c) 및 (d)와 같이, 텍스트를 확대된 레이어의 범위에서 이동시켜 표시할 수 있다.
콘텐츠 편집 장치(10)는 도 5의 (c)에 도시된 바와 같이, 텍스트에 포함된 문자 각각을 레이어의 최상단에서 최하단으로 점진적으로 이동시켜 표시하고, 도 5(d)에 도시된 바와 같이, 최하단에 도달한 문자 각각을 소정의 범위만큼 반대방향으로 점진적으로 이동시켜 표시할 수 도 있다. 이때 콘텐츠 편집 장치(10)는 특정된 텍스트에 포함된 문자 각각을 앞에 문자부터 순차적으로 레이어의 최상단에서 최하단으로 점진적으로 이동시켜 표시할 수도 있으며, 무작위로 문자 각각을 레이어의 최상단에서 최하단으로 점진적으로 이동시켜 표시할 수도 있다.
본 발명의 또 다른 일실시예에 따르면, 도 6의 (a)에서 도시된 바와 같이, 사용자가 텍스트를 특정하고, 도 6의 (b)에 도시된 바와 같이 레이어에 소정의 시간 이상의 프레스 입력을 수행하면, 콘텐츠 편집 장치(10)는 도 6의 (c)에 도시된 바와 같이, 프레스 입력 시간에 기초하여, 레이어와 레이어에 표시된 텍스트를 점진적으로 확대시켜 표시할 수 있다.
본 발명의 또 다른 일실시예에 따르면, 도7의 (a)에서 도시된 바와 같이, 사용자가 텍스트를 특정하고, 사용자가 레이어에 멀티 터치로 종방향의 드래그 입력을 수행하면, 콘텐츠 편집 장치(10)는 도7의 (b)에 도시된 바와 같이, 드래그 입력의 방향에 따라, 레이어를 확대시키고, 도 7의 (c)에 도시된 바와 같이, 텍스트를 확대된 레이어에 입체화, 즉 3차원의 텍스트로 변경시켜 표시할 수 있다. 이때 콘텐츠 편집 장치(10)는 텍스트를 확대된 레이어의 크기에 따라 확대시킬 수도 있다. 또한 도 7의 (d)에 도시된 바와 같이, 사용자가 확대된 레이어에 특정 방향의 플리킹 입력을 수행하면, 콘텐츠 편집 장치(10)는 입체화된 텍스트를 플리킹 입력이 수행된 방향에 따라 점진적으로 움직이며 표시할 수 있다. 특히 도 7의 (d)에는 입체화된 텍스트가 레이어의 하단에서 상단으로 점진적으로 이동하는 것이 도시되어 있다.
본 발명의 또 다른 실시예에 따르면, 도 8의 (a)에 도시된 바와 같이, 사용자는 사용자 입력에 기초하여 콘텐츠에 텍스트를 추가할 수 있다. 특히 채팅 콘텐츠의 경우, 별도로 텍스트 입력창에 텍스트를 입력하는 형태로 텍스트를 추가할 수도 있다.
이후 사용자는 도 8의 (b)에 도시된 바와 같이 기 제공된 제공 텍스트 중 어느 하나에 대한 선택을 수행할 수 있다. 이후 사용자가 도 8의 (c)에 도시된 바와 같이 확인 입력(채팅에서 전송 버튼 선택)을 수행하는 경우, 콘텐츠 편집 장치(10)는 도 8의 (d)에 도시된 바와 같이 추가된 텍스트의 스타일을 선택된 제공 텍스트의 스타일과 일치시켜 표시할 수 있다. 이때 제공된 제공 텍스트는 콘텐츠를 제공한 서버가 콘텐츠와 함께 제공한 것일 수도 있으며, 콘텐츠를 제공한 서버 이외의 서버로부터 제공받은 것일 수도 있다. 본 발명의 또 다른 실시예에 따르면 제공된 제공 텍스트는 콘텐츠 편집 장치(10)에 기 저장되어 있는 텍스트 일 수도 있다.
한편 추가된 텍스트는 위에서 언급한 실시예가 동일하게 적용될 수 있다. 구체적으로 도 9의 (a)에 도시된 바와 같이 텍스트가 특정되면, 콘텐츠 편집 장치(10)는 사용자 입력에 기초하여 추가된 텍스트를 도 9의 (b)에 도시된 바와 같이 확대 시킬 수도 있으며, 도 9의 (c)에 도시된 바와 같이 점진적으로 이동시킬 수도 있고, 도 9의 (d)에 도시된 바와 같이 입체화시켜 표시할 수도 있다.
본 발명의 또 다른 실시예에 따르면, 콘텐츠에서 이미지를 특정할 수 있다. 도 10의 (a)에 도시된 바와 같이, 사용자가 콘텐츠 상에서 이미지를 특정하고, 도 10의 (b)에 도시된 바와 같이 텍스트에 대한 추가 입력을 수신한 경우, 콘텐츠 편집 장치(10)는 이미지와 추가된 텍스트를 함께 레이어에 표시할 수 있다. 이후 도 10의 (c)에 도시된 바와 같이 사용자가 레이어에 핀치 아웃 입력을 수행하면, 콘텐츠 편집 장치(10)는 도 10의 (d)에 도시된 바와 같이 추가된 텍스트의 크기를 점진적으로 증가시켜, 레이어에 표시할 수 있다. 도시되지는 않았지만, 사용자의 핀치 인 입력에 의해, 콘텐츠 편집 장치(10)는 추가된 텍스트의 크기를 점진적으로 감소시켜, 레이어에 표시할 수도 있다.
본 발명의 또 다른 일 실시예에 따르면, 콘텐츠 편집 장치(10)는, 편집된 텍스트가 화면 상에서 사라지게 할 수 있다. 예를 들어 콘텐츠 편집 장치(10)는 특정 단말을 통해 수신된 확인 입력에 기초하여 편집된 텍스트를 화면 상에서 사라지게 할 수 있다.
구체적으로 설명하면, 콘텐츠 편집 장치(10) 편집된 텍스트가 포함된 콘텐츠의 전송을 수행할 수 있다. 콘텐츠 편집 장치(10)는 별도의 서버로 콘텐츠를 전송할 수도 있으며, 서버에게 별도의 단말로 편집된 텍스트가 포함된 콘텐츠를 전송할 것을 요청할 수도 있다. 이때 서버는 콘텐츠를 제공한 서버일 수도 있으며, 통신을 위해 구비된 별도의 서버일 수도 있다.
콘텐츠 편집 장치(10)가 전송한 콘텐츠를 수신한 단말의 화면에는 도 11의 (a) 및 도 12 에 도시된 바와 같이, 콘텐츠 편집 장치(10)에서 편집한 텍스트가 표시될 수도 있다.
이후 콘텐츠 편집 장치(10)는 전송이 수행된 콘텐츠의 확인 입력을 수신할 수 있다. 콘텐츠 편집 장치(10)가 특정 단말에 대해 콘텐츠 전송을 수행한 경우, 콘텐츠 편집 장치(10)는 특정 단말에서 전송된 콘텐츠의 확인에 기초하여 발생된 신호를 수신할 수 있다.
예를 들어 도 11의 (a)에 도시된 바와 같이 편집된 텍스트를 포함한 콘텐츠를 수신한 단말의 사용자가 편집된 텍스트에 대하여 터치 입력 등의 선택 입력을 하는 경우, 또는 도 12에 도시된 바와 같이 콘텐츠를 수신한 단말이 편집된 텍스트를 읽었다고 판단되는 경우, 콘텐츠를 수신한 단말은 확인 입력을 발생시키거나, 콘텐츠를 발송한 서버에게 확인 입력을 발생시키도록 할 수 있다.
이후 확인 입력이 콘텐츠 편집 장치(10)에 수신되면, 콘텐츠 편집 장치(10) 편집된 텍스트가 화면 상에서 사라지게 할 수 있다. 예를 들어 콘텐츠 편집 장치(10)는 도 11의 (b)의 상단과 같이 일정시간 경과 후 편집된 텍스트가 흐려지면서 사라지거나, 도 11의 (b)의 하단과 같이 상기 변형된 텍스트가 변형 이전의 텍스트로 변환되어 표시될 수 있다.
또한 도 12의 하단에 도시된 바와 같이 편집된 텍스트를 사라지게 할 수 있다. 콘텐츠 편집 장치(10)는 편집된 텍스트를 콘텐츠 편집 장치(10)의 화면상에서 사라지게 할 수 있을 뿐 아니라, 콘텐츠를 수신한 단말의 화면에서도 사라지게 할 수도 있다.
본 발명의 일실시예에 따른 콘텐츠 편집 방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
또한 본 발명의 일실시예에 따르는 콘텐츠 편집 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다.
따라서 본 발명의 일실시예에 따르는 콘텐츠 편집 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
본 발명은 콘텐츠가 표시된 화면에 레이어를 추가하여 표시시키고, 표시된 레이어에 편집된 텍스트를 표시하여 다양한 방식으로 텍스트를 표시하기 위해 콘텐츠를 편집하는 기능을 갖는 콘텐츠 편집 장치에 적용될 수 있음으로 산업상 이용 가능성이 있다.

Claims (20)

  1. 콘텐츠에 포함된 텍스트에 대한 선택 입력에 기초하여 텍스트를 특정하는 텍스트 특정부;
    상기 콘텐츠가 표시된 화면에서 적어도 일부의 영역에 레이어를 추가시켜 표시하는 레이어 표시부;
    표시된 레이어에 수행된 사용자 입력을 감지하는 사용자 입력 감지부; 및
    특정된 텍스트를 상기 사용자 입력에 기초하여 편집하여 상기 레이어에 표시하는 편집부를 포함하는, 콘텐츠 편집 장치.
  2. 콘텐츠에 포함된 텍스트에 대한 선택 입력에 기초하여 텍스트를 특정하는 텍스트 특정부;
    상기 콘텐츠가 표시된 화면에서 적어도 일부의 영역에 레이어를 추가시켜 표시하는 레이어 표시부;
    표시된 레이어에 수행된 사용자 입력을 감지하는 사용자 입력 감지부; 및
    편집부는 상기 사용자 입력에 대응되는 모션을 상기 특정된 텍스트와 매핑시켜 텍스트 이미지를 생성하고, 생성된 텍스트 이미지를 표시하는 편집부를 포함하고,
  3. 상기 텍스트 이미지는 상기 사용자 입력과 다른 모션을 갖는 사용자 입력에 의해 변경 가능한, 콘텐츠 편집 장치.
    제2항에 있어서,
    상기 사용자 입력 감지부가,
    상기 레이어에 횡방향의 플리킹 입력을 감지하면,
    상기 편집부는,
    상기 플리킹 입력의 방향에 따라, 상기 특정된 텍스트를 점진적으로 이동시켜 표시하는, 콘텐츠 편집 장치.
  4. 제3항에 있어서,
    상기 사용자 입력 감지부가,
    상기 특정된 텍스트가 점진적으로 이동하는 중, 상기 레이어에 슬라이드 입력을 감지하면,
    상기 편집부는,
    상기 슬라이드 입력이 수행된 방향에 따라, 상기 텍스트를 점진적으로 움직이며 표시하는, 콘텐츠 편집 장치.
  5. 제2항에 있어서,
    상기 사용자 입력 감지부가,
    상기 레이어에 종방향의 드래그 입력을 감지하면,
    상기 편집부는,
    상기 드래그 입력의 방향에 따라, 상기 레이어를 확대시키고, 상기 특정된 텍스트를 확대된 레이어의 범위에서 이동시켜 표시하는, 콘텐츠 편집 장치.
  6. 제5항에 있어서,
    상기 편집부는,
    상기 특정된 텍스트에 포함된 문자 각각을 레이어의 최상단에서 최하단으로 점진적으로 이동시켜 표시하고, 최하단에 도달한 문자 각각을 소정의 범위만큼 반대방향으로 점진적으로 이동시켜 표시하는, 콘텐츠 편집 장치.
  7. 제2항에 있어서,
    상기 사용자 입력 감지부가,
    상기 레이어에 소정의 시간 이상의 프레스 입력을 감지하면,
    상기 편집부는,
    상기 프레스 입력 시간에 기초하여, 상기 레이어와 상기 특정된 텍스트를 점진적으로 확대시켜 표시하는, 콘텐츠 편집 장치.
  8. 제2항에 있어서,
    상기 사용자 입력 감지부가,
    상기 레이어에 멀티 터치로 종방향의 드래그 입력을 감지하면,
    상기 편집부는,
    상기 드래그 입력의 방향에 따라, 상기 레이어를 확대시키고, 상기 특정된 텍스트를 확대된 레이어에 입체화시켜 표시하는, 콘텐츠 편집 장치.
  9. 제8항에 있어서,
    상기 사용자 입력 감지부가,
    상기 확대된 레이어에 상기 특정된 텍스트를 입체화시켜 표시하는 중, 상기 레이어에 플리킹 입력을 감지하면,
    상기 편집부는,
    입체화된 텍스트를 상기 플리킹 입력이 수행된 방향에 따라 점진적으로 움직이며 표시하는, 콘텐츠 편집 장치.
  10. 제2항에 있어서,
    상기 콘텐츠 편집 장치는,
    사용자 입력에 기초하여 상기 콘텐츠에 텍스트를 추가하는 텍스트 입력부를 더 포함하고,
    상기 사용자 입력 감지부가,
    기 제공된 제공 텍스트 중 어느 하나에 대한 선택 입력을 감지하면,
    상기 편집부는,
    상기 텍스트 입력부를 통해 추가된 텍스트의 스타일을 선택된 제공 텍스트의 스타일과 일치시켜 표시하는, 콘텐츠 편집 장치.
  11. 제2항에 있어서,
    상기 콘텐츠 편집 장치는,
    콘텐츠에 포함된 이미지에 대한 선택 입력에 기초하여 이미지를 특정하는 이미지 특정부 및
    사용자 입력에 기초하여 상기 콘텐츠에 텍스트를 추가하는 텍스트 입력부를 더 포함하고,
    상기 편집부는, 상기 특정된 이미지를 추가된 텍스트를 상기 레이어에 함께 표시하는, 콘텐츠 편집 장치.
  12. 제11항에 있어서,
    상기 사용자 입력 감지부가,
    상기 레이어에 핀치 아웃 입력을 감지하면,
    상기 편집부는,
    상기 추가된 텍스트의 크기를 점진적으로 증가시켜, 상기 레이어에 표시하는, 콘텐츠 편집 장치.
  13. 제2항에 있어서,
    상기 텍스트 이미지는 정적 이미지, 동적 이미지, 및 동영상 중 하나의 형태를 갖는, 콘텐츠 편집 장치.
  14. 제2항에 있어서,
    상기 콘텐츠 편집 장치는,
    단말로 상기 편집부에 의해 편집된 텍스트가 포함된 콘텐츠의 전송을 수행하는 콘텐츠 전송 수행부; 및
    상기 단말로부터 상기 콘텐츠 전송 수행부가 전송한 콘텐츠의 확인 입력을 수신하는, 확인 입력 수신부를 더 포함하고,
    상기 편집부는, 상기 확인 입력이 수신되면, 상기 편집된 텍스트를 점진적으로 사라지게 하거나, 편집 이전의 텍스트로 변환시켜 표시하는, 콘텐츠 편집 장치.
  15. 제14항에 있어서,
    상기 단말로부터 수신된 확인 입력은,
    상기 단말에 표시된 상기 편집된 텍스트의 선택 입력에 기초하는, 콘텐츠 편집 장치.
  16. 콘텐츠 편집 장치가 콘텐츠를 편집하는 방법에 있어서,
    콘텐츠에 포함된 텍스트에 대한 선택 입력에 기초하여 텍스트를 특정하는 단계;
    상기 콘텐츠가 표시된 화면에서 적어도 일부의 영역에 레이어를 추가시켜 표시하는 단계;
    표시된 레이어에 수행된 사용자 입력을 감지하는 단계; 및
    특정된 텍스트를 상기 사용자 입력에 기초하여 편집하여 상기 레이어에 표시하는 단계를 포함하는, 콘텐츠 편집방법.
  17. 제16항에 있어서,
    상기 콘텐츠 편집 방법은,
    사용자 입력에 기초하여 상기 콘텐츠에 텍스트를 추가하는 단계;
    기 제공된 제공 텍스트 중 어느 하나에 대한 선택 입력을 감지하는 단계; 및
    추가된 텍스트의 스타일을 선택된 제공 텍스트의 스타일과 일치시켜 표시하는 단계를 더 포함하는 콘텐츠 편집 방법.
  18. 제16항에 있어서,
    상기 콘텐츠 편집 방법은,
    콘텐츠에 포함된 이미지에 대한 선택 입력에 기초하여 이미지를 특정하는 단계;
    사용자 입력에 기초하여 상기 콘텐츠에 텍스트를 추가하는 단계; 및
    상기 특정된 이미지를 추가된 텍스트를 상기 레이어에 함께 표시하는 단계를 더 포함하는 콘텐츠 편집 방법.
  19. 제16항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.
  20. 콘텐츠 편집 장치에 의해 수행되며, 제16항에 기재된 방법을 수행하기 위해 기록매체에 저장된 컴퓨터 프로그램.
PCT/KR2016/009583 2015-08-28 2016-08-29 콘텐츠 편집 장치 및 편집 방법 WO2017039257A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2015-0121667 2015-08-28
KR20150121667 2015-08-28
KR10-2016-0109791 2016-08-29
KR1020160109791A KR20170026272A (ko) 2015-08-28 2016-08-29 콘텐츠 편집 장치 및 편집 방법

Publications (1)

Publication Number Publication Date
WO2017039257A1 true WO2017039257A1 (ko) 2017-03-09

Family

ID=58187924

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/009583 WO2017039257A1 (ko) 2015-08-28 2016-08-29 콘텐츠 편집 장치 및 편집 방법

Country Status (1)

Country Link
WO (1) WO2017039257A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110014313A (ko) * 2009-08-05 2011-02-11 삼성전자주식회사 휴대용 단말기의 데이터 편집 장치 및 방법
JP2011209932A (ja) * 2010-03-29 2011-10-20 Ntt Docomo Inc 携帯端末及び携帯端末における文字列表現変更方法
KR20130127349A (ko) * 2012-05-14 2013-11-22 전남대학교산학협력단 문자화장단말기 및 제어방법
KR20140089143A (ko) * 2013-01-04 2014-07-14 삼성전자주식회사 전자 장치 및 그 동작 방법
KR20150080796A (ko) * 2014-01-02 2015-07-10 삼성전자주식회사 데이터 처리 방법 및 그 전자 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110014313A (ko) * 2009-08-05 2011-02-11 삼성전자주식회사 휴대용 단말기의 데이터 편집 장치 및 방법
JP2011209932A (ja) * 2010-03-29 2011-10-20 Ntt Docomo Inc 携帯端末及び携帯端末における文字列表現変更方法
KR20130127349A (ko) * 2012-05-14 2013-11-22 전남대학교산학협력단 문자화장단말기 및 제어방법
KR20140089143A (ko) * 2013-01-04 2014-07-14 삼성전자주식회사 전자 장치 및 그 동작 방법
KR20150080796A (ko) * 2014-01-02 2015-07-10 삼성전자주식회사 데이터 처리 방법 및 그 전자 장치

Similar Documents

Publication Publication Date Title
WO2014017790A1 (en) Display device and control method thereof
WO2014088355A1 (en) User terminal apparatus and method of controlling the same
WO2014107011A1 (en) Method and mobile device for displaying image
WO2016060501A1 (en) Method and apparatus for providing user interface
WO2015119485A1 (en) User terminal device and displaying method thereof
WO2015005605A1 (en) Remote operation of applications using received data
WO2014017722A1 (en) Display device for executing multiple applications and method for controlling the same
WO2014088310A1 (en) Display device and method of controlling the same
WO2018182279A1 (en) Method and apparatus for providing augmented reality function in electronic device
WO2015174612A1 (ko) 이동단말기 및 그 제어방법
WO2017111312A1 (en) Electronic device and method of managing application programs thereof
EP3105649A1 (en) User terminal device and displaying method thereof
WO2014196840A1 (en) Portable terminal and user interface method in portable terminal
WO2014098528A1 (en) Text-enlargement display method
KR20170026272A (ko) 콘텐츠 편집 장치 및 편집 방법
WO2015026099A1 (ko) 디스플레이 장치가 화면을 디스플레이 하는 방법 및 그 디스플레이 장치
WO2015005628A1 (en) Portable device for providing combined ui component and method of controlling the same
WO2015099300A1 (en) Method and apparatus for processing object provided through display
WO2016072678A1 (en) User terminal device and method for controlling user terminal device thereof
WO2013169051A1 (en) Method and apparatus for performing auto-naming of content, and computer-readable recording medium thereof
WO2015111926A1 (en) Electronic device and user interface display method for the same
KR20150051292A (ko) 컨텐츠 공유 방법 및 그 전자 장치
WO2020054978A1 (ko) 이미지 생성 장치 및 그 방법
WO2014126331A1 (en) Display apparatus and control method thereof
WO2014035123A1 (en) User terminal apparatus and contol method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16842223

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16842223

Country of ref document: EP

Kind code of ref document: A1