WO2018038586A1 - Method for generating text animation, and apparatus therefor - Google Patents

Method for generating text animation, and apparatus therefor Download PDF

Info

Publication number
WO2018038586A1
WO2018038586A1 PCT/KR2017/009388 KR2017009388W WO2018038586A1 WO 2018038586 A1 WO2018038586 A1 WO 2018038586A1 KR 2017009388 W KR2017009388 W KR 2017009388W WO 2018038586 A1 WO2018038586 A1 WO 2018038586A1
Authority
WO
WIPO (PCT)
Prior art keywords
text
animation
unit
generating
control unit
Prior art date
Application number
PCT/KR2017/009388
Other languages
French (fr)
Korean (ko)
Inventor
전수영
권지용
백진욱
Original Assignee
스타십벤딩머신 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스타십벤딩머신 주식회사 filed Critical 스타십벤딩머신 주식회사
Publication of WO2018038586A1 publication Critical patent/WO2018038586A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/40
    • G06Q50/50
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation

Definitions

  • Embodiments disclosed herein relate to a method and apparatus for generating text animation, and more particularly, to a method and apparatus for generating text animation based on text.
  • the terminal is diversified, the terminal is implemented in the form of a multimedia player having complex functions such as taking a picture or video, playing a music or video file, playing a game, and receiving a broadcast.
  • the terminal provides the content to the user in the form of playing or executing the content provided through the external content providing server or previously stored on the external display device or its own display.
  • Korean Patent Publication No. 10-2012-0005153 is disclosed.
  • the conventional terminal merely provides the provided or stored content, there is a problem that it is cumbersome to modify and modify this.
  • the background art described above is technical information that the inventors possess for the derivation of the present invention or acquired in the derivation process of the present invention, and is not necessarily a publicly known technique disclosed to the general public before the application of the present invention. .
  • Embodiments disclosed herein are intended to disclose a method and apparatus for generating text animation.
  • embodiments are intended to represent the text input in various situations, such as SNS or a messenger service as an animation.
  • Embodiments also aim to utilize text animation in a text editor such as a word processor.
  • Embodiments also aim to automatically generate kinetic typo or motion graphics art.
  • Embodiments also aim to generate text animations in accordance with music.
  • a text animation generating apparatus comprising a storage unit for storing an animation description and a controller for adding an animation to the text based on the description.
  • a text animation generating method is performed by a text animation generating apparatus, the method comprising: receiving information on text to which an animation is to be added and adding an animation to the text based on an animation description. do.
  • a computer-readable recording medium having recorded thereon a program for performing a method of generating a text animation is disclosed.
  • the text animation generating method is performed by the text animation generating apparatus, and may include receiving information on text to which the animation is to be added and adding an animation to the text based on the animation description.
  • a computer program performed by a text animation generating apparatus and stored in a medium for performing a text animation generating method is disclosed.
  • the method for generating a text animation may include receiving information on text to which the animation is to be added and adding an animation to the text based on the animation description.
  • the embodiments disclosed herein can disclose a method and apparatus for generating text animation.
  • embodiments may represent text input in various situations, such as SNS or a messenger service, by animation.
  • Embodiments may also utilize text animation in a text editor such as a word processor.
  • text typos can be applied to typos in text to indicate that a user can quickly recognize and correct typos.
  • embodiments may automatically generate kinetic typo or motion graphic art. Professionals can easily and quickly create kinetic typo or motion graphics created through difficult processes.
  • Embodiments also aim to generate text animations in accordance with music. For example, it is possible to easily and quickly create kinetic typo or motion graphic art in combination with background music. Extending this to music playback applications, you can output high-quality video, including kinetic typo or motion graphics, when playing music with lyrics.
  • FIG. 1 is a block diagram illustrating a configuration of an apparatus for generating text animation according to an embodiment.
  • FIGS. 2 and 3 are flowcharts illustrating a text animation generating method according to an exemplary embodiment.
  • 4 to 7 are diagrams for describing a text animation generating method according to an exemplary embodiment.
  • FIG. 1 is a block diagram illustrating a configuration of a text animation generating apparatus 100 according to an embodiment.
  • the text animation generating apparatus 100 is an apparatus for generating an animation based on text by adding an animation to the text.
  • the text may include various symbols that visually express human language or ideas such as letters, numbers, and symbols.
  • the text animation generating apparatus 100 may perform typography by dynamically moving the text or by adding a design element to the text.
  • the text animation generating apparatus 100 may be implemented as an electronic terminal or a server-client system in which an application for generating text animation is installed.
  • the text animation generating apparatus 100 may include an electronic terminal in which a client for interaction with a user is installed.
  • the server of the server-client system may be implemented as a computing device capable of communicating with a client-installed electronic terminal through a network, and may include a storage device capable of storing data or a third server (not shown). You can also store data.
  • the electronic terminal may include an interface for installing an application (program) for generating text animation and interacting with a user.
  • the electronic terminal described above may be implemented as a computer, a portable terminal, a television, a wearable device, or the like.
  • the computer includes, for example, a laptop, desktop, laptop, etc., which is equipped with a web browser
  • the portable terminal is, for example, a wireless communication device that ensures portability and mobility.
  • the television may include an Internet Protocol Television (IPTV), an Internet Television (Internet Television), a terrestrial TV, a cable TV, or the like.
  • IPTV Internet Protocol Television
  • Internet Television Internet Television
  • the wearable device is, for example, an information processing device of a type that can be worn directly on a human body such as a watch, glasses, accessories, clothes, shoes, etc., and is connected to a remote server or another terminal via a network directly or through another information processing device. It can be connected with.
  • the text animation generating apparatus 100 may include an input / output unit 110, a communication unit 120, a storage unit 130, and a controller 140.
  • the input / output unit 110 may include an input unit for receiving an input from a user, and an output unit for displaying information such as a result of performing a task or a state of the text animation generating device 100.
  • the input / output unit 110 may include an operation panel for receiving a user input and a display panel for displaying a screen.
  • the input unit may include devices capable of receiving various types of user input such as a keyboard, a physical button, a touch screen, a camera, or a microphone.
  • the output unit may include a display panel, a speaker or a headset.
  • the present invention is not limited thereto, and the input / output unit 110 may include a configuration that supports various input / output.
  • the input unit may receive or select text to add animation from the user.
  • the output unit may output the text to which the animation is applied.
  • the communication unit 120 may perform wired or wireless communication with another electronic terminal or a network.
  • the communication unit 120 may include a communication module supporting at least one of various wired and wireless communication methods.
  • the communication module may be implemented in the form of a chipset.
  • the wireless communication supported by the communication unit 120 may be, for example, wireless fidelity (Wi-Fi), Wi-Fi Direct, Bluetooth, UWB (Ultra Wide Band), or NFC (Near Field Communication).
  • the wired communication supported by the communication unit 120 may be, for example, USB or High Definition Multimedia Interface (HDMI).
  • the communication unit 120 may transmit and receive various data necessary for adding animation to text. For example, text to be added to an animation may be received from another electronic terminal.
  • the storage unit 130 may temporarily or permanently store data for generating an animation. For example, you can store an application to perform animation creation methods, and save input or selected text. You can also store animation descriptions. In this case, the 'animation description' refers to data including information describing an animation, such as a design and motion to be applied to text.
  • the storage unit 130 may include a solid state drive (SSD), flash memory (flash memory), magnetic random access memory (MRAM), phase change RAM (PRAM), ferroelectric RAM (FeRAM) hard disk, flash memory, and the like. It may also include synchronous random access memory (SRAM), dynamic random access memory (DRAM), and the like.
  • the controller 140 controls the overall operation of the text animation generating apparatus 100 and may include a processor such as a CPU.
  • the controller 140 may generate a text animation based on the text.
  • the arbitrary text may be based on text animation by receiving a part or all of the text inputted through the input unit from the user or previously generated and stored in the storage unit 130 by the user.
  • the text may be selected through the communication unit 120 according to an embodiment.
  • the controller 140 may 'layer' the text into unit elements in order to perform the text animation generating method.
  • 'layering' refers to dividing the text into unit elements including at least one of paragraphs, sentences, words, letters, letter strokes, and letter composition vertices.
  • the controller 140 may generate a tree structure by collecting the divided hierarchies. For example, by creating a tree structure with each unit element as a node, the hierarchical relationship of each hierarchy can be organized systematically.
  • the controller 140 may perform the following method to layer text.
  • the controller 140 may generate a mesh in a vector form based on the form of the text, and layer the text into unit elements based on the mesh.
  • a mesh of a vector form may be generated and layered based on a font of each letter.
  • the controller 140 may decompose the text into units such as letters, character strokes, and character constituent vertices based on the mesh.
  • controller 140 may decompose the special characters such as punctuation marks included in the text into special character units. Special characters can also be identified and layered in mesh units.
  • the controller 140 may decompose the text into morphemes and stratify the text into unit elements based on the decomposed morphemes. For example, in a sentence such as 'Cheol told Yeong-hee', it can be decomposed into the morpheme units of the proper nouns 'Cheol' and 'the subject'. That is, the controller 140 may decompose the 'retracts' and 's' into separate unit elements according to grammar, and generate a tree structure by classifying them into the same hierarchy, for example, a word hierarchy.
  • the controller 140 may apply animation based on the information on the grammar structure analyzed for each unit element, and the unit elements of the word hierarchy may be further unit elements of the lower hierarchy, for example, letters, letter strokes, vertices, and the like. It can also be decomposed into
  • the controller 140 may generate a text animation according to the animation description.
  • the animation description is data describing an animation to be applied to text, and the controller 140 may implement various types of animations according to the animation description.
  • the controller 140 may apply data included in the animation description to each layer.
  • the animation description may include separate data corresponding to each layer.
  • the detail unit of the description that is specifically applied to each layer of text is called hierarchical animation data.
  • the hierarchical animation data may include data for setting an animation to be applied to text for each hierarchical layer.
  • the types of data that hierarchical animation data included in the animation description can describe include translation, rotation, scale, shearing, 3D font, 3D font depth, and pivot position. It may include various values describing at least one of the design and motion of the text, such as a text color, an outline thickness, an outline color, a texture inside the text, and transparency.
  • controller 140 may employ various methods in setting an animation in a tree structure hierarchy.
  • the controller 140 may apply the above-described animation data to each unit element included in the corresponding text hierarchy. Also, different animation data can be applied to each layer.
  • the text animation may be generated by first applying the upper layer animation data and adding the lower layer animation data thereto.
  • the animation description may include setting of key framing, procedural modeling, physics simualation, etc. to determine the value of hierarchical animation data.
  • the key framing refers to a frame in each stationary state constituting the dynamic animation (as a representation unit of the animation, which may include at least one of text and unit elements of the text in the dynamic animation moving over time).
  • the position is stored in correspondence with the passage of time, and the motion between the positions of the frames in each stationary state is inferred to generate smooth movement.
  • procedural modeling refers to a modeling method for automatically generating a complex object based on an algorithm describing a deformation of a geometric shape. For example, it can be modeled according to an algorithm based on the fractal theory of geometry.
  • physics simulation refers to a task of predicting a physical change of a virtual object according to a predetermined physical law. For example, after applying a force to a virtual object to which physical properties such as mass are applied, a movement trajectory according to a predetermined physical law may be calculated.
  • the controller 140 may perform at least one of arithmetic operations such as addition, subtraction, multiplication, and division between hierarchical animation data values and coordinate system transformation operations between upper and lower hierarchies.
  • the obtained value can be applied to the text unit element of the upper-lower hierarchy.
  • the controller 140 can prevent the collision or contradiction between the hierarchical animation data by applying and obtaining values of the hierarchical animation data according to the above-described embodiment.
  • the animation description may include data for setting timing for applying animation between layers.
  • it may include data for setting the timing of animation in various formats, such as setting hierarchical animation data to be applied sequentially at 0.1 second intervals or randomly applying hierarchical animation data between 0.0 and 1.0 seconds. Can be.
  • the hierarchical animation data to be applied to the paragraph hierarchy may include a setting such that the position value of the paragraph starts at the left side of the screen and ends at the right side of the screen.
  • the controller 140 may additionally apply the text hierarchy animation data set to have a time difference for each letter included in the paragraph hierarchy, to the animation data of the above paragraph hierarchy.
  • the control unit 140 may set the position value of the paragraph to start at the left side of the screen and end at the right side of the screen, and to move each letter with a time difference of 0.05 second intervals.
  • the controller 140 applies an animation of moving from the left side of the screen to the right side of the paragraph layer, and for each letter layer that is a lower layer of the paragraph layer in the tree structure, each character moves with a time difference of 0.05 seconds.
  • Hierarchical animation data can be applied.
  • the apparatus for generating text animation 100 may provide a message transmission service for transmitting and receiving a message composed of text between users.
  • the message transmission service may include a text message service such as SMS, MMS, SNS service.
  • the controller 140 may add an animation to the text when transmitting and receiving the text between users.
  • the text animation generating apparatus 100 may provide a text editor such as a word processor.
  • the controller 140 may generate a text animation in a text editor.
  • text typos can be applied to text typos so that users can quickly recognize and correct typos.
  • the controller 140 may add animation to text based on music information. For example, the controller 140 may analyze music and add animation to text based on the analyzed music information.
  • the controller 140 may acquire the BPM of the music or receive the BPM of the music by analyzing the input sound source or the selected music. In this case, the controller 140 may generate a text animation according to the BPM of music. Alternatively, at least one of the size of the music, the change of the size of the music, the height of the music, and the change of the height of the music may be acquired from the input sound source, and text animation may be generated accordingly.
  • the controller 140 may output a text animation along with music playback.
  • a high-quality image may be output by providing a kinetic typo or a motion graphic using a text animation generated according to music information.
  • FIGS. 2 and 3 are flowcharts for describing a method for generating text animation according to embodiments.
  • the text animation generating method according to the embodiments shown in FIG. 2 and FIG. 3 includes steps that are processed in time series in the text animation generating device 100 shown in FIG. 1. Therefore, even if omitted below, the above description about the text animation generating apparatus 100 shown in FIG. 1 may be applied to the text animation generating method according to the embodiments shown in FIGS. 2 and 3.
  • the text animation generating apparatus 100 may receive information on text to which an animation is to be added (S21). For example, text may be input from a user or selected text may be selected. Alternatively, text to be added to the animation may be received from another electronic terminal.
  • the text animation generating apparatus 100 may add an animation to the text based on the animation description (S22).
  • the animation description may be temporarily or permanently stored in the text animation generating device 100 or may be received from another electronic terminal.
  • the text animation generating apparatus 100 may layer text into unit elements in operation S31.
  • the unit element may be layered into unit elements including at least one of a paragraph, a sentence, a word, a letter, a character stroke, and a letter constructing vertex.
  • a vector-type mesh may be generated based on the form of the text, and the text may be layered into unit elements such as letters, strokes, and vertices based on the mesh.
  • the text animation generating apparatus 100 may decompose the text into morphemes or the like according to the grammar and layer the text.
  • the text animation generating apparatus 100 may generate a tree structure by arranging the unit elements into a parent-child concept.
  • the text animation generating apparatus 100 may add an animation to a unit element (S32).
  • the animation description may include hierarchical animation data
  • the text animation generating apparatus 100 may generate text animation by applying hierarchical animation data for each layer. That is, the text animation generating apparatus 100 may generate text animation by applying hierarchical animation data to unit elements of the text based on the tree structure.
  • the text animation generating apparatus 100 may generate an animation by applying a calculation result of a data value included in hierarchical animation data to text.
  • the text animation generating apparatus 100 may generate text animation in the SNS service. For example, an animation may be added to text transmitted and received between users.
  • the text animation generating apparatus 100 may add an animation to text edited in a text editor.
  • the text animation generating apparatus 100 may receive music information and add animation to text based on the music information.
  • FIGS. 4 to 7 an exemplary diagram for describing a text animation generating method according to an embodiment is illustrated.
  • 4 to 7 are diagrams sequentially illustrating an embodiment of outputting an animation generated by the text animation generating apparatus 100 over time.
  • the text animation generating apparatus 100 receives a text “simply” from the user through the text input interface 401 and outputs the character “sim” 402.
  • the text animation generating apparatus 100 outputs the character “sim 402” and after a predetermined time passes, additionally outputs the character “kung 403” to display the text “sim kung”. Is outputting.
  • the text animation generating apparatus 100 outputs “simply” and after a predetermined time has elapsed, increases the size of the text and increases the transparency of the character “sim” 402. It is applied. Subsequently, in FIG.
  • the text animation generating apparatus 100 increases the transparency of the “sim 402” so as not to be output, increases the size of the text, and applies an animation to increase the transparency of the letter “kung 403”. Doing. As such, the text animation generating apparatus 100 may layer the text “Shim Kung” into the unit of letters “Shim” and “Kung”, and then apply hierarchical animation data to apply animation to each letter according to each timing. Can be.
  • the text animation generating apparatus 100 may automatically generate a kinetic typo or motion graphic art based on the text input or selected by the user. This makes it possible to quickly and easily create kinetic typo or motion graphics that professionals create through difficult processes.
  • ' ⁇ ' refers to software or a hardware component such as a field programmable gate array (FPGA) or an ASIC, and ' ⁇ ' serves a part.
  • ' ⁇ ' is not meant to be limited to software or hardware.
  • ' ⁇ Portion' may be configured to be in an addressable storage medium or may be configured to play one or more processors.
  • ' ⁇ ' means components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and the like. Subroutines, segments of program patent code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
  • the functionality provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or separated from additional components and 'parts'.
  • components and ' ⁇ ' may be implemented to play one or more CPUs in the device or secure multimedia card.
  • the text animation generating method may also be implemented in the form of a computer readable medium for storing instructions and data executable by a computer.
  • the command and data may be stored in the form of program code, and when executed by the processor, a predetermined program module may be generated to perform a predetermined operation.
  • computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
  • the computer readable medium may be a computer recording medium, which is volatile and non-implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
  • the computer recording medium may be a magnetic storage medium such as HDD and SSD, an optical recording medium such as CD, DVD and Blu-ray Disc, or a memory included in a server accessible through a network.
  • the method for generating text animation may be implemented as a computer program (or a computer program product) including instructions executable by a computer.
  • the computer program includes programmable machine instructions processed by the processor and may be implemented in a high-level programming language, an object-oriented programming language, an assembly language, or a machine language. .
  • the computer program may also be recorded on tangible computer readable media (eg, memory, hard disks, magnetic / optical media or solid-state drives, etc.).
  • the text animation generating method may be implemented by executing the computer program as described above by the computing device.
  • the computing device may include at least a portion of a processor, a memory, a storage device, a high speed interface connected to the memory and a high speed expansion port, and a low speed interface connected to the low speed bus and the storage device.
  • a processor may include at least a portion of a processor, a memory, a storage device, a high speed interface connected to the memory and a high speed expansion port, and a low speed interface connected to the low speed bus and the storage device.
  • Each of these components are connected to each other using a variety of buses and may be mounted on a common motherboard or otherwise mounted in a suitable manner.
  • the processor may process instructions within the computing device, such as to display graphical information for providing a graphical user interface (GUI) on an external input, output device, such as a display connected to a high speed interface. Instructions stored in memory or storage. In other embodiments, multiple processors and / or multiple buses may be used with appropriately multiple memories and memory types.
  • the processor may also be implemented as a chipset consisting of chips comprising a plurality of independent analog and / or digital processors.
  • the memory also stores information within the computing device.
  • the memory may consist of a volatile memory unit or a collection thereof.
  • the memory may consist of a nonvolatile memory unit or a collection thereof.
  • the memory may also be other forms of computer readable media, such as, for example, magnetic or optical disks.
  • the storage device can provide a large amount of storage space to the computing device.
  • the storage device may be a computer readable medium or a configuration including such a medium, and may include, for example, devices or other configurations within a storage area network (SAN), and may include a floppy disk device, a hard disk device, an optical disk device, Or a tape device, flash memory, or similar other semiconductor memory device or device array.
  • SAN storage area network

Abstract

Embodiments disclosed in the present specification relate to a method and an apparatus for generating a text animation and, more particularly, to a method and an apparatus for generating a text animation on the basis of text. As a technical means for achieving the technical task, one embodiment discloses an apparatus for generating a text animation, comprising: a storage unit for storing an animation description; and a control unit for adding an animation to text on the basis of the description.

Description

텍스트 애니메이션 생성 방법 및 그 장치Method and apparatus for generating text animation
본 명세서에서 개시되는 실시예들은 텍스트 애니메이션 생성 방법 및 장치에 관한 것으로, 보다 상세하게는 텍스트를 바탕으로 텍스트 애니메이션을 생성하는 방법 및 장치에 관한 것이다.Embodiments disclosed herein relate to a method and apparatus for generating text animation, and more particularly, to a method and apparatus for generating text animation based on text.
오늘날 기술의 발전에 따라 사람들은 휴대폰, PMP, PDA 등의 이동 단말 및 데스크탑 등의 고정 단말을 이용하여 다양한 작업을 수행하고 있다.Today, with the development of technology, people are performing various tasks using mobile terminals such as mobile phones, PMPs, PDAs, and fixed terminals such as desktops.
또한 이러한 단말(terminal)은 기능이 다양화됨에 따라 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재상, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(multimedia player) 형태로 구현되고 있다.In addition, as the terminal is diversified, the terminal is implemented in the form of a multimedia player having complex functions such as taking a picture or video, playing a music or video file, playing a game, and receiving a broadcast.
특히 단말은 외부의 콘텐츠 제공 서버를 통해 제공된 또는 자신에게 기 저장된 콘텐츠를 외부의 디스플레이 장치 또는 자신의 디스플레이에 재생하거나, 실행시키는 형태로 사용자에게 콘텐츠를 제공하고 있다.In particular, the terminal provides the content to the user in the form of playing or executing the content provided through the external content providing server or previously stored on the external display device or its own display.
이렇게 콘텐츠를 제공하는 단말과 관련된 종래의 기술로는 한국공개특허 제 10-2012-0005153호가 있다.As a related art related to a terminal providing content, Korean Patent Publication No. 10-2012-0005153 is disclosed.
그러나 종래의 단말은 단순히 제공되거나 저장된 콘텐츠를 제공하기만 할 뿐, 이것을 수정 및 변형하는 것이 번거롭다는 문제점이 있었다. However, the conventional terminal merely provides the provided or stored content, there is a problem that it is cumbersome to modify and modify this.
따라서 근래에는 이러한 문제점을 해결할 수 있는 장치 및 방법이 요구되고 있는 실정이다.Therefore, in recent years, there is a need for an apparatus and method for solving such a problem.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the background art described above is technical information that the inventors possess for the derivation of the present invention or acquired in the derivation process of the present invention, and is not necessarily a publicly known technique disclosed to the general public before the application of the present invention. .
본 명세서에서 개시되는 실시예들은, 텍스트 애니메이션 생성 방법 및 그 장치를 개시하는 데에 목적이 있다. Embodiments disclosed herein are intended to disclose a method and apparatus for generating text animation.
또한 실시예들은, SNS 또는 메신저 서비스 등 다양한 상황에서 입력되는 텍스트를 애니메이션으로 표현하는 데에 목적이 있다. In addition, embodiments are intended to represent the text input in various situations, such as SNS or a messenger service as an animation.
또한 실시예들은, 워드 프로세서 등 텍스트 편집기에서 텍스트 애니메이션을 활용하는 데에 목적이 있다. Embodiments also aim to utilize text animation in a text editor such as a word processor.
또한 실시예들은, 키네틱타이포 또는 모션그래픽 아트 등을 자동으로 생성하는 데에 목적이 있다. Embodiments also aim to automatically generate kinetic typo or motion graphics art.
또한 실시예들은, 음악에 맞춰 텍스트 애니메이션을 생성하는 데에 목적이 있다.Embodiments also aim to generate text animations in accordance with music.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 애니메이션 디스크립션을 저장하는 저장부 및 상기 디스크립션에 기초하여 텍스트에 애니메이션을 부가하는 제어부를 포함하는 텍스트 애니메이션 생성 장치가 개시된다.As a technical means for achieving the above-described technical problem, according to an embodiment, a text animation generating apparatus comprising a storage unit for storing an animation description and a controller for adding an animation to the text based on the description.
다른 실시예에 따르면, 텍스트 애니메이션 생성 장치가 수행하는 것으로서, 애니메이션을 부가할 텍스트에 대한 정보를 수신하는 단계 및 애니메이션 디스크립션에 기초하여 상기 텍스트에 애니메이션을 부가하는 단계를 포함하는 텍스트 애니메이션 생성 방법이 개시된다.According to another embodiment, a text animation generating method is performed by a text animation generating apparatus, the method comprising: receiving information on text to which an animation is to be added and adding an animation to the text based on an animation description. do.
또 다른 실시예에 따르면, 텍스트 애니메이션 생성 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체가 개시된다. 이때 텍스트 애니메이션 생성 방법은, 텍스트 애니메이션 생성 장치가 수행하는 것으로서, 애니메이션을 부가할 텍스트에 대한 정보를 수신하는 단계 및 애니메이션 디스크립션에 기초하여 상기 텍스트에 애니메이션을 부가하는 단계를 포함할 수 있다. According to yet another embodiment, a computer-readable recording medium having recorded thereon a program for performing a method of generating a text animation is disclosed. In this case, the text animation generating method is performed by the text animation generating apparatus, and may include receiving information on text to which the animation is to be added and adding an animation to the text based on the animation description.
또 다른 실시예에 따르면, 텍스트 애니메이션 생성 장치에 의해 수행되며, 텍스트 애니메이션 생성 방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램이 개시된다. 이때 텍스트 애니메이션 생성 방법은, 애니메이션을 부가할 텍스트에 대한 정보를 수신하는 단계 및 애니메이션 디스크립션에 기초하여 상기 텍스트에 애니메이션을 부가하는 단계를 포함할 수 있다.According to yet another embodiment, a computer program performed by a text animation generating apparatus and stored in a medium for performing a text animation generating method is disclosed. In this case, the method for generating a text animation may include receiving information on text to which the animation is to be added and adding an animation to the text based on the animation description.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 명세서에서 개시되는 실시예들은, 텍스트 애니메이션 생성 방법 및 그 장치를 개시할 수 있다. According to any one of the above-described problem solving means of the present invention, the embodiments disclosed herein can disclose a method and apparatus for generating text animation.
또한 실시예들은, SNS 또는 메신저 서비스 등 다양한 상황에서 입력되는 텍스트를 애니메이션으로 표현할 수 있다. In addition, embodiments may represent text input in various situations, such as SNS or a messenger service, by animation.
또한 실시예들은, 워드 프로세서 등 텍스트 편집기에서 텍스트 애니메이션을 활용할 수 있다. 예를 들면, 텍스트의 오탈자에 텍스트 애니메이션을 적용하여 사용자가 오탈자를 빠르게 인지하고 수정하도록 표시할 수 있다. Embodiments may also utilize text animation in a text editor such as a word processor. For example, text typos can be applied to typos in text to indicate that a user can quickly recognize and correct typos.
또한 실시예들은, 키네틱타이포 또는 모션그래픽 아트 등을 자동으로 생성할 수 있다. 전문가가 어려운 과정을 통해 만들어내는 키네틱타이포 또는 모션그래픽을 용이하고 빠르게 생성할 수 있다.Also, embodiments may automatically generate kinetic typo or motion graphic art. Professionals can easily and quickly create kinetic typo or motion graphics created through difficult processes.
또한 실시예들은, 음악에 맞춰 텍스트 애니메이션을 생성하는 데에 목적이 있다. 예를 들면, 배경 음악과 어우러진 키네틱타이포 또는 모션그래픽 아트를 용이하고 빠르게 생성할 수 있다. 이를 확장하여 음악 재생 애플리케이션에 활용하면, 가사가 포함된 음악을 재생할 때 키네틱타이포 또는 모션그래픽을 포함한 고급스러운 영상을 출력할 수 있다.Embodiments also aim to generate text animations in accordance with music. For example, it is possible to easily and quickly create kinetic typo or motion graphic art in combination with background music. Extending this to music playback applications, you can output high-quality video, including kinetic typo or motion graphics, when playing music with lyrics.
개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the disclosed embodiments are not limited to the effects mentioned above, and other effects not mentioned above are apparent to those skilled in the art to which the embodiments disclosed from the following description belong. Can be understood.
도 1은 일 실시예에 따른 텍스트 애니메이션 생성 장치의 구성을 도시한 블록도이다.1 is a block diagram illustrating a configuration of an apparatus for generating text animation according to an embodiment.
도 2 및 도 3은 일 실시예에 따른 텍스트 애니메이션 생성 방법을 설명하기 위한 순서도이다.2 and 3 are flowcharts illustrating a text animation generating method according to an exemplary embodiment.
도 4 내지 도 7은 일 실시예에 따른 텍스트 애니메이션 생성 방법을 설명하기 위한 예시도이다.4 to 7 are diagrams for describing a text animation generating method according to an exemplary embodiment.
아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings. The embodiments described below may be embodied in various different forms. In order to more clearly describe the features of the embodiments, detailed descriptions of the matters well known to those skilled in the art to which the following embodiments belong are omitted. In the drawings, parts irrelevant to the description of the embodiments are omitted, and like reference numerals designate like parts throughout the specification.
명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.Throughout the specification, when a configuration is "connected" to another configuration, this includes not only 'directly connected', but also 'connected with another configuration in the middle'. In addition, when a configuration "includes" a certain configuration, this means that, unless specifically stated otherwise, it may further include other configurations other than the other configuration.
이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings.
도 1은 일 실시예에 따른 텍스트 애니메이션 생성 장치(100)의 구성을 도시한 블록도이다. 1 is a block diagram illustrating a configuration of a text animation generating apparatus 100 according to an embodiment.
텍스트 애니메이션 생성 장치(100)는 텍스트에 애니메이션을 부가하여 텍스트에 기초한 애니메이션을 생성하는 장치로서, 이때, 텍스트는 문자, 숫자, 부호 등 인간의 언어 또는 관념을 시각적으로 표현한 각종 기호를 포함할 수 있다. 실시예에 따르면, 텍스트 애니메이션 생성 장치(100)는 텍스트를 동적으로 움직이게 하거나 텍스트에 디자인 요소를 가미하여 타이포그래피를 수행할 수 있다. The text animation generating apparatus 100 is an apparatus for generating an animation based on text by adding an animation to the text. In this case, the text may include various symbols that visually express human language or ideas such as letters, numbers, and symbols. . According to an embodiment, the text animation generating apparatus 100 may perform typography by dynamically moving the text or by adding a design element to the text.
또한, 텍스트 애니메이션 생성 장치(100)는 텍스트 애니메이션 생성을 위한 애플리케이션이 설치된 전자단말기 또는 서버-클라이언트 시스템으로 구현될 수 있다. In addition, the text animation generating apparatus 100 may be implemented as an electronic terminal or a server-client system in which an application for generating text animation is installed.
텍스트 애니메이션 생성 장치(100)가 서버-클라이언트 시스템으로 구현될 때, 텍스트 애니메이션 생성 장치(100)는 유저와의 인터랙션을 위한 클라이언트가 설치된 전자단말기를 포함할 수 있다. When the text animation generating apparatus 100 is implemented as a server-client system, the text animation generating apparatus 100 may include an electronic terminal in which a client for interaction with a user is installed.
이때 서버-클라이언트 시스템의 서버는, 클라이언트가 설치된 전자단말기와 네트워크를 통해 통신이 가능한 컴퓨팅장치로 구현될 수 있으며, 데이터를 저장할 수 있는 저장장치가 포함될 수 있거나 또는 제 3 의 서버(미도시)를 통해 데이터를 저장할 수도 있다.In this case, the server of the server-client system may be implemented as a computing device capable of communicating with a client-installed electronic terminal through a network, and may include a storage device capable of storing data or a third server (not shown). You can also store data.
한편 텍스트 애니메이션 생성 장치(100)가 전자단말기로 구현될 때, 상기 전자단말기는 텍스트 애니메이션 생성을 위한 애플리케이션(프로그램)이 설치되고, 유저와의 인터랙션이 가능한 인터페이스를 포함할 수 있다.Meanwhile, when the text animation generating apparatus 100 is implemented as an electronic terminal, the electronic terminal may include an interface for installing an application (program) for generating text animation and interacting with a user.
상술한 전자단말기는 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device) 등으로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop)등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일 WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 단말과 연결될 수 있다. The electronic terminal described above may be implemented as a computer, a portable terminal, a television, a wearable device, or the like. Here, the computer includes, for example, a laptop, desktop, laptop, etc., which is equipped with a web browser, and the portable terminal is, for example, a wireless communication device that ensures portability and mobility. , Personal Communication System (PCS), Personal Digital Cellular (PDC), Personal Handyphone System (PHS), Personal Digital Assistant (PDA), Global System for Mobile communications (GSM), International Mobile Telecommunication (IMT) -2000, Code CDMA Division Multiple Access (2000), all types of handhelds such as W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet (Wibro), Smart Phones, and Mobile Worldwide Interoperability for Microwave Access (WiMAX). It may include a (Handheld) based wireless communication device. In addition, the television may include an Internet Protocol Television (IPTV), an Internet Television (Internet Television), a terrestrial TV, a cable TV, or the like. Further, the wearable device is, for example, an information processing device of a type that can be worn directly on a human body such as a watch, glasses, accessories, clothes, shoes, etc., and is connected to a remote server or another terminal via a network directly or through another information processing device. It can be connected with.
텍스트 애니메이션 생성 장치(100)의 구체적인 구성은 도 1을 참고하여 설명한다. 도 1을 참고하면, 텍스트 애니메이션 생성 장치(100)는 입출력부(110), 통신부(120), 저장부(130) 및 제어부(140)를 포함할 수 있다.A detailed configuration of the text animation generating device 100 will be described with reference to FIG. 1. Referring to FIG. 1, the text animation generating apparatus 100 may include an input / output unit 110, a communication unit 120, a storage unit 130, and a controller 140.
일 실시예에 따르면, 입출력부(110)는 사용자로부터 입력을 수신하기 위한 입력부와, 작업의 수행 결과 또는 텍스트 애니메이션 생성 장치(100)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어, 입출력부(110)는 사용자 입력을 수신하는 조작 패널(operation panel) 및 화면을 표시하는 디스플레이 패널(display panel) 등을 포함할 수 있다.According to an embodiment, the input / output unit 110 may include an input unit for receiving an input from a user, and an output unit for displaying information such as a result of performing a task or a state of the text animation generating device 100. For example, the input / output unit 110 may include an operation panel for receiving a user input and a display panel for displaying a screen.
구체적으로, 입력부는 키보드, 물리 버튼, 터치 스크린, 카메라 또는 마이크 등과 같이 다양한 형태의 사용자 입력을 수신할 수 있는 장치들을 포함할 수 있다. 또한, 출력부는 디스플레이 패널, 스피커 또는 헤드셋 등을 포함할 수 있다. 다만, 이에 한정되지 않고 입출력부(110)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.In detail, the input unit may include devices capable of receiving various types of user input such as a keyboard, a physical button, a touch screen, a camera, or a microphone. In addition, the output unit may include a display panel, a speaker or a headset. However, the present invention is not limited thereto, and the input / output unit 110 may include a configuration that supports various input / output.
실시예에 따르면, 입력부는 사용자로부터 애니메이션을 부가할 텍스트를 입력 받거나, 선택 받을 수 있다. 또한, 출력부는 애니메이션이 적용된 텍스트를 출력할 수 있다. According to an embodiment, the input unit may receive or select text to add animation from the user. In addition, the output unit may output the text to which the animation is applied.
한편, 통신부(120)는 다른 전자단말기 또는 네트워크와 유무선 통신을 수행할 수 있다. 이를 위해, 통신부(120)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다.Meanwhile, the communication unit 120 may perform wired or wireless communication with another electronic terminal or a network. To this end, the communication unit 120 may include a communication module supporting at least one of various wired and wireless communication methods. For example, the communication module may be implemented in the form of a chipset.
이때 통신부(120)가 지원하는 무선 통신은, 예를 들어 Wi-Fi(Wireless Fidelity), Wi-Fi Direct, 블루투스(Bluetooth), UWB(Ultra Wide Band) 또는 NFC(Near Field Communication) 등일 수 있다. 또한, 통신부(120)가 지원하는 유선 통신은, 예를 들어 USB 또는 HDMI(High Definition Multimedia Interface) 등일 수 있다. In this case, the wireless communication supported by the communication unit 120 may be, for example, wireless fidelity (Wi-Fi), Wi-Fi Direct, Bluetooth, UWB (Ultra Wide Band), or NFC (Near Field Communication). In addition, the wired communication supported by the communication unit 120 may be, for example, USB or High Definition Multimedia Interface (HDMI).
실시예에 따르면, 통신부(120)는 텍스트에 애니메이션을 부가하기 위해 필요한 각종 데이터를 송수신할 수 있다. 가령, 애니메이션을 부가할 텍스트를 다른 전자단말기로부터 수신할 수 있다. According to an embodiment, the communication unit 120 may transmit and receive various data necessary for adding animation to text. For example, text to be added to an animation may be received from another electronic terminal.
한편, 저장부(130)는 애니메이션 생성을 위한 데이터를 임시 또는 영구적으로 저장할 수 있다. 가령 애니메이션 생성 방법을 수행하기 위한 애플리케이션을 저장할 수 있고, 입력 받거나 선택 받은 텍스트를 저장할 수 있다. 또한, 애니메이션 디스크립션을 저장할 수 있다. 이때 '애니메이션 디스크립션'은 텍스트에 적용할 디자인, 모션 등 애니메이션을 기술하는 정보를 포함하는 데이터를 말한다. The storage unit 130 may temporarily or permanently store data for generating an animation. For example, you can store an application to perform animation creation methods, and save input or selected text. You can also store animation descriptions. In this case, the 'animation description' refers to data including information describing an animation, such as a design and motion to be applied to text.
이때 저장부(130)는 SSD(solid state drive), 플래시 메모리 (flash memory), MRAM(magnetic random access memory), PRAM(phase change RAM), FeRAM(ferroelectric RAM) 하드디스크, 플래시 메모리 등을 포함할 수 있으며, SRAM(synchronous random access memory), DRAM(dynamic random access memory)등을 포함할 수도 있다.The storage unit 130 may include a solid state drive (SSD), flash memory (flash memory), magnetic random access memory (MRAM), phase change RAM (PRAM), ferroelectric RAM (FeRAM) hard disk, flash memory, and the like. It may also include synchronous random access memory (SRAM), dynamic random access memory (DRAM), and the like.
한편, 제어부(140)는 텍스트 애니메이션 생성 장치(100)의 전체적인 동작을 제어하며, CPU 등과 같은 프로세서를 포함할 수 있다. The controller 140 controls the overall operation of the text animation generating apparatus 100 and may include a processor such as a CPU.
실시예에 따르면 제어부(140)는 임의의 텍스트가 주어졌을 때, 이에 기초하여 텍스트 애니메이션을 생성할 수 있다. 이때 임의의 텍스트는 사용자로부터 입력부를 통해 입력 받거나 기 생성되어 저장부(130)에 저장되어 있던 텍스트의 일부 또는 전부를 사용자로부터 선택 받음으로써 텍스트 애니메이션의 기초로 삼을 수 있다. 또한, 텍스트의 선택은 실시예에 따라 통신부(120)를 통해 이루어질 수도 있다. According to an embodiment, when the arbitrary text is given, the controller 140 may generate a text animation based on the text. At this time, the arbitrary text may be based on text animation by receiving a part or all of the text inputted through the input unit from the user or previously generated and stored in the storage unit 130 by the user. In addition, the text may be selected through the communication unit 120 according to an embodiment.
또한, 제어부(140)는 텍스트 애니메이션 생성 방법을 수행하기 위해 텍스트를 단위 요소로 '계층화'할 수 있다. 여기서 '계층화'란, 텍스트를 문단, 문장, 단어, 글자, 글자획, 글자 구성 정점 중 적어도 하나를 포함하는 단위 요소로 분할하는 것을 말한다. 이때 제어부(140)는, 분할된 각 계층을 취합하여 트리 구조를 생성할 수 있다. 예를 들어, 각 단위 요소를 노드로 하여 트리 구조를 생성함으로써 각 계층의 상하관계를 조직적으로 정리할 수 있다. In addition, the controller 140 may 'layer' the text into unit elements in order to perform the text animation generating method. Here, 'layering' refers to dividing the text into unit elements including at least one of paragraphs, sentences, words, letters, letter strokes, and letter composition vertices. In this case, the controller 140 may generate a tree structure by collecting the divided hierarchies. For example, by creating a tree structure with each unit element as a node, the hierarchical relationship of each hierarchy can be organized systematically.
실시예에 따르면, 제어부(140)는 텍스트를 계층화하기 위하여 다음과 같은 방법을 수행할 수 있다. 우선 제어부(140)는 텍스트의 형태에 기초하여 벡터 형태의 메쉬를 생성하고, 메쉬에 기초하여 텍스트를 단위 요소로 계층화할 수 있다. 예를 들어, 각 글자의 폰트에 기초하여 벡터 형태의 메쉬를 생성하여 계층화할 수 있다. 예를 들면, 제어부(140)는 메쉬에 기초하여 글자, 글자획, 글자 구성 정점 등의 단위로 텍스트를 분해할 수 있다. 또한 메쉬에 기초하여 파악한 글자획, 글자 구성 정점을, 글자의 하위 계층으로서 글자-글자획-글자 구성 정점을 잇는 트리 구조로 표현할 수 있다.According to an embodiment, the controller 140 may perform the following method to layer text. First, the controller 140 may generate a mesh in a vector form based on the form of the text, and layer the text into unit elements based on the mesh. For example, a mesh of a vector form may be generated and layered based on a font of each letter. For example, the controller 140 may decompose the text into units such as letters, character strokes, and character constituent vertices based on the mesh. In addition, it is possible to express the character stroke and the character composition vertices grasped based on the mesh as a tree structure connecting the character-character stroke-character composition vertices as a lower layer of the character.
또한 제어부(140)는, 텍스트에 포함된 문장 부호 등 특수문자를 특수문자 단위로 분해할 수 있다. 특수문자 역시 메쉬 단위로 파악하여 계층화할 수 있다. In addition, the controller 140 may decompose the special characters such as punctuation marks included in the text into special character units. Special characters can also be identified and layered in mesh units.
또한 제어부(140)는, 텍스트를 형태소로 분해하고, 분해된 형태소에 기초하여 텍스트를 단위 요소로 계층화할 수 있다. 가령 '철수는 영희에게 말했다'와 같은 문장에서 고유명사 '철수'와 주격조사 '는'의 형태소 단위로 분해할 수 있다. 즉, 제어부(140)는 '철수'와 '는'을 문법에 따라 별개의 단위 요소로 분해하되, 같은 계층, 예를 들어, 단어 계층으로 분류하여 트리 구조를 생성할 수 있다. 이때 제어부(140)는 단위 요소 별로 분석된 문법 구조에 대한 정보에 기초하여 애니메이션을 적용할 수 있고, 단어 계층의 단위 요소를 더 하위 계층의 단위 요소, 예를 들어, 글자, 글자획, 정점 등으로 분해할 수도 있다.The controller 140 may decompose the text into morphemes and stratify the text into unit elements based on the decomposed morphemes. For example, in a sentence such as 'Cheol told Yeong-hee', it can be decomposed into the morpheme units of the proper nouns 'Cheol' and 'the subject'. That is, the controller 140 may decompose the 'retracts' and 's' into separate unit elements according to grammar, and generate a tree structure by classifying them into the same hierarchy, for example, a word hierarchy. In this case, the controller 140 may apply animation based on the information on the grammar structure analyzed for each unit element, and the unit elements of the word hierarchy may be further unit elements of the lower hierarchy, for example, letters, letter strokes, vertices, and the like. It can also be decomposed into
한편 제어부(140)는 애니메이션 디스크립션에 따라 텍스트 애니메이션을 생성할 수 있다. 애니메이션 디스크립션은 텍스트에 적용될 애니메이션을 기술한 데이터로서, 제어부(140)는 애니메이션 디스크립션에 따라 다양한 형태의 애니메이션을 구현할 수 있다. 또한 제어부(140)는 애니메이션 디스크립션에 포함된 데이터를 각 계층에 적용할 수 있다. The controller 140 may generate a text animation according to the animation description. The animation description is data describing an animation to be applied to text, and the controller 140 may implement various types of animations according to the animation description. In addition, the controller 140 may apply data included in the animation description to each layer.
또한 실시예에 따라 애니메이션 디스크립션은 각 계층마다 대응되는 별도의 데이터를 포함할 수 있다. 이때 텍스트의 각 계층에 구체적으로 적용되는 디스크립션의 세부 단위를 계층 애니메이션 데이터라고 한다. 다시 말해, 계층 애니메이션 데이터는 텍스트에 적용할 애니메이션을 각 계층 별로 설정한 데이터를 포함할 수 있다. In some embodiments, the animation description may include separate data corresponding to each layer. In this case, the detail unit of the description that is specifically applied to each layer of text is called hierarchical animation data. In other words, the hierarchical animation data may include data for setting an animation to be applied to text for each hierarchical layer.
이때 애니메이션 디스크립션에 포함된 계층 애니메이션 데이터가 기술할 수 있는 데이터의 종류는 평행이동(translation), 회전(rotation), 축적(scale), 기울어짐(shearing), 3D 폰트 여부, 3D 폰트 깊이, 피봇 위치, 글자 색상, 외곽선 두께, 외곽선 색상, 글자 내부의 텍스처(texture), 투명도 등 텍스트의 디자인 및 모션 중 적어도 하나를 기술하는 다양한 값을 포함할 수 있다. At this time, the types of data that hierarchical animation data included in the animation description can describe include translation, rotation, scale, shearing, 3D font, 3D font depth, and pivot position. It may include various values describing at least one of the design and motion of the text, such as a text color, an outline thickness, an outline color, a texture inside the text, and transparency.
또한 제어부(140)는 트리 구조의 계층에 애니메이션을 설정함에 있어서 다양한 방식을 차용할 수 있다. In addition, the controller 140 may employ various methods in setting an animation in a tree structure hierarchy.
실시예에 따르면, 제어부(140)는, 상술한 애니메이션 데이터를 설정에 따라 대응하는 텍스트의 계층에 포함된 각 단위 요소에 적용할 수 있다. 또한 계층 별로 서로 다른 애니메이션 데이터를 적용할 수 있다. According to an embodiment, the controller 140 may apply the above-described animation data to each unit element included in the corresponding text hierarchy. Also, different animation data can be applied to each layer.
예를 들어 제어부(140)가 각 계층에 대해 애니메이션 디스크립션을 적용함에 있어서, 상위 계층 애니메이션 데이터를 먼저 적용하고, 하위 계층 애니메이션 데이터를 여기에 추가하는 방식으로 텍스트 애니메이션을 생성할 수 있다. For example, when the controller 140 applies the animation description to each layer, the text animation may be generated by first applying the upper layer animation data and adding the lower layer animation data thereto.
그리고 애니메이션 디스크립션은 계층 애니메이션 데이터의 값을 결정하기 위하여 키 프레이밍(key framing), 절차적 모델링(procedural modeling), 물리 시뮬레이션(physics simualation) 등의 설정을 포함할 수 있다. The animation description may include setting of key framing, procedural modeling, physics simualation, etc. to determine the value of hierarchical animation data.
여기서 키 프레이밍이란, 시간의 흐름에 따라 움직이는 동적 애니메이션에 있어서, 동적 애니메이션을 구성하는 각 정지 상태에서의 프레임(애니메이션의 표현 단위로서, 본 명세서에서는 텍스트 및 텍스트의 단위 요소 중 적어도 하나를 포함할 수 있다)의 위치를 시간의 흐름과 대응하여 기억하고, 각 정지 상태의 프레임의 위치의 사이값을 추론하여 부드러운 움직임을 생성하는 작업을 말한다. Here, the key framing refers to a frame in each stationary state constituting the dynamic animation (as a representation unit of the animation, which may include at least one of text and unit elements of the text in the dynamic animation moving over time). The position is stored in correspondence with the passage of time, and the motion between the positions of the frames in each stationary state is inferred to generate smooth movement.
또한, 절차적 모델링이란, 기하도형의 변형을 기술한 알고리즘에 기반하여 복잡한 형태의 물체를 자동으로 생성하는 모델링 방법을 말한다. 예를 들어, 기하학의 프랙탈 이론에 기반한 알고리즘에 따라 모델링할 수 있다. In addition, procedural modeling refers to a modeling method for automatically generating a complex object based on an algorithm describing a deformation of a geometric shape. For example, it can be modeled according to an algorithm based on the fractal theory of geometry.
그리고 물리 시뮬레이션이란, 가상 물체의 물리적 변화를 기설정된 물리 법칙에 따라 예측하는 작업을 말한다. 예를 들어, 질량 등 물리적 특성을 부여한 가상 물체에 힘을 가한 후 기설정된 물리 법칙에 따른 이동 궤적을 연산할 수 있다. In addition, physics simulation refers to a task of predicting a physical change of a virtual object according to a predetermined physical law. For example, after applying a force to a virtual object to which physical properties such as mass are applied, a movement trajectory according to a predetermined physical law may be calculated.
또한 제어부(140)는 애니메이션 디스크립션에 따른 계층 애니메이션 데이터의 값들을 적용함에 있어서, 계층 애니메이션 데이터 값들 간의 덧셈, 뺄셈, 곱셈, 나눗셈 등의 사칙연산 및 상위-하위 계층 간의 좌표계 변환 연산 중 적어도 하나를 통해 얻은 값을 상위-하위 계층의 텍스트 단위 요소에 적용할 수 있다. In addition, in applying the values of the hierarchical animation data according to the animation description, the controller 140 may perform at least one of arithmetic operations such as addition, subtraction, multiplication, and division between hierarchical animation data values and coordinate system transformation operations between upper and lower hierarchies. The obtained value can be applied to the text unit element of the upper-lower hierarchy.
이를 통해 제어부(140)는 상술한 실시예에 의해 계층 애니메이션 데이터의 값을 적용, 획득함으로써 계층 애니메이션 데이터끼리 충돌하거나 모순됨을 방지할 수 있다. By doing so, the controller 140 can prevent the collision or contradiction between the hierarchical animation data by applying and obtaining values of the hierarchical animation data according to the above-described embodiment.
또한 애니메이션 디스크립션은 계층 간의 애니메이션 적용에 대한 타이밍을 설정하는 데이터를 포함할 수 있다. 예를 들면, 계층 애니메이션 데이터가 0.1초 간격으로 순차적으로 적용될 것으로 설정하거나, 계층 애니메이션 데이터가 0.0초~1.0초 사이에 무작위로 적용될 것으로 설정하는 등 다양한 형식으로 애니메이션 적용 타이밍을 설정하는 데이터를 포함할 수 있다. In addition, the animation description may include data for setting timing for applying animation between layers. For example, it may include data for setting the timing of animation in various formats, such as setting hierarchical animation data to be applied sequentially at 0.1 second intervals or randomly applying hierarchical animation data between 0.0 and 1.0 seconds. Can be.
예를 들어, 문단 계층에 적용될 계층 애니메이션 데이터는 문단의 위치값이 화면 좌측에서 시작하여 화면 우측에서 끝나도록 하는 설정을 포함할 수 있다. 이때 제어부(140)는, 문단 계층에 포함된 각 글자 별로 시간차를 갖도록 설정하는 글자 계층 애니메이션 데이터를, 상술한 문단 계층의 애니메이션 데이터에 대해 추가적으로 적용할 수 있다. 이를 통해 제어부(140)는 문단의 위치값이 화면 좌측에서 시작하여 화면 우측에서 끝나도록 함과 더불어, 각 글자가 0.05초 간격의 시간차를 갖고 이동하도록 설정할 수 있다. 이와 같이 제어부(140)는 문단 계층에 대하여 화면 좌측에서 우측으로 이동하는 애니메이션을 적용하고, 트리 구조에서 문단 계층의 하위 계층인 글자 계층에 대해서는 각 글자가 0.05초 간격의 시간차를 가지고 이동하도록 각 계층 별로 계층 애니메이션 데이터를 적용할 수 있다. For example, the hierarchical animation data to be applied to the paragraph hierarchy may include a setting such that the position value of the paragraph starts at the left side of the screen and ends at the right side of the screen. In this case, the controller 140 may additionally apply the text hierarchy animation data set to have a time difference for each letter included in the paragraph hierarchy, to the animation data of the above paragraph hierarchy. Through this, the control unit 140 may set the position value of the paragraph to start at the left side of the screen and end at the right side of the screen, and to move each letter with a time difference of 0.05 second intervals. As described above, the controller 140 applies an animation of moving from the left side of the screen to the right side of the paragraph layer, and for each letter layer that is a lower layer of the paragraph layer in the tree structure, each character moves with a time difference of 0.05 seconds. Hierarchical animation data can be applied.
한편, 텍스트 애니메이션 생성 장치(100)는 텍스트로 구성된 메시지를 사용자 간에 송수신하는 메시지 전송 서비스를 제공할 수 있다. 이때 메시지 전송 서비스는 SMS, MMS 등의 문자 메시지 서비스, SNS 서비스 등을 포함할 수 있다. 이때, 제어부(140)는 사용자 간에 텍스트를 송수신함에 있어서, 텍스트에 애니메이션을 부가할 수 있다. Meanwhile, the apparatus for generating text animation 100 may provide a message transmission service for transmitting and receiving a message composed of text between users. At this time, the message transmission service may include a text message service such as SMS, MMS, SNS service. In this case, the controller 140 may add an animation to the text when transmitting and receiving the text between users.
또한, 텍스트 애니메이션 생성 장치(100)는 워드 프로세서 등 텍스트 편집기를 제공할 수 있다. 이때, 제어부(140)는 텍스트 편집기에서 텍스트 애니메이션의 생성을 수행할 수 있다. 예를 들면 텍스트의 오탈자에 텍스트 애니메이션을 적용하여 사용자가 오탈자를 빠르게 인지하고 수정할 수 있도록 표시할 수 있다. In addition, the text animation generating apparatus 100 may provide a text editor such as a word processor. In this case, the controller 140 may generate a text animation in a text editor. For example, text typos can be applied to text typos so that users can quickly recognize and correct typos.
그리고 제어부(140)는 음악 정보에 기초하여 텍스트에 애니메이션을 부가할 수 있다. 가령, 제어부(140)는 음악을 분석하고, 분석된 음악 정보에 기초하여 텍스트에 애니메이션을 부가할 수 있다. The controller 140 may add animation to text based on music information. For example, the controller 140 may analyze music and add animation to text based on the analyzed music information.
예를 들어, 제어부(140)는 입력 받은 음원이나 선택된 음악을 분석하여 음악의 BPM을 획득하거나 음악의 BPM을 입력 받을 수 있다. 이때 제어부(140)는 음악의 BPM에 따라 텍스트 애니메이션을 생성할 수 있다. 또는 입력받은 음원에서 음악의 크기, 음악의 크기의 변화, 음악의 높낮이, 음악의 높낮이의 변화 중 적어도 하나를 획득하여 그에 따라 텍스트 애니메이션을 생성할 수 있다. For example, the controller 140 may acquire the BPM of the music or receive the BPM of the music by analyzing the input sound source or the selected music. In this case, the controller 140 may generate a text animation according to the BPM of music. Alternatively, at least one of the size of the music, the change of the size of the music, the height of the music, and the change of the height of the music may be acquired from the input sound source, and text animation may be generated accordingly.
이때 제어부(140)는 음악의 재생과 함께 텍스트 애니메이션을 출력할 수 있다. 예를 들어, 가사가 포함된 음악을 재생할 때, 음악 정보에 따라 생성한 텍스트 애니메이션을 이용하여 키네틱타이포 또는 모션그래픽을 제공함으로써 고급스러운 영상을 출력할 수 있다. In this case, the controller 140 may output a text animation along with music playback. For example, when playing music including lyrics, a high-quality image may be output by providing a kinetic typo or a motion graphic using a text animation generated according to music information.
다음으로 도 2 및 도 3은 실시예들에 따른 텍스트 애니메이션 생성 방법을 설명하기 위한 순서도이다. 도 2 및 도 3에 도시된 실시예들에 따른 텍스트 애니메이션 생성 방법은 도 1에 도시된 텍스트 애니메이션 생성 장치(100)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하에서 생략된 내용이라고 하더라도 도 1에 도시된 텍스트 애니메이션 생성 장치(100)에 관하여 이상에서 기술한 내용은 도 2 및 도 3에 도시된 실시예에 따른 텍스트 애니메이션 생성 방법에도 적용될 수 있다.Next, FIGS. 2 and 3 are flowcharts for describing a method for generating text animation according to embodiments. The text animation generating method according to the embodiments shown in FIG. 2 and FIG. 3 includes steps that are processed in time series in the text animation generating device 100 shown in FIG. 1. Therefore, even if omitted below, the above description about the text animation generating apparatus 100 shown in FIG. 1 may be applied to the text animation generating method according to the embodiments shown in FIGS. 2 and 3.
도 2를 참고하면, 텍스트 애니메이션 생성 장치(100)는 애니메이션을 부가할 텍스트에 대한 정보를 수신할 수 있다(S21). 예를 들어, 사용자로부터 텍스트를 입력 받거나 기 저장된 텍스트를 선택 받을 수 있다. 또는 다른 전자단말기로부터 애니메이션을 부가할 텍스트를 수신할 수도 있다. Referring to FIG. 2, the text animation generating apparatus 100 may receive information on text to which an animation is to be added (S21). For example, text may be input from a user or selected text may be selected. Alternatively, text to be added to the animation may be received from another electronic terminal.
또한, 텍스트 애니메이션 생성 장치(100)는 애니메이션 디스크립션에 기초하여 텍스트에 애니메이션을 부가할 수 있다(S22). 이때 애니메이션 디스크립션은, 텍스트 애니메이션 생성 장치(100)에 일시적 또는 영구적으로 저장될 수 있으며, 다른 전자단말기로부터 수신될 수도 있다. In addition, the text animation generating apparatus 100 may add an animation to the text based on the animation description (S22). In this case, the animation description may be temporarily or permanently stored in the text animation generating device 100 or may be received from another electronic terminal.
관련하여 도 3을 참고하면, 텍스트 애니메이션 생성 장치(100)는 텍스트에 애니메이션을 부가함에 있어서(S22), 텍스트를 단위 요소로 계층화할 수 있다(S31). 가령, 단위 요소를 문단, 문장, 단어, 글자, 글자획, 글자 구성 정점 중 적어도 하나를 포함하는 단위 요소로 계층화할 수 있다. 예를 들어, 텍스트의 형태에 기초하여 벡터 형태의 메쉬를 생성하고, 메쉬에 기초하여 텍스트를 글자, 글자획, 정점 등의 단위 요소로 계층화할 수 있다. 또한, 텍스트 애니메이션 생성 장치(100)는 텍스트를 문법에 따라 형태소 등으로 분해하여 계층화할 수도 있다. 또한, 텍스트 애니메이션 생성 장치(100)는 단위 요소를 상위-하위 개념으로 정리하여 트리 구조를 생성할 수 있다. Referring to FIG. 3, in operation S22, the text animation generating apparatus 100 may layer text into unit elements in operation S31. For example, the unit element may be layered into unit elements including at least one of a paragraph, a sentence, a word, a letter, a character stroke, and a letter constructing vertex. For example, a vector-type mesh may be generated based on the form of the text, and the text may be layered into unit elements such as letters, strokes, and vertices based on the mesh. In addition, the text animation generating apparatus 100 may decompose the text into morphemes or the like according to the grammar and layer the text. In addition, the text animation generating apparatus 100 may generate a tree structure by arranging the unit elements into a parent-child concept.
이때, 텍스트 애니메이션 생성 장치(100)는 단위 요소에 대하여 애니메이션을 부가할 수 있다(S32). 이를 위해 애니메이션 디스크립션은 계층 애니메이션 데이터를 포함할 수 있고, 텍스트 애니메이션 생성 장치(100)는 각 계층 별로 계층 애니메이션 데이터를 적용하여 텍스트 애니메이션을 생성할 수 있다. 즉, 텍스트 애니메이션 생성 장치(100)는 트리 구조에 기초하여 텍스트의 단위 요소에 계층 애니메이션 데이터를 적용하여 텍스트 애니메이션을 생성할 수 있다. In this case, the text animation generating apparatus 100 may add an animation to a unit element (S32). To this end, the animation description may include hierarchical animation data, and the text animation generating apparatus 100 may generate text animation by applying hierarchical animation data for each layer. That is, the text animation generating apparatus 100 may generate text animation by applying hierarchical animation data to unit elements of the text based on the tree structure.
실시예에 따르면, 텍스트 애니메이션 생성 장치(100)는 계층 애니메이션 데이터에 포함된 데이터 값의 연산 결과를 텍스트에 적용하여 애니메이션을 생성할 수 있다. According to an embodiment, the text animation generating apparatus 100 may generate an animation by applying a calculation result of a data value included in hierarchical animation data to text.
또한, 실시예에 따라, 텍스트 애니메이션 생성 장치(100)는 SNS 서비스에서 텍스트 애니메이션을 생성할 수 있다. 예를 들어, 사용자 간에 송수신되는 텍스트에 애니메이션을 부가할 수 있다. 또한, 텍스트 애니메이션 생성 장치(100)는 텍스트 편집기에서 편집되는 텍스트에 애니메이션을 부가할 수 있다. 또한 텍스트 애니메이션 생성 장치(100)는 음악 정보를 수신하고, 음악 정보에 기초하여 텍스트에 애니메이션을 부가할 수도 있다. Also, according to an embodiment, the text animation generating apparatus 100 may generate text animation in the SNS service. For example, an animation may be added to text transmitted and received between users. In addition, the text animation generating apparatus 100 may add an animation to text edited in a text editor. Also, the text animation generating apparatus 100 may receive music information and add animation to text based on the music information.
다음으로 도 4 내지 도 7을 참고하면, 일 실시예에 따른 텍스트 애니메이션 생성 방법을 설명하기 위한 예시도가 도시되어 있다. 도 4내지 도 7은 텍스트 애니메이션 생성 장치(100)가 생성한 애니메이션이 출력되는 실시예를 시간의 흐름에 따라 순차적으로 도시한 도면이다. Next, referring to FIGS. 4 to 7, an exemplary diagram for describing a text animation generating method according to an embodiment is illustrated. 4 to 7 are diagrams sequentially illustrating an embodiment of outputting an animation generated by the text animation generating apparatus 100 over time.
도 4를 참고하면, 텍스트 애니메이션 생성 장치(100)가 텍스트 입력 인터페이스(401)을 통해 사용자로부터 “심쿵”이라는 텍스트를 입력 받고, 글자 “심(402)”을 출력하고 있는 모습이 도시되어 있다. 다음으로 도 5를 참고하면, 텍스트 애니메이션 생성 장치(100)는 글자 “심(402)”을 출력하고 소정의 시간이 흐른 뒤, 글자 “쿵(403)”을 추가적으로 출력하여 “심쿵”이라는 텍스트를 출력하고 있다. 또한, 도 6을 참고하면, 텍스트 애니메이션 생성 장치(100)는 “심쿵”을 출력하고 소정의 시간이 흐른 뒤, 글자 “심(402)”에 대하여, 텍스트의 크기를 키우고, 투명도를 높이는 애니메이션을 적용하고 있다. 이후, 도 7에서 텍스트 애니메이션 생성 장치(100)는 “심(402)”의 투명도를 높여 출력되지 않도록 하고, 글자 “쿵(403)”에 대하여, 텍스트의 크기를 키우고, 투명도를 높이는 애니메이션을 적용하고 있다. 이와 같이, 텍스트 애니메이션 생성 장치(100)는 “심쿵”이라는 텍스트를 “심”과 “쿵”이라는 글자 단위로 계층화한 후, 계층 애니메이션 데이터를 적용하여 각각의 타이밍에 따라 각 글자에 애니메이션을 적용할 수 있다. Referring to FIG. 4, it is illustrated that the text animation generating apparatus 100 receives a text “simply” from the user through the text input interface 401 and outputs the character “sim” 402. Next, referring to FIG. 5, the text animation generating apparatus 100 outputs the character “sim 402” and after a predetermined time passes, additionally outputs the character “kung 403” to display the text “sim kung”. Is outputting. In addition, referring to FIG. 6, the text animation generating apparatus 100 outputs “simply” and after a predetermined time has elapsed, increases the size of the text and increases the transparency of the character “sim” 402. It is applied. Subsequently, in FIG. 7, the text animation generating apparatus 100 increases the transparency of the “sim 402” so as not to be output, increases the size of the text, and applies an animation to increase the transparency of the letter “kung 403”. Doing. As such, the text animation generating apparatus 100 may layer the text “Shim Kung” into the unit of letters “Shim” and “Kung”, and then apply hierarchical animation data to apply animation to each letter according to each timing. Can be.
상술한 바와 같은 실시예에 따르면, 텍스트 애니메이션 생성 장치(100)는 사용자로부터 입력 또는 선택 받은 텍스트에 기초하여 키네틱타이포 또는 모션그래픽 아트 등을 자동으로 생성할 수 있다. 따라서 전문가가 어려운 과정을 통해 만들어내는 키네틱타이포 또는 모션그래픽을 빠르고 용이하게 생성할 수 있다. According to the exemplary embodiment as described above, the text animation generating apparatus 100 may automatically generate a kinetic typo or motion graphic art based on the text input or selected by the user. This makes it possible to quickly and easily create kinetic typo or motion graphics that professionals create through difficult processes.
이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.The term '~' used in the above embodiments refers to software or a hardware component such as a field programmable gate array (FPGA) or an ASIC, and '~' serves a part. However, '~' is not meant to be limited to software or hardware. '~ Portion' may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, '~' means components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and the like. Subroutines, segments of program patent code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.The functionality provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or separated from additional components and 'parts'.
뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.In addition, the components and '~' may be implemented to play one or more CPUs in the device or secure multimedia card.
도 2 및 도 3을 통해 설명된 실시예들에 따른 텍스트 애니메이션 생성 방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다.The text animation generating method according to the embodiments described with reference to FIGS. 2 and 3 may also be implemented in the form of a computer readable medium for storing instructions and data executable by a computer. In this case, the command and data may be stored in the form of program code, and when executed by the processor, a predetermined program module may be generated to perform a predetermined operation. In addition, computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer readable medium may be a computer recording medium, which is volatile and non-implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. It can include both volatile, removable and non-removable media. For example, the computer recording medium may be a magnetic storage medium such as HDD and SSD, an optical recording medium such as CD, DVD and Blu-ray Disc, or a memory included in a server accessible through a network.
또한 도 2 및 도 3을 통해 설명된 실시예들에 따른 텍스트 애니메이션 생성 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다. Also, the method for generating text animation according to the embodiments described with reference to FIGS. 2 and 3 may be implemented as a computer program (or a computer program product) including instructions executable by a computer. The computer program includes programmable machine instructions processed by the processor and may be implemented in a high-level programming language, an object-oriented programming language, an assembly language, or a machine language. . The computer program may also be recorded on tangible computer readable media (eg, memory, hard disks, magnetic / optical media or solid-state drives, etc.).
따라서 도 2 및 도 3을 통해 설명된 실시예들에 따른 텍스트 애니메이션 생성 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.Accordingly, the text animation generating method according to the embodiments described with reference to FIGS. 2 and 3 may be implemented by executing the computer program as described above by the computing device. The computing device may include at least a portion of a processor, a memory, a storage device, a high speed interface connected to the memory and a high speed expansion port, and a low speed interface connected to the low speed bus and the storage device. Each of these components are connected to each other using a variety of buses and may be mounted on a common motherboard or otherwise mounted in a suitable manner.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.Here, the processor may process instructions within the computing device, such as to display graphical information for providing a graphical user interface (GUI) on an external input, output device, such as a display connected to a high speed interface. Instructions stored in memory or storage. In other embodiments, multiple processors and / or multiple buses may be used with appropriately multiple memories and memory types. The processor may also be implemented as a chipset consisting of chips comprising a plurality of independent analog and / or digital processors.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.The memory also stores information within the computing device. In one example, the memory may consist of a volatile memory unit or a collection thereof. As another example, the memory may consist of a nonvolatile memory unit or a collection thereof. The memory may also be other forms of computer readable media, such as, for example, magnetic or optical disks.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.In addition, the storage device can provide a large amount of storage space to the computing device. The storage device may be a computer readable medium or a configuration including such a medium, and may include, for example, devices or other configurations within a storage area network (SAN), and may include a floppy disk device, a hard disk device, an optical disk device, Or a tape device, flash memory, or similar other semiconductor memory device or device array.
상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above-described embodiments are for illustrative purposes, and those of ordinary skill in the art to which the above-described embodiments belong may easily change to other specific forms without changing the technical spirit or essential features of the above-described embodiments. I can understand. Therefore, it is to be understood that the above-described embodiments are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.
본 명세서를 통해 보호 받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected by the present specification is represented by the following claims rather than the above description, and should be construed to include all changes or modifications derived from the meaning and scope of the claims and their equivalents. .

Claims (14)

  1. 애니메이션 디스크립션을 저장하는 저장부; 및 A storage unit to store animation descriptions; And
    상기 디스크립션에 기초하여 텍스트에 애니메이션을 부가하는 제어부를 포함하는, 텍스트 애니메이션 생성 장치. And a controller for adding an animation to the text based on the description.
  2. 제1항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    상기 텍스트를 단위 요소로 계층화하고, 상기 단위 요소에 대하여 애니메이션을 부가하는, 텍스트 애니메이션 생성 장치.And layering the text into unit elements and adding animation to the unit elements.
  3. 제2항에 있어서,The method of claim 2,
    상기 제어부는, The control unit,
    상기 텍스트의 형태에 기초하여 벡터 형태의 메쉬를 생성하고, 생성된 메쉬에 기초하여 상기 텍스트를 단위 요소로 계층화하는, 텍스트 애니메이션 생성 장치.And generating a mesh in a vector form based on the form of the text, and layering the text into unit elements based on the generated mesh.
  4. 제2항에 있어서,The method of claim 2,
    상기 제어부는,The control unit,
    상기 텍스트를 형태소로 분해하고, 분해된 형태소에 기초하여 상기 텍스트를 단위 요소로 계층화하는, 텍스트 애니메이션 생성 장치.And decomposing the text into morphemes and stratifying the text into unit elements based on the decomposed morphemes.
  5. 제2항에 있어서,The method of claim 2,
    상기 제어부는, The control unit,
    상기 단위 요소에 기초하여 트리 구조를 생성하고, 상기 트리 구조에 기초하여 애니메이션을 부가하는, 텍스트 애니메이션 생성 장치.And a tree structure is generated based on the unit element, and an animation is added based on the tree structure.
  6. 제2항에 있어서,The method of claim 2,
    상기 애니메이션 디스크립션은 계층 애니메이션 데이터를 포함하고, The animation description includes hierarchical animation data,
    상기 제어부는,The control unit,
    상기 단위 요소에 상기 계층 애니메이션 데이터를 적용하여 상기 텍스트에 애니메이션을 부가하는, 텍스트 애니메이션 생성 장치.And applying animation to the text by applying the hierarchical animation data to the unit element.
  7. 제6항에 있어서,The method of claim 6,
    상기 제어부는, The control unit,
    상기 계층 애니메이션 데이터에 포함된 데이터 값의 연산 결과를 적용하여 상기 텍스트에 애니메이션을 부가하는, 텍스트 애니메이션 생성 장치.Apparatus for generating an animation to the text by applying the operation result of the data value included in the hierarchical animation data.
  8. 제1항에 있어서, The method of claim 1,
    상기 텍스트 애니메이션 생성 장치는,The text animation generating device,
    SNS 서비스를 제공하고, Provide SNS services,
    상기 제어부는, The control unit,
    상기 SNS 서비스에서 사용자 사이에 송수신되는 텍스트에 애니메이션을 부가하는, 텍스트 애니메이션 생성 장치. Apparatus for generating an animation to the text to be transmitted and received between the user in the SNS service.
  9. 제1항에 있어서,The method of claim 1,
    상기 텍스트 애니메이션 생성 장치는, The text animation generating device,
    텍스트 편집기를 제공하고, Provide a text editor,
    상기 제어부는, The control unit,
    상기 텍스트 편집기에서 편집되는 텍스트에 애니메이션을 부가하는, 텍스트 애니메이션 생성 장치.And an animation is added to the text edited in the text editor.
  10. 제1항에 있어서,The method of claim 1,
    상기 제어부는, The control unit,
    음악 정보를 수신하고, 수신된 음악 정보에 기초하여 텍스트에 애니메이션을 부가하는, 텍스트 애니메이션 생성 장치.Receiving music information and adding animation to text based on the received music information.
  11. 텍스트 애니메이션 생성 장치가 수행하는 것으로서,As the text animation generator does,
    애니메이션을 부가할 텍스트에 대한 정보를 수신하는 단계; 및Receiving information about text to which an animation is to be added; And
    애니메이션 디스크립션에 기초하여 상기 텍스트에 애니메이션을 부가하는 단계를 포함하는, 텍스트 애니메이션 생성 방법. Adding an animation to the text based on an animation description.
  12. 제11항에 있어서,The method of claim 11,
    상기 텍스트에 애니메이션을 부가하는 단계는,Adding an animation to the text,
    상기 텍스트를 단위 요소로 계층화하는 단계; 및 Stratifying the text into unit elements; And
    상기 단위 요소에 대하여 애니메이션을 부가하는 단계를 포함하는, 텍스트 애니메이션 생성 방법.Adding an animation to the unit element.
  13. 제11항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium in which a program for performing the method according to claim 11 is recorded.
  14. 텍스트 애니메이션 생성 장치에 의해 수행되며, 제11항에 기재된 방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램.A computer program executed by an apparatus for generating text animation and stored in a medium for carrying out the method of claim 11.
PCT/KR2017/009388 2016-08-26 2017-08-28 Method for generating text animation, and apparatus therefor WO2018038586A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160109501 2016-08-26
KR10-2016-0109501 2016-08-26

Publications (1)

Publication Number Publication Date
WO2018038586A1 true WO2018038586A1 (en) 2018-03-01

Family

ID=61246175

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/009388 WO2018038586A1 (en) 2016-08-26 2017-08-28 Method for generating text animation, and apparatus therefor

Country Status (2)

Country Link
KR (1) KR20180023879A (en)
WO (1) WO2018038586A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102577132B1 (en) * 2021-09-24 2023-09-12 (주)이머시브캐스트 Apparatus and method for 3d text messaging service

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008107904A (en) * 2006-10-23 2008-05-08 National Institute Of Information & Communication Technology Text and animation service apparatus, and computer program
KR20080052957A (en) * 2006-12-08 2008-06-12 (주) 엘지텔레콤 Method and system of animation short message service
KR20100129122A (en) * 2009-05-28 2010-12-08 삼성전자주식회사 Animation system for reproducing text base data by animation
KR20130057277A (en) * 2011-11-23 2013-05-31 동국대학교 산학협력단 Method for generating animation from text, apparatus thereof
US20150287403A1 (en) * 2014-04-07 2015-10-08 Neta Holzer Zaslansky Device, system, and method of automatically generating an animated content-item

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008107904A (en) * 2006-10-23 2008-05-08 National Institute Of Information & Communication Technology Text and animation service apparatus, and computer program
KR20080052957A (en) * 2006-12-08 2008-06-12 (주) 엘지텔레콤 Method and system of animation short message service
KR20100129122A (en) * 2009-05-28 2010-12-08 삼성전자주식회사 Animation system for reproducing text base data by animation
KR20130057277A (en) * 2011-11-23 2013-05-31 동국대학교 산학협력단 Method for generating animation from text, apparatus thereof
US20150287403A1 (en) * 2014-04-07 2015-10-08 Neta Holzer Zaslansky Device, system, and method of automatically generating an animated content-item

Also Published As

Publication number Publication date
KR20180023879A (en) 2018-03-07

Similar Documents

Publication Publication Date Title
US11632576B2 (en) Live video broadcast method, live broadcast device and storage medium
Manovich Cultural analytics: Visualizing cultural patterns in the era of “more media”
WO2020186935A1 (en) Virtual object displaying method and device, electronic apparatus, and computer-readable storage medium
CN111669623B (en) Video special effect processing method and device and electronic equipment
EP2840511A1 (en) System and method for dynamically converting webpage, and computer-readable recording medium
JP7199527B2 (en) Image processing method, device, hardware device
KR20210040882A (en) Method and apparatus for generating video
US20210193136A1 (en) Removal of identifying traits of a user in a virtual environment
WO2020220773A1 (en) Method and apparatus for displaying picture preview information, electronic device and computer-readable storage medium
WO2021057740A1 (en) Video generation method and apparatus, electronic device, and computer readable medium
EP4124052A1 (en) Video production method and apparatus, and device and storage medium
US20220237848A1 (en) Image processing method and apparatus, electronic device, and storage medium
CN107678658A (en) Data inputting method and device for terminal device
WO2017101390A1 (en) Picture display method and apparatus
CN112214653A (en) Character string recognition method and device, storage medium and electronic equipment
JP2019102001A (en) Program, information processing method, and information processing device
US20150319215A1 (en) Methods for facilitating a remote interface and devices thereof
WO2018038586A1 (en) Method for generating text animation, and apparatus therefor
CN111127469A (en) Thumbnail display method, device, storage medium and terminal
WO2024037491A1 (en) Media content processing method and apparatus, device, and storage medium
US20170004859A1 (en) User created textbook
JP2023525091A (en) Image special effect setting method, image identification method, device and electronic equipment
US10102395B2 (en) System and method for creating and transitioning to multiple facets of a social media object in a social network
CN111506841B (en) Webpage display method, device, equipment and readable storage medium
CN108241604B (en) Interactive editing method and device for realizing Lateh format formula

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17844006

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17844006

Country of ref document: EP

Kind code of ref document: A1