KR20230022551A - method and system for producing animation - Google Patents

method and system for producing animation Download PDF

Info

Publication number
KR20230022551A
KR20230022551A KR1020210104457A KR20210104457A KR20230022551A KR 20230022551 A KR20230022551 A KR 20230022551A KR 1020210104457 A KR1020210104457 A KR 1020210104457A KR 20210104457 A KR20210104457 A KR 20210104457A KR 20230022551 A KR20230022551 A KR 20230022551A
Authority
KR
South Korea
Prior art keywords
images
image
control unit
frame
animation
Prior art date
Application number
KR1020210104457A
Other languages
Korean (ko)
Other versions
KR102569687B1 (en
Inventor
송원형
Original Assignee
주식회사 플레이칸
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 플레이칸 filed Critical 주식회사 플레이칸
Priority to KR1020210104457A priority Critical patent/KR102569687B1/en
Publication of KR20230022551A publication Critical patent/KR20230022551A/en
Application granted granted Critical
Publication of KR102569687B1 publication Critical patent/KR102569687B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/2053D [Three Dimensional] animation driven by audio data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

In an animation production method of producing animation by adding editing and video effects to existing two-dimensional comic content, the animation production method includes: a step in which a scanning unit performs image scanning on the two-dimensional comic content to generate a plurality of scanned images; a step in which a control unit performs cleanup on each of the scanned images and converts the scanned images into a high definition image to generate a converted image; a step in which the control unit colors the converted image; a step in which the control unit creates a plurality of frame images by setting a frame for at least one scene present in each of the converted images; a step in which a memory unit stores the frame image; a step in which the control unit corresponds pre-stored voice information to each of the frame images; and a step in which the control unit provides an image effect to each of the frame images. Accordingly, a viewer can watch more realistically.

Description

애니메이션 제작 방법 및 시스템{method and system for producing animation}Animation production method and system {method and system for producing animation}

본 발명은 애니메이션 제작 방법 및 시스템에 관한 것으로서 더욱 상세하게는 기존의 2차원 코믹 컨텐츠에 편집 및 영상 효과를 부가하여 애니메이션을 제작하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for producing animation, and more particularly, to a method and system for producing animation by adding editing and video effects to existing 2D comic content.

일반적으로, 애니메이션(animation)은 만화 영화와 같이 화상(畵像)의 위치나 형태 등을 조금씩 바꾼 여러 장의 그림을 한 장면씩 촬영하여 영사하게 되면 연속 동작이 보이도록 하는 것으로 동화(動畵)라 지칭한다.In general, animation is a motion picture in which a series of pictures, such as a cartoon movie, in which the position or shape of the picture is slightly changed are filmed one by one and projected so that continuous motion is visible. refers to

이러한, 애니메이션을 시청자가 한 시간 정도를 시청하기 위해서는 일반적인 만화에 비해 많은 그림을 그려야 하기 때문에 다수의 애니메이터가 장시간 참여하여 작업하게 된다.In order for a viewer to watch such an animation for about an hour, many animators have to work for a long time because they have to draw more pictures than general cartoons.

상기한 애니메이션 작업 구성원은 애니메이션 시나리오를 제공하는 시나리오작가와 하나의 애니메이션 작품에 참여하는 다수의 애니메이터, 애니메이터들을 지휘 및 감독하는 감독, 애니메이션 작품의 상황에 따른 음성을 제공하는 성우, 애니메이션 작품의 상황 별 효과음을 제공하는 음향효과 제작진에 의해서 완성되고, 완성된 애니메이션은 통상의 기획사에 의해 유통된다.The above animation work members include a screenwriter who provides animation scenarios, a number of animators participating in one animation work, a director who directs and supervises animators, a voice actor who provides voice according to the situation of an animation work, and a situation-specific animation work. It is completed by a sound effect production team that provides sound effects, and the completed animation is distributed by a normal entertainment company.

애니메이션 제작 과정 단계는 크게 3가지로 나눌 수 있으며, 프리 프로덕션 기획사에 의해 주관되는 애니메이션의 기획, 시나리오, 콘티 등을 결정하는 단계와, 프로덕션 제작사에 의해 제작되는 애니메이션의 원화, 동화, 채색 등의 제작 단계, 애니메이션의 음악, 더빙 편집 마무리하는 단계를 주관하는 포스트 프로덕션으로 크게 나뉘게 된다.The animation production process can be divided into three major stages: the stage of determining animation planning, scenario, storyboard, etc., supervised by the pre-production company; It is largely divided into post-production, which supervises the stage, animation music, and finalization of dubbing editing.

프리 프로덕션 기획사에서는 작업 진행시 제작비용을 고려하여 애니메이션 제작사를 선정하고, 일반적으로 원화에서 채색, 동화에서 촬영 등으로 작업 범위를 정해 제작 하청을 주게 된다.A pre-production agency selects an animation production company in consideration of the production cost when the work is in progress, and generally subcontracts the production after determining the scope of the work, such as coloring from the original picture and filming from the animation.

이러한, 대표적인 하청 작업은 동화, 채색이다.These representative subcontracted works are assimilation and coloring.

예를 들어 일본의 경우 25분 상영 기준 타임시트/450장, 원화/2000장, 동화/5000장, 채색/5000장이고, 미국의 경우 25분 상영 기준 타임시트/500장, 원화/3000장, 동화/10000장, 채색/10000장이다.For example, in Japan, the standard time sheet/450 sheets, original picture/2000 sheets, fairy tale/5000 sheets, and coloring/5000 sheets in case of Japan, and time sheet/500 sheets, original picture/3000 sheets, Fairy tale/10000 pages, coloring/10000 pages.

그러나 이러한 동적인 애니메이션을 제작하는 경우, 상술한 바와 같이 상당한 인력이 투입되어야만 하기에, 고가의 제작 비용이 발생할 수밖에 없었다.However, in the case of producing such a dynamic animation, as described above, a considerable amount of manpower has to be put in, and therefore, expensive production costs are inevitably incurred.

최근 들어, 기존의 코믹북들을 상기와 같이 애니메이션으로 제작하려는 시도가 있으나, 상술한 바와 같이 하나의 애니메이션을 제작하는데 복잡한 제작과정을 거쳐야 함은 물론, 엄청난 비용이 발생하는 문제점이 있어, 인기를 끄는 일부 코믹물만이 애니메이션으로 선택 제작되고 있는 실정이다.Recently, attempts have been made to produce existing comic books as animations as described above, but as described above, a complicated production process is required to produce one animation, as well as a problem of incurring enormous costs, which is gaining popularity. Currently, only some comics are selectively produced as animations.

따라서, 애니메이션화되지 않은 기존의 코믹물은 여전히 책자 또는 코믹 뷰어 등을 통하여 2차원적인 콘텐츠 상태로 여전히 서비스되고 있는데 그치고 있다.Therefore, existing comics that are not animated are still being serviced as two-dimensional contents through booklets or comic viewers.

한편, 대한민국 등록특허 제 10-1457045 B1호(2014.10.27.)에서는, 2차원적인 코믹 콘텐츠를 가공한 애니코믹 이미지에 다양한 이펙트를 적용하여 애니코믹 영상물을 제작하는 방법이 개시되어 있다.On the other hand, Korean Patent Registration No. 10-1457045 B1 (October 27, 2014) discloses a method of producing an animacomic video product by applying various effects to an animamic image processed from two-dimensional comic content.

그러나, 시청자는 애니코믹 이미지에 이펙트를 적용한 코믹 콘텐츠 보다 실감나게 즐길 수 있는 애니메이션을 요구하는 실정이다.However, viewers are demanding animations that can be enjoyed more realistically than comic contents in which effects are applied to anime comic images.

본 발명은 상기와 같은 문제를 해결하기 위한 것으로서, 시각적, 청각적 이펙트를 이미지에 부가 함과 동시에, 프레임 이미지의 이동속도를 조절하여 시청자가 보다 실감나게 시청할 수 있는 애니메이션 제작 방법 및 시스템을 제공하고자 함이다.The present invention is to solve the above problems, and to provide a method and system for producing animations that allow viewers to watch more realistically by adjusting the moving speed of frame images while adding visual and auditory effects to images. It is Ham.

본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-mentioned problems, and problems not mentioned will be clearly understood by those skilled in the art from this specification and the accompanying drawings. .

기존의 2차원 코믹 컨텐츠에 편집 및 영상 효과를 부가하여 애니메이션을 제작하는 애니메이션 제작 방법에 있어서, 스캔부가 상기 2차원 코믹 컨텐츠에 대해 이미지 스캐닝(Image scanning)을 수행하여 복수 개의 스캔된 이미지를 생성하는 단계; 제어부가 상기 스캔된 이미지 각각에 대해 클린업을 수행하며 상기 스캔된 이미지를 고화질로 변환하여 변환된 이미지를 생성하는 단계; 상기 제어부가 상기 변환된 이미지에 대해 컬러링하는 단계; 상기 제어부가 상기 변환된 이미지 각각에 존재하는 적어도 하나의 씬(Scene)에 대해 각각 프레임을 설정하여 복수 개의 프레임 이미지를 생성하는 단계; 메모리부가 상기 프레임 이미지를 저장하는 단계; 상기 제어부가 상기 프레임 이미지 각각에 대해 기 저장된 음성 정보를 대응 대응시키는 단계; 및 상기 제어부가 상기 프레임 이미지 각각에 대해 영상 효과를 부여하는 단계;를 포함하는 애니메이션 제작 방법일 수 있다.An animation production method for producing animation by adding editing and video effects to existing 2D comic contents, wherein a scanning unit performs image scanning on the 2D comic contents to generate a plurality of scanned images step; generating a converted image by a control unit performing a cleanup on each of the scanned images and converting the scanned image into a high-definition image; coloring the converted image by the controller; generating, by the control unit, a plurality of frame images by setting frames for at least one scene existing in each of the converted images; storing the frame image by a memory unit; allowing the control unit to correspond pre-stored audio information to each of the frame images; and applying, by the controller, a video effect to each of the frame images.

본 발명의 일 실시예에 따른 애니메이션 제작 방법에 의하면, 시청자가 본 발명에 의해 제작된 애니메이션을 시청함에 있어서, 보다 실감나게 시청할 수 있는 장점이 있다.According to the animation production method according to an embodiment of the present invention, when a viewer watches an animation produced according to the present invention, there is an advantage in that the viewer can watch the animation more realistically.

본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects of the present invention are not limited to the above-mentioned effects, and effects not mentioned will be clearly understood by those skilled in the art from this specification and the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 블록도.
도 2는 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 개략도.
도 3은 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 개략도.
도 4는 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 개략도.
도 5는 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 개략도.
도 6은 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 개략도.
도 7은 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 그래프.
도 8은 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 개략 순서도.
1 is a block diagram of an animation production method according to an embodiment of the present invention.
2 is a schematic diagram of an animation production method according to an embodiment of the present invention.
3 is a schematic diagram of an animation production method according to an embodiment of the present invention.
4 is a schematic diagram of an animation production method according to an embodiment of the present invention.
5 is a schematic diagram of an animation production method according to an embodiment of the present invention.
6 is a schematic diagram of an animation production method according to an embodiment of the present invention.
7 is a graph of an animation production method according to an embodiment of the present invention.
8 is a schematic flowchart of an animation production method according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명의 구체적인 실시예를 상세하게 설명한다. 다만, 본 발명의 사상은 제시되는 실시예에 제한되지 아니하고, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 본 발명 사상의 범위 내에 포함되는 다른 실시예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상 범위 내에 포함된다고 할 것이다.Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings. However, the spirit of the present invention is not limited to the presented embodiments, and those skilled in the art who understand the spirit of the present invention may add, change, delete, etc. other elements within the scope of the same spirit, through other degenerative inventions or the present invention. Other embodiments included within the scope of the inventive idea can be easily proposed, but it will also be said to be included within the scope of the inventive concept.

본 발명의 일 실시예에 따른 애니메이션 제작 방법은, 기존의 2차원 코믹 컨텐츠에 편집 및 영상 효과를 부가하여 애니메이션을 제작하는 애니메이션 제작 방법에 에 관한 것으로서, 스캔부가 상기 2차원 코믹 컨텐츠에 대해 이미지 스캐닝(Image scanning)을 수행하여 복수 개의 스캔된 이미지를 생성하는 단계; 제어부가 상기 스캔된 이미지 각각에 대해 클린업을 수행하며 상기 스캔된 이미지를 고화질로 변환하여 변환된 이미지를 생성하는 단계; 상기 제어부가 상기 변환된 이미지에 대해 컬러링하는 단계; 상기 제어부가 상기 변환된 이미지 각각에 존재하는 적어도 하나의 씬(Scene)에 대해 각각 프레임을 설정하여 복수 개의 프레임 이미지를 생성하는 단계; 메모리부가 상기 프레임 이미지를 저장하는 단계; 상기 제어부가 상기 프레임 이미지 각각에 대해 기 저장된 음성 정보를 대응시키는 단계; 및 상기 제어부가 상기 프레임 이미지 각각에 대해 영상 효과를 부여하는 단계;를 포함하는, 애니메이션 제작 방법일 수 있다.An animation production method according to an embodiment of the present invention relates to an animation production method in which animation is produced by editing and adding video effects to existing 2D comic contents, wherein the scan unit performs image scanning on the 2D comic contents. (Image scanning) to generate a plurality of scanned images; generating a converted image by a control unit performing a cleanup on each of the scanned images and converting the scanned image into a high-definition image; coloring the converted image by the controller; generating, by the control unit, a plurality of frame images by setting frames for at least one scene existing in each of the converted images; storing the frame image by a memory unit; allowing the control unit to correspond pre-stored audio information to each of the frame images; and applying, by the control unit, a video effect to each of the frame images.

또한, 상기 영상 효과를 부여하는 단계는, 상기 프레임 이미지 각각에 존재하는 등장 인물의 모션(Motion)을 설정하고, 상기 등장 인물의 모션과 대응되는 상기 음성 정보의 자막의 모션을 삽입하며, 상기 프레임 이미지 각각에 존재하는 배경에 대한 시각적 효과를 삽입하는 것을 특징으로 하는, 애니메이션 제작 방법일 수 있다.In addition, the step of applying the video effect may include setting a motion of a character present in each of the frame images, inserting a motion of a subtitle of the audio information corresponding to the motion of the character, and inserting the motion of the character in the frame image. It may be an animation production method characterized by inserting a visual effect for a background existing in each image.

또한, 상기 프레임 이미지를 생성하는 단계는, 상기 제어부가 상기 씬 각각에 대해 상기 씬에 포함된 등장 인물의 수 및 등장 인물의 자막에 기초하여 프레임 이미지의 크기 및 수를 생성하는 단계;를 더 포함하며, 상기 프레임 이미지를 생성하는 단계는, 등장 인물의 자막의 수에 기초하여 상기 프레임 이미지의 수를 결정하고, 등장 인물의 크기에 기초하여 상기 프레임 이미지의 크기를 결정하는, 애니메이션 제작 방법일 수 있다.The generating of the frame images may further include generating, by the controller, the size and number of frame images for each of the scenes based on the number of characters included in the scene and subtitles of the characters. The generating of the frame images may be an animation production method in which the number of frame images is determined based on the number of subtitles of the character and the size of the frame image is determined based on the size of the character. there is.

또한, 상기 프레임 이미지를 생성하는 단계 이후, 상기 제어부가 생성된 상기 프레임 이미지의 자막의 문맥적 내용에 따른 상기 프레임 이미지의 송출 순서를 제어하는 단계;를 더 포함하는, 애니메이션 제작 방법일 수 있다.In addition, after the step of generating the frame image, the controlling step of controlling the transmission order of the frame image according to the contextual content of the subtitle of the generated frame image; may be an animation production method that further includes.

또한, 상기 제어부가 상기 프레임 이미지의 송출 순서를 제어 한 후, 상기 제어부가 상기 프레임 이미지의 자막의 문맥적 내용에 따른 상기 프레임 이미지의 이동속도를 제어하는 단계;를 더 포함하는, 애니메이션 제작 방법일 수 있다.In addition, after the control unit controls the transmission order of the frame image, the control unit controlling the movement speed of the frame image according to the contextual content of the subtitle of the frame image; can

또한, 상기 프레임 이미지를 생성하는 단계는, 상기 제어부가 상기 프레임 이미지의 자막의 문맥적 내용에 따른 상기 프레임 이미지의 수를 감소시키는 단계;를 더 포함하는, 애니메이션 제작 방법일 수 있다.In addition, the generating of the frame image may be an animation production method that further includes reducing the number of the frame image according to the contextual content of the subtitle of the frame image by the control unit.

본 발명의 다른 일 실시예에 따른 애니메이션 제작 시스템은, 기존의 2차원 코믹 컨텐츠에 편집 및 영상 효과를 부가하여 애니메이션을 제작하는 애니메이션 제작 시스템에 관한 것으로서, 상기 2차원 코믹 컨텐츠에 대해 이미지 스캐닝을 수행하여 복수 개의 스캔된 이미지를 생성하는 스캔부; 상기 스캔된 이미지 각각에 대해 클린업을 수행하며 상기 스캔된 이미지를 고화질로 변환하여 변환된 이미지를 생성하는 제어부;를 포함하며, 상기 제어부는, 상기 변환된 이미지에 대해 컬러링을 수행하고, 상기 제어부는, 상기 변환된 이미지 각각에 존재하는 적어도 하나의 씬에 대해 각각 프레임을 설정하여 복수 개의 프레임 이미지를 생성하며, 상기 애니메이션 제작 시스템은, 상기 프레임 이미지를 저장하는 메모리부;를 더 포함하며, 상기 제어부는,상기 프레임 이미지 각각에 대해 기 저장된 음성 정보를 대응시키고, 상기 제어부는,상기 프레임 이미지 각각에 대해 영상 효과를 부여하는, 애니메이션 제작 시스템일 수 있다.An animation production system according to another embodiment of the present invention relates to an animation production system for producing animation by adding editing and video effects to existing 2D comic contents, and performs image scanning on the 2D comic contents a scanning unit for generating a plurality of scanned images; and a control unit that cleans up each of the scanned images and converts the scanned image to a high-definition image to generate a converted image, wherein the control unit performs coloring on the converted image, and the control unit performs coloring on the converted image. , A plurality of frame images are generated by setting frames for each of at least one scene existing in each of the converted images, and the animation production system further includes a memory unit for storing the frame images, wherein the control unit may correspond to previously stored audio information for each of the frame images, and the control unit may be an animation production system that provides a video effect to each of the frame images.

각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.Elements having the same function within the scope of the same idea appearing in the drawings of each embodiment are described using the same reference numerals.

도 1은 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 블록도이다.1 is a block diagram of an animation production method according to an embodiment of the present invention.

도 2의 (a) 내지 (b)는 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 개략도이다.2 (a) to (b) are schematic diagrams of an animation production method according to an embodiment of the present invention.

도 3의 (a) 내지 (b)는 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 개략도이다.3(a) to (b) are schematic diagrams of an animation production method according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 개략도이다.4 is a schematic diagram of an animation production method according to an embodiment of the present invention.

도 5의 (a) 내지 (c)는 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 개략도이다.5 (a) to (c) are schematic diagrams of an animation production method according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 개략도이다.6 is a schematic diagram of an animation production method according to an embodiment of the present invention.

도 7의 (a) 내지 (b)는 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 그래프이다.7(a) to (b) are graphs of an animation production method according to an embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 순서도이다.8 is a flowchart of an animation production method according to an embodiment of the present invention.

첨부된 도면은 본 발명의 기술적 사상을 보다 명확하게 표현하기 위하여, 본 발명의 기술적 사상과 관련성이 떨어지거나 당업자로부터 용이하게 도출될 수 있는 부분은 간략화 하거나 생략하였다.In the accompanying drawings, in order to more clearly express the technical idea of the present invention, parts that are not related to the technical idea of the present invention or can be easily derived from those skilled in the art are simplified or omitted.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, this means that it may further include other components, not excluding other components, unless otherwise stated, and one or more other characteristics. However, it should be understood that it does not preclude the possibility of existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In this specification, a "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, and two or more units may be realized by one hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.In this specification, some of the operations or functions described as being performed by a terminal or device may be performed instead by a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed in a terminal or device connected to the corresponding server.

이하에서는, 도 1 내지 도 8을 참조하여, 본 발명의 일 실시예에 따른 애니메이션 제작 방법에 대해 자세히 설명하겠다.Hereinafter, an animation production method according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 8 .

도2의 (a)에 도시한 바와 같이, 본 발명의 일 실시예에 따른 애니메이션 제작 방법은, 스캔부(11)가 이미지 스캐닝(Image scanning)을 수행하여 2차원 코믹 컨텐츠(Comic contents)의 복수 개의 스캔된 이미지(21)를 생성한다.As shown in (a) of FIG. 2, in the animation production method according to an embodiment of the present invention, the scanning unit 11 performs image scanning to generate a plurality of two-dimensional comic contents. A scanned image 21 of the dog is created.

2차원 코믹 컨텐츠는 일례로 기존에 존재하는 만화책이나 만화잡지, 또는 삽화를 의미 할 수 있으며, 상기 스캔부(11)는 2차원 코믹 컨텐츠의 이미지를 스캐닝 할 수 있는 공지된 스캐너 중 어느 것을 사용해도 무방하다.2D comic content may mean, for example, existing comic books, comic magazines, or illustrations, and the scanning unit 11 may use any of the known scanners capable of scanning images of 2D comic content. free

다만, 상기 복수 개의 스캔된 이미지(21)의 의미는, 예를 들어 만화책의 특정 페이지를 상기 스캔부(11)가 복수 개 스캐닝 하는 것을 의미하는 것이 아닌, 상기 스캔부(11)가 만화책을 구성하는 모든 페이지 또는 복수의 페이지를 스캐닝 하는 것을 의미 함은 물론이다.However, the meaning of the plurality of scanned images 21, for example, does not mean that the scanning unit 11 scans a plurality of specific pages of a comic book, but the scanning unit 11 constitutes a comic book. Of course, this means scanning all pages or a plurality of pages.

도 2의 (b)에서 볼 수 있듯이, 제어부(10)는, 상기 스캔된 이미지(21) 각각에 대해 클린업을 수행한다.As can be seen in (b) of FIG. 2 , the controller 10 performs cleanup on each of the scanned images 21 .

여기서, 클린업이라 함은, 보다 명확한 이미지를 구현하기 위해 스캔된 이미지(21)의 불필요한 부분을 삭제함과 동시에 상대적으로 흐릿하게 보이는 코마컷(Koma-cut)에 외곽선을 더하여 보다 명확하게 이미지를 구현하는 것을 의미하며, 상기 제어부(10)가 스캔된 이미지(21)의 자막을 삭제함과 동시에 후술 될 메모리부(12)에 자막을 저장하도록 제어하는 것을 의미한다.Here, cleanup refers to deleting unnecessary parts of the scanned image 21 in order to implement a clearer image and at the same time adding an outline to a relatively blurry koma-cut to implement a clearer image. This means that the control unit 10 deletes the captions of the scanned image 21 and simultaneously controls to store the captions in the memory unit 12 to be described later.

상기 자막은, 소위 말풍선이라 지칭되는 공간 내의 문구를 의미할 수 있다.The subtitle may mean a phrase in a space called a so-called speech bubble.

한편, 상기 제어부(10)는 도2의 (b)에서 볼 수 있듯이, 스캔된 이미지(21)를 고화질로 변환하여 변환된 이미지(22)를 생성 하도록 제어할 수 있다.Meanwhile, as shown in (b) of FIG. 2, the control unit 10 may convert the scanned image 21 into a high-definition image and generate a converted image 22.

이는, 애니메이션 제작자(이하 제작자라 함)에 의해 상기 제어부(10)가 상기 스캔된 이미지(21)를 기 설정된 해상도(예를 들어, 600dpi)로 변환되어 고화질의 상기 변환된 이미지(22)를 생성하도록 설정됨으로써 구현 가능하며, 해상도의 설정은 제작자에 의해 변경가능 하다.In this case, the control unit 10 converts the scanned image 21 to a predetermined resolution (eg, 600 dpi) by an animation maker (hereinafter referred to as a producer) to generate the converted image 22 of high quality. It can be implemented by setting to do so, and the setting of the resolution can be changed by the manufacturer.

이후, 상기 제어부(10)는, 도 3의 (a)에서 볼 수 있듯이, 상기 변환된 이미지(22)에 대해 컬러링을 수행한다.Then, as shown in (a) of FIG. 3 , the controller 10 performs coloring on the converted image 22 .

여기서, 컬러링이란, 흑백의 상기 변환된 이미지(22)에 색을 오버랩함으로써, 흑백 이미지에 색을 칠하는 작업을 수행하는 것을 의미하며, 제작자에게 색상 선택에 대한 인터페이스를 제공하며, 제작자에 의해 선택된 색상을 상기 변환된 이미지(22)의 특정 영역에 삽입하는 포토샵 등의 공지된 방법을 통하여 구현될 수 있다.Here, coloring means performing an operation of coloring a black and white image by overlapping a color on the converted image 22 of black and white, providing a producer with an interface for color selection, and selecting a color selected by the producer. It can be implemented through a known method such as Photoshop, which inserts color into a specific area of the converted image 22 .

또한, 도 3의 (a) 내지 (b)에서 볼 수 있듯이, 상기 제어부(10)는 상기 변환된 이미지 각각에 존재하는 적어도 하나의 씬(Scene, 23)에 대해 각각 프레임을 설정하여 복수 개의 프레임 이미지(24)를 생성할 수 있다.In addition, as can be seen in (a) to (b) of FIG. 3, the controller 10 sets a frame for each of the at least one scene (Scene, 23) present in each of the converted images to obtain a plurality of frames. Image 24 can be created.

상기 제어부(10)는, 상기 씬(23) 각각에 대해 상기 씬(23)에 포함된 등장 인물의 수 및 등장 인물의 자막(예를 들어, 말풍선 전체)에 기초하여 프레임 이미지(24)의 크기 및 수를 생성 할 수 있으며 아래에서 보다 자세히 설명하겠다.The control unit 10 determines the size of the frame image 24 for each scene 23 based on the number of characters included in the scene 23 and the character's caption (eg, all speech bubbles). and numbers, which will be discussed in more detail below.

메모리부(12)는, 상기 제어부(10)에 의해 상기 자막을 저장하고, 상기 프레임 이미지(24)를 저장하도록 제어된다.The memory unit 12 is controlled by the control unit 10 to store the caption and the frame image 24 .

한편, 상기 자막은 소위 말풍선이라 지칭되는 공간 내의 문구를 의미할 수 있으며, 성우를 통해 자막이 녹음되어 음성 정보로 상기 메모리부(12)에 미리 저장될 수 있고, 제작자에 의해 상기 제어부(10)는 생성된 상기 프레임 이미지(24)에 기 저장된 상기 음성 정보를 대응시키도록 제어된다. 이는, 상기 제어부(10)가 제작자에게 인터페이스 화면을 제공하여 제어부(10)에 의해 생성된 상기 프레임 이미지(24) 각각에 대응되는 상기 음성 정보를 대응 시킬 수 있음은 물론이다.On the other hand, the subtitle may mean a phrase in a space called a speech bubble, the subtitle may be recorded through a voice actor and stored in advance as voice information in the memory unit 12, and the controller 10 is controlled to correspond the pre-stored voice information to the generated frame image 24. This, of course, allows the controller 10 to provide an interface screen to the producer so that the audio information corresponding to each of the frame images 24 generated by the controller 10 can correspond.

이때, 자막이 지워진 말풍선은 상기 제어부(10)에 의해 제거될 수 있다.In this case, the speech bubble with the subtitle erased may be removed by the controller 10 .

또한, 상기 제어부(10)는 생성된 상기 프레임 이미지(24) 각각에 대해 영상 효과를 부여하도록 제어된다.Also, the control unit 10 is controlled to provide video effects to each of the generated frame images 24 .

이를 보다 자세히 설명하자면, 상기 제어부(10)는, 제작자에게 등장인물의 모션 설정에 대한 인터페이스를 제공할 수 있으며, 제작자에 의해 선택된 모션(Motion)이 상기 프레임 이미지(24) 각각에 존재하는 등장인물의 모션으로 구현될 수 있도록 제어할 수 있다.To explain this in more detail, the control unit 10 may provide a producer with an interface for setting the character's motion, and the character whose motion selected by the producer is present in each of the frame images 24 It can be controlled so that it can be implemented with the motion of

또한, 상기 제어부(10)는, 제작자에게 상기 음성 정보와 대응되는 시각적으로 표현되는 자막의 모션 설정에 대한 인터페이스를 제공할 수 있으며, 제작자에 의해 선택된 모션이 상기 프레임 이미지(24) 각각에 삽입되는 시각적으로 표현되는 자막의 모션으로 구현될 수 있도록 제어할 수 있다.In addition, the control unit 10 may provide a producer with an interface for motion setting of visually expressed subtitles corresponding to the audio information, and the motion selected by the producer is inserted into each of the frame images 24. It can be controlled so that it can be implemented as a motion of a visually expressed subtitle.

일례로, 도 6에서 볼 수 있듯이, 제작자에 의해 설정된 등장인물의 모션이 무를 썰기 위해 칼을 파지한 팔을 상측 및 하측(화살표 방향)로 움직이는 모션이며, 등장인물의 모션에 대응하여 자막(김치요! 김치 만들려고요!)의 모션 또한 화살표 방향인 상측 및 하측으로 움직이도록 설정될 수 있다.As an example, as shown in FIG. 6, the motion of the character set by the producer is the motion of moving the arm holding the knife to the upper and lower sides (direction of the arrow) to slice the radish, and the subtitle (Kimchi Yo! To make kimchi!) can also be set to move upwards and downwards in the direction of the arrow.

다만, 등장인물의 모션과 상기 음성정보와 대응되는 시각적으로 표현되는 자막의 모션은 제작자의 설정에 의해 각각 다른 모션으로 설정될 수 있으나, 등장인물의 모션과 자막의 모션을 동일하게 설정하여 시청자가 애니메이션을 시청할 경우, 보다 집중할 수 있도록 유도함은 물론이다.However, the motion of the character and the motion of the subtitle that is visually expressed corresponding to the voice information may be set to different motions by the producer's setting. When watching an animation, it is of course induced to concentrate more.

또한, 상기 제어부(10)는 제작자에 배경에 대한 시각적 효과를 삽입할 수 있는 인터페이스 화면을 제공하여, 제작자에 의해 설정된 배경에 대한 시각적 효과를 상기 프레임 이미지(24)에 삽입 할 수 있으며, 일례로, 도 6에서는, 상기 제어부(10)가 등장인물이 파지하는 칼의 상측에 반짝이는 효과를 삽입하는 등의 배경에 대한 시각적 효과를 상기 프레임 이미지(24)에 삽입되도록 제작자에 의해 제어될 수 있다.In addition, the control unit 10 provides a producer with an interface screen capable of inserting a visual effect for the background, so that the visual effect for the background set by the producer can be inserted into the frame image 24, as an example. 6, the control unit 10 can be controlled by the producer to insert a visual effect for the background, such as inserting a sparkling effect on the upper side of the knife held by the character, into the frame image 24. .

이는, 제작자가 공지된 기술인 애프터이펙트 또는 퓨전, 누크와 같은 응용 프로그램을 활용하여도 무방하다.For this, it is okay for the producer to utilize application programs such as After Effects, Fusion, or Nuke, which are known technologies.

즉, 상기 제어부(10)는 프레임 이미지(24)를 생성한 후, 제작자에 의해 각각의 프레임 이미지(24)에 음성 정보를 대응시키고, 상기 프레임 이미지(24)에 영상 효과를 부여하고, 이후 상기 프레임 이미지(24)의 순차적 연출을 통해 2차원 코믹 컨텐츠가 애니메이션으로 구현될 수 있다.That is, after generating the frame image 24, the control unit 10 corresponds audio information to each frame image 24 by a producer, gives a video effect to the frame image 24, and then 2D comic contents can be implemented as animation through sequential presentation of the frame image 24 .

상기 자막은, 스캔된 이미지(21)의 말풍선 전체를 의미하는 말풍선과 말풍선 내에 삽입된 문구 또는 말풍선 내에 삽입된 문구를 의미할 수 있으며, 상기 자막(여기서 자막은 말풍선 내에 삽입된 문구)은, 성우에 의해 녹음되어 음성 정보로 상기 메모리부(12)에 미리 저장될 수 있으며, 상기 자막(말풍선 내에 삽입된 문구)은 상기 제어부(10)에 의해 상기 프레임 이미지(24)에 기 저장된 음성 정보가 대응되며, 상기 자막(말풍선 내에 삽입된 문구)은, 상기 프레임 이미지(24)의 등장인물의 모션과 동일한 모션을 가지며 상기 음성 정보와 대응하는 시각적으로 구현되는 문구로 상기 프레임 이미지(24)의 소정의 위치에서 표현된다.The caption may refer to a speech bubble meaning the entire speech bubble of the scanned image 21, a phrase inserted into the speech bubble, or a phrase inserted into the speech bubble. may be recorded and stored in the memory unit 12 in advance as audio information, and the subtitles (words inserted in speech bubbles) correspond to audio information pre-stored in the frame image 24 by the control unit 10. The subtitle (text inserted into the speech bubble) is a visually implemented phrase that has the same motion as that of the character of the frame image 24 and corresponds to the voice information, and has a predetermined value of the frame image 24 expressed in position.

즉, 상기 자막(말풍선 내에 삽입된 문구)은, 상기 프레임 이미지(24) 각각에서,That is, the caption (phrase inserted into the speech bubble) is, in each of the frame images 24,

음성 정보로 표현됨과 동시에, 등장인물의 모션과 동일한 모션을 가지며 시각적으로 구현되는 문구로 표현된다.At the same time as being expressed as voice information, it is expressed as a visually implemented phrase having the same motion as that of the character.

한편, 상기 제어부(10)는, 상기 씬(23) 각각에 대해 상기 씬(23)에 포함된 등장 인물의 수 및 등장 인물의 자막(여기서 자막은 말풍선 전체를 의미함)에 기초하여 프레임 이미지의 크기 및 수를 생성할 수 있다.On the other hand, the control unit 10, for each scene 23, based on the number of characters included in the scene 23 and the character's caption (here, the caption means the entire speech bubble) of the frame image You can create any size and number.

이는, 상기 제어부(10)가 상기 씬(23) 각각에 대해 등장인물의 자막의 수(말풍선 전체) 및 자막의 크기(말풍선 전체)를 인식 할 수 있으며 또한, 상기 제어부가(10) 상기 씬(23) 각각에 대해 상기 씬(23)에 포함된 등장 인물을 인식할 수 있기 때문이다.This means that the control unit 10 can recognize the number of subtitles (all speech bubbles) and the size of subtitles (all speech bubbles) for each of the scenes 23, and the control unit 10 can recognize the scene (all speech bubbles). 23) This is because the characters included in the scene 23 can be recognized for each.

이를 보다 자세히 설명하자면, 도 4에서 볼 수 있듯이, 스캔된 이미지(21)에서 변환된 이미지(22)를 생성하고, 컬러링을 수행한 후, 상기 제어부(10)는 변환된 이미지(22)에서 등장 인물 및 등장인물의 자막(말풍선 전체)를 인식하여, 붉은색 테두리로 도시한 프레임 이미지(24)를 생성할 수 있다.To explain this in more detail, as shown in FIG. 4, after generating a converted image 22 from a scanned image 21 and performing coloring, the controller 10 appears in the converted image 22. A frame image 24 shown with a red border may be generated by recognizing a person and a subtitle (entire speech bubble) of the character.

즉, 도 5의 (a) 내지 (c)에서 볼 수 있듯이, 상기 제어부(10)는, 상기 씬(23) 각각에 대해 등장인물 및 등장인물의 자막(말풍선 전체)을 인식하여, 그에 따라 프레임 이미지(24)를 생성하며, 상기 씬(23)각각에 대해 존재하는 등장인물의 크기에 따라 프레임 이미지의 크기를 결정하게 되며, 이후 시각적, 청각적 효과를 추가하여 최종적인 프레임 이미지(24)를 생성하게 된다.That is, as can be seen in (a) to (c) of FIG. 5 , the controller 10 recognizes a character and its subtitle (whole speech bubble) for each scene 23, and displays a frame accordingly. The image 24 is generated, and the size of the frame image is determined according to the size of the character that exists for each scene 23, and then the final frame image 24 is created by adding visual and auditory effects. will create

한편, 상기 제어부(10)는, 등장인물의 자막(말풍선 내에 삽입된 문구)를 인식할 수 있어서, 상기 프레임 이미지(24)의 순차적 연출을 통해 애니메이션으로 구현할 경우, 상기 자막(말풍선 내에 삽입된 문구)의 문맥적 내용에 따른 상기 프레임 이미지(24)의 송출 순서를 제어할 수 있다.On the other hand, the control unit 10 can recognize the character's subtitles (text inserted into the speech bubble), so when implemented as an animation through sequential directing of the frame image 24, the subtitle (text inserted into the speech bubble) It is possible to control the transmission order of the frame image 24 according to the contextual content of ).

이는, 상기 제어부(10)에 공지된 OCR(Optical Character Recognition) 또는 공지된 키워드(Key word) 추출 기술 등의 공지의 기술을 적용하여 구현 가능하다.This can be implemented by applying a known technology such as a known OCR (Optical Character Recognition) or a known keyword extraction technology to the control unit 10 .

따라서, 상기 프레임 이미지(24)의 순차적 연출을 통해 애니메이션으로 구현할 경우, 상기 제어부(10)는, 상기 프레임 이미지(24) 각각의 자막(말풍선 내에 삽입된 문구)을 인식하여 상기 프레임 이미지(24)의 송출 순서대로 각각의 상기 프레임 이미지(24)를 정렬하거나 배치하는 등의 각각의 상기 프레임 이미지(24)의 송출 순서를 제어할 수 있다.Therefore, when implemented as an animation through sequential presentation of the frame image 24, the control unit 10 recognizes the subtitle (text inserted in a speech bubble) of each of the frame image 24 and converts the frame image 24 It is possible to control the transmission order of each of the frame images 24, such as arranging or arranging each of the frame images 24 in the order of transmission.

또한, 상기 제어부(10)는, 상기 프레임 이미지(24)의 송출 순서를 제어 한 후,In addition, the control unit 10, after controlling the transmission order of the frame image 24,

상기 제어부가 상기 프레임 이미지(24)의 자막의 문맥적 내용에 따른 상기 프레임 이미지의 이동속도를 제어할 수 있다.The control unit may control the movement speed of the frame image 24 according to the contextual content of the caption of the frame image 24 .

여기서, 상기 프레임 이미지의 이동속도는, 애니메이션으로 구현 할 경우, 예를 들어 제1 프레임 이미지, 제2 프레임 이미지, 제3 프레임 이미지의 순서로 송출 된다고 가정한다면, 제1 프레임 이미지가 송출된 후, 제2 프레임 이미지로 변환될 때의 속도를 의미하며, 마찬가지로 제2 프레임 이미지가 송출된 후, 제3 프레임 이미지로 변환 될 때의 속도를 의미한다.Here, if the moving speed of the frame image is implemented as an animation, for example, assuming that the first frame image, the second frame image, and the third frame image are transmitted in the order, after the first frame image is transmitted, This means the speed when converted into the second frame image, and similarly means the speed when converted into the third frame image after the second frame image is transmitted.

상기 제어부(10)는, 상기 프레임 이미지(24)의 자막의 문맥적 내용을 인식할 수 있기 때문에, 예를 들어, 도 7의 (a)에서 볼 수 있듯이, 임의의 프레임 이미지(24)에서 주변의 자연 환경을 보여주는 프레임 이미지(24) 또는 주변의 배경을 보여주는 프레임 이미지(24)와 같이 상대적으로 긴장감이 떨어지는 프레임 이미지(24)로 변환 될 경우, 상기 프레임 이미지의 이동속도는 상대적으로 느리게 설정되어, 임의의 프레임 이미지(24)에서 상대적으로 긴장감이 떨어지는 프레임 이미지(24)로 변환 될 경우, 상대적으로 느리게 변환된다.Since the control unit 10 can recognize the contextual content of the subtitle of the frame image 24, for example, as shown in (a) of FIG. 7, in an arbitrary frame image 24, When converted to a frame image 24 with relatively low tension, such as a frame image 24 showing a natural environment or a frame image 24 showing a surrounding background, the movement speed of the frame image is set relatively slow , when converted from an arbitrary frame image 24 to a frame image 24 with relatively low tension, it is converted relatively slowly.

예를 들어, 도 7의 (b)에서 볼 수 있듯이, 임의의 프레임 이미지(24)에서 등장 인물 간의 말싸움에 대한 프레임 이미지나 전투 장면에 대한 프레임 이미지 등과 같은 상대적으로 긴장감이 고조되는 프레임 이미지(24)로 변환 될 경우, 상기 프레임 이미지의 이동속도는 상대적으로 빠르게 설정되어, 임의의 프레임 이미지(24)에서 상대적으로 긴장감이 고조되는 프레임 이미지(24)로 변환될 경우, 상대적으로 느리게 변환된다.For example, as shown in (b) of FIG. 7 , in an arbitrary frame image 24, a frame image 24 in which tension is relatively increased, such as a frame image of a verbal fight between characters or a frame image of a battle scene. ), the moving speed of the frame image is set relatively fast, so when it is converted from an arbitrary frame image 24 to a frame image 24 in which tension is relatively high, it is converted relatively slowly.

다만, 제어부(10)에 의해 제어되는 상기 프레임 이미지의 이동속도는, 제작자에 의해 변경 가능하며, 상기 프레임 이미지의 송출 순서에 따라 순차적으로 적용 될 수 있으며, 프레임 이미지의 이동속도에 변화를 주는 것은, 시청자가 본 발명에 따라서 제작된 애니메이션을 시청 할 경우, 보다 실감나게 시청하도록 유도하기 위함은 물론이다.However, the movement speed of the frame image controlled by the control unit 10 can be changed by the producer and applied sequentially according to the transmission order of the frame image, and changing the movement speed of the frame image is , When the viewer watches the animation produced according to the present invention, it is, of course, to induce the viewer to watch the animation more realistically.

한편, 상기 제어부(10)는 상기 프레임 이미지(24)의 문맥적 내용에 따라 상기 프레임 이미지의 수를 감소시킬 수 있다.Meanwhile, the controller 10 may reduce the number of frame images according to the contextual contents of the frame images 24 .

이를 보다 자세히 설명하자면, 상기 제어부(10)가 상기 씬(23)의 등장 인물의 수 및 등장 인물의 자막(말풍선 전체)에 기초하여 상기 프레임 이미지(24)를 형성하나, 예를 들어, 상기 씬(23)에서 임의의 등장인물이 연설을 하고, 불특정 다수의 등장인물이 환호성을 보내는 청자로 묘사되는 경우가 있을 수 있다.To explain this in more detail, the controller 10 forms the frame image 24 based on the number of characters in the scene 23 and the captions (whole speech bubbles) of the characters, but, for example, the scene In (23), there may be a case where a random character gives a speech and an unspecified number of characters are described as audiences cheering.

이러한 경우, 상기 제어부(10)는 불특정 다수의 청자 각각, 상기 프레임 이미지(24)를 설정하는 것이 아닌, 불특정 다수의 청자 전체를 하나의 프레임 이미지(24)로 설정한다.In this case, the controller 10 does not set the frame image 24 for each of the unspecified number of listeners, but sets the entire unspecified number of listeners as one frame image 24 .

또 다른 예를 들면, 상기 씬(23)에서, 선생님과 한 학급을 구성하는 전체의 학생이 교실에서 대화를 나누는 경우, 상기 제어부(10)는 한 학급 전체의 학생 각각, 상기 프레임 이미지(24)를 설정하는 것이 아닌, 한 학급을 구성하는 학생 전체를 하나의 프레임 이미지로 설정한다.As another example, in the scene 23, when a teacher and all the students constituting one class have a conversation in the classroom, the controller 10 controls each of the students in one class, the frame image 24 is not set, but all students constituting one class are set as one frame image.

이는, 이해를 돕기 위한 하나의 예시일 뿐이며 상기 씬(23)은 다양한 형태로 구성될 수 있어서, 상기 제어부(10)가 상기 프레임 이미지의 자막의 문맥적 내용에 따라서 상기 프레임 이미지(24)의 수를 감소시키는 것은 상기 씬(23)에 따라서 다양하게 적용될 수 있다.This is just one example to help understanding, and the scene 23 can be configured in various forms, so that the control unit 10 determines the number of frame images 24 according to the contextual content of the caption of the frame image. Reducing may be variously applied according to the scene 23 .

다만, 상기 제어부(10)가 상기 프레임 이미지(24)의 수를 감소 시키는 것은, 상기 제어부(10)가 등장인물 및 자막(말풍선 내에 삽입된 문구)를 인식하기 때문에 구현 가능하며, 이는, 시청자가 본 발명에 의해 제작된 애니메이션을 시청할 경우, 보다 실감나게 시청하도록 유도하기 위함은 물론이다.However, the reduction of the number of frame images 24 by the controller 10 can be realized because the controller 10 recognizes characters and subtitles (words inserted in speech bubbles), which allows viewers to When watching the animation produced by the present invention, it is, of course, to induce viewing in a more realistic way.

본 발명의 다른 일 실시예에 따른 애니메이션 제작 시스템은 앞서 설명한 상기 애니메이션 제작 방법을 구현하는 장치일 수 있다.An animation production system according to another embodiment of the present invention may be a device implementing the animation production method described above.

상기 스캔부(11)는 상기 2차원 코믹 컨텐츠에 대해 이미지 스캐닝을 수행하여 복수 개의 스캔된 이미지(21)를 생성할 수 있다.The scanning unit 11 may generate a plurality of scanned images 21 by performing image scanning on the 2D comic content.

상기 제어부(10)는 상기 스캔된 이미지(21) 각각에 대해 클린업을 수행하며 상기 스캔된 이미지(21)를 고화질로 변환하여 변환된 이미지(22)를 생성할 수 있다.The control unit 10 may perform a cleanup on each of the scanned images 21 and convert the scanned images 21 into high-definition images to generate converted images 22 .

또한, 상기 제어부(10)는 상기 변환된 이미지(22)에 대해 컬러링을 수행할 수 있다.Also, the controller 10 may perform coloring on the converted image 22 .

또한, 상기 제어부(10)는 상기 변환된 이미지(22) 각각에 존재하는 적어도 하나의 씬(23)에 대해 각각 프레임을 설정하여 복수 개의 프레임 이미지(24)를 생성할 수 있다.In addition, the controller 10 may generate a plurality of frame images 24 by setting a frame for each of the at least one scene 23 existing in each of the converted images 22 .

상기 메모리부(12)는, 상기 프레임 이미지(24)를 저장할 수 있다.The memory unit 12 may store the frame image 24 .

상기 제어부(10)는, 상기 프레임 이미지 각각에 대해 기 저장된 음성 정보를 대응시킬 수 있다.The controller 10 may correspond pre-stored voice information to each of the frame images.

또한, 상기 제어부(10)는 상기 프레임 이미지 각각에 대해 영상 효과를 부여할 수 있다.Also, the control unit 10 may provide a video effect to each of the frame images.

상기에서는 본 발명에 따른 실시예를 기준으로 본 발명의 구성과 특징을 설명하였으나 본 발명은 이에 한정되지 않으며, 본 발명의 사상과 범위 내에서 다양하게 변경 또는 변형할 수 있음은 본 발명이 속하는 기술분야의 당업자에게 명백한 것이며, 따라서 이와 같은 변경 또는 변형은 첨부된 특허청구범위에 속함을 밝혀둔다.In the above, the configuration and characteristics of the present invention have been described based on the embodiments according to the present invention, but the present invention is not limited thereto, and various changes or modifications can be made within the spirit and scope of the present invention. It is apparent to those skilled in the art, and therefore such changes or modifications are intended to fall within the scope of the appended claims.

10: 제어부, 11: 스캔부, 12: 메모리부
21: 스캔된 이미지, 22: 변환된 이미지
23: 씬, 24: 프레임 이미지
10: control unit, 11: scan unit, 12: memory unit
21: scanned image, 22: converted image
23: scene, 24: frame image

Claims (7)

기존의 2차원 코믹 컨텐츠에 편집 및 영상 효과를 부가하여 애니메이션을 제작하는 애니메이션 제작 방법에 있어서,
스캔부가 상기 2차원 코믹 컨텐츠에 대해 이미지 스캐닝(Image scanning)을 수행하여 복수 개의 스캔된 이미지를 생성하는 단계;
제어부가 상기 스캔된 이미지 각각에 대해 클린업을 수행하며 상기 스캔된 이미지를 고화질로 변환하여 변환된 이미지를 생성하는 단계;
상기 제어부가 상기 변환된 이미지에 대해 컬러링하는 단계;
상기 제어부가 상기 변환된 이미지 각각에 존재하는 적어도 하나의 씬(Scene)에 대해 각각 프레임을 설정하여 복수 개의 프레임 이미지를 생성하는 단계;
메모리부가 상기 프레임 이미지를 저장하는 단계;
상기 제어부가 상기 프레임 이미지 각각에 대해 기 저장된 음성 정보를 대응시키는 단계; 및
상기 제어부가 상기 프레임 이미지 각각에 대해 영상 효과를 부여하는 단계;를 포함하는,
애니메이션 제작 방법.
In the animation production method for producing animation by adding editing and video effects to existing two-dimensional comic contents,
generating a plurality of scanned images by a scanning unit performing image scanning on the 2D comic content;
generating a converted image by a control unit performing a cleanup on each of the scanned images and converting the scanned image into a high-definition image;
coloring the converted image by the controller;
generating, by the control unit, a plurality of frame images by setting frames for at least one scene existing in each of the converted images;
storing the frame image by a memory unit;
allowing the control unit to correspond pre-stored audio information to each of the frame images; and
Including, the controller providing a video effect to each of the frame images;
How to make an animation.
제1항에 있어서,
상기 영상 효과를 부여하는 단계는,
상기 프레임 이미지 각각에 존재하는 등장 인물의 모션(Motion)을 설정하고,
상기 등장 인물의 모션과 대응되는 상기 음성 정보의 자막의 모션을 삽입하며,
상기 프레임 이미지 각각에 존재하는 배경에 대한 시각적 효과를 삽입하는 것을 특징으로 하는,
애니메이션 제작 방법.
According to claim 1,
The step of giving the video effect,
Set the motion of a character existing in each of the frame images,
Inserting a motion of a subtitle of the voice information corresponding to a motion of the character,
Characterized in that inserting a visual effect for the background existing in each of the frame images,
How to make an animation.
제2항에 있어서,
상기 프레임 이미지를 생성하는 단계는,
상기 제어부가 상기 씬 각각에 대해 상기 씬에 포함된 등장 인물의 수 및 등장 인물의 자막에 기초하여 프레임 이미지의 크기 및 수를 생성하는 단계;를 더 포함하며,
상기 프레임 이미지를 생성하는 단계는,
등장 인물의 자막의 수에 기초하여 상기 프레임 이미지의 수를 결정하고,
등장 인물의 크기에 기초하여 상기 프레임 이미지의 크기를 결정하는,
애니메이션 제작 방법.
According to claim 2,
The step of generating the frame image,
Generating, by the controller, the size and number of frame images for each of the scenes based on the number of characters included in the scene and subtitles of the characters;
The step of generating the frame image,
determining the number of frame images based on the number of subtitles of characters;
determining the size of the frame image based on the size of the character;
How to make an animation.
제3항에 있어서,
상기 프레임 이미지를 생성하는 단계 이후,
상기 제어부가 생성된 상기 프레임 이미지의 자막의 문맥적 내용에 따른 상기 프레임 이미지의 송출 순서를 제어하는 단계;를 더 포함하는,
애니메이션 제작 방법.
According to claim 3,
After generating the frame image,
Controlling, by the control unit, an order of transmission of the frame image according to the contextual content of the subtitle of the generated frame image;
How to make an animation.
제4항에 있어서,
상기 제어부가 상기 프레임 이미지의 송출 순서를 제어 한 후,
상기 제어부가 상기 프레임 이미지의 자막의 문맥적 내용에 따른 상기 프레임 이미지의 이동속도를 제어하는 단계;를 더 포함하는,
애니메이션 제작 방법.
According to claim 4,
After the control unit controls the transmission order of the frame image,
Controlling, by the control unit, a moving speed of the frame image according to the contextual content of the subtitle of the frame image;
How to make an animation.
제5항에 있어서,
상기 프레임 이미지를 생성하는 단계는,
상기 제어부가 상기 프레임 이미지의 자막의 문맥적 내용에 따른 상기 프레임 이미지의 수를 감소시키는 단계;를 더 포함하는,
애니메이션 제작 방법.
According to claim 5,
The step of generating the frame image,
Reducing, by the control unit, the number of frame images according to the contextual content of the subtitle of the frame image;
How to make an animation.
기존의 2차원 코믹 컨텐츠에 편집 및 영상 효과를 부가하여 애니메이션을 제작하는 애니메이션 제작 시스템에 있어서,
상기 2차원 코믹 컨텐츠에 대해 이미지 스캐닝을 수행하여 복수 개의 스캔된 이미지를 생성하는 스캔부;
상기 스캔된 이미지 각각에 대해 클린업을 수행하며 상기 스캔된 이미지를 고화질로 변환하여 변환된 이미지를 생성하는 제어부;를 포함하며,
상기 제어부는,
상기 변환된 이미지에 대해 컬러링을 수행하고,
상기 제어부는,
상기 변환된 이미지 각각에 존재하는 적어도 하나의 씬에 대해 각각 프레임을 설정하여 복수 개의 프레임 이미지를 생성하며,
상기 애니메이션 제작 시스템은,
상기 프레임 이미지를 저장하는 메모리부;를 더 포함하며,
상기 제어부는,
상기 프레임 이미지 각각에 대해 기 저장된 음성 정보를 대응시키고,
상기 제어부는,
상기 프레임 이미지 각각에 대해 영상 효과를 부여하는,
애니메이션 제작 시스템.

In the animation production system for producing animation by adding editing and video effects to existing two-dimensional comic contents,
a scanning unit generating a plurality of scanned images by performing image scanning on the 2D comic content;
A control unit that cleans up each of the scanned images and converts the scanned images into high-definition images to generate converted images;
The control unit,
performing coloring on the converted image;
The control unit,
Creating a plurality of frame images by setting frames for at least one scene existing in each of the converted images;
The animation production system,
Further comprising a memory unit for storing the frame image,
The control unit,
Correspond pre-stored audio information to each of the frame images;
The control unit,
Giving a video effect to each of the frame images,
animation production system.

KR1020210104457A 2021-08-09 2021-08-09 method and system for producing animation KR102569687B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210104457A KR102569687B1 (en) 2021-08-09 2021-08-09 method and system for producing animation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210104457A KR102569687B1 (en) 2021-08-09 2021-08-09 method and system for producing animation

Publications (2)

Publication Number Publication Date
KR20230022551A true KR20230022551A (en) 2023-02-16
KR102569687B1 KR102569687B1 (en) 2023-08-25

Family

ID=85325819

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210104457A KR102569687B1 (en) 2021-08-09 2021-08-09 method and system for producing animation

Country Status (1)

Country Link
KR (1) KR102569687B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120076600A (en) * 2010-12-06 2012-07-09 손기택 Method and system for producing moving cartoon
KR20130107895A (en) * 2012-03-23 2013-10-02 김지찬 The manufacturing method for ani comic by applying effects for 2 dimensional comic contents, computer-readable recording medium having ani comic program manufacturing ani comic by applying effects for 2 dimensional comic contents, and readable recording medium having the ani comic manufactured by the method
KR20200022225A (en) * 2018-08-22 2020-03-03 네이버웹툰 주식회사 Method, apparatus and computer program for generating cartoon data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120076600A (en) * 2010-12-06 2012-07-09 손기택 Method and system for producing moving cartoon
KR20130107895A (en) * 2012-03-23 2013-10-02 김지찬 The manufacturing method for ani comic by applying effects for 2 dimensional comic contents, computer-readable recording medium having ani comic program manufacturing ani comic by applying effects for 2 dimensional comic contents, and readable recording medium having the ani comic manufactured by the method
KR20200022225A (en) * 2018-08-22 2020-03-03 네이버웹툰 주식회사 Method, apparatus and computer program for generating cartoon data

Also Published As

Publication number Publication date
KR102569687B1 (en) 2023-08-25

Similar Documents

Publication Publication Date Title
Bowen Grammar of the Shot
Beane 3D animation essentials
JP5015221B2 (en) Reproduction method using information recording medium on which subtitle is recorded
US6351265B1 (en) Method and apparatus for producing an electronic image
Fox Can integrated titles improve the viewing experience?: Investigating the impact of subtitling on the reception and enjoyment of film using eye tracking and questionnaire data
CN105340014B (en) Touch optimization design for video editing
US6580466B2 (en) Methods for generating image set or series with imperceptibly different images, systems therefor and applications thereof
JPH11219446A (en) Video/sound reproducing system
KR102186607B1 (en) System and method for ballet performance via augumented reality
Smith Motion comics: the emergence of a hybrid medium
US11380366B2 (en) Systems and methods for enhanced closed captioning commands
CN101207670B (en) Image processing apparatus, image processing method
KR101457045B1 (en) The manufacturing method for Ani Comic by applying effects for 2 dimensional comic contents and computer-readable recording medium having Ani comic program manufacturing Ani comic by applying effects for 2 dimensional comic contents
KR102569687B1 (en) method and system for producing animation
US20130187927A1 (en) Method and System for Automated Production of Audiovisual Animations
JP4097736B2 (en) Method for producing comics using a computer and method for viewing a comic produced by the method on a monitor screen
Cossar The shape of new media: Screen space, aspect ratios, and digitextuality
Jackson After effects for designers: Graphic and interactive design in motion
KR20060030179A (en) Electronic cartoon and manufacturing methode thereof
KR19980066044A (en) Apparatus and copyrighted work for converting the main character's face and metabolism into a specific person using an image processing technique
WO2020093865A1 (en) Media file, and generation method and playback method therefor
Ramey Do No Harm—The Cameraless Animation of Anthropologist Robert Ascher
WO2023167212A1 (en) Computer program, information processing method, and information processing device
WO2007073010A1 (en) Media making method and storage medium
Bretz et al. Communication media: Properties and uses

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right