KR100500896B1 - Method for automatically generating intelligent digital actor or extras based on digital continuity - Google Patents

Method for automatically generating intelligent digital actor or extras based on digital continuity Download PDF

Info

Publication number
KR100500896B1
KR100500896B1 KR10-2003-0059424A KR20030059424A KR100500896B1 KR 100500896 B1 KR100500896 B1 KR 100500896B1 KR 20030059424 A KR20030059424 A KR 20030059424A KR 100500896 B1 KR100500896 B1 KR 100500896B1
Authority
KR
South Korea
Prior art keywords
motion
digital
extras
conti
actors
Prior art date
Application number
KR10-2003-0059424A
Other languages
Korean (ko)
Other versions
KR20050022597A (en
Inventor
백성민
정일권
이지형
이인호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR10-2003-0059424A priority Critical patent/KR100500896B1/en
Publication of KR20050022597A publication Critical patent/KR20050022597A/en
Application granted granted Critical
Publication of KR100500896B1 publication Critical patent/KR100500896B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명에 따른 디지털 콘티 기반의 지능적 디지털 액터 및 엑스트라 자동 생성방법은, 디지털 콘티를 입력받아 이를 해석하고 모션 코드로 변환하는 디지털 콘티 처리 단계; 상기 단계에서 변환된 모션 코드를 기반으로하여 미리 구비된 소정의 모션 데이터베이스로부터 가장 근접한 모션을 검색하고 추출하는 모션 데이터베이스 검색 및 추출 단계; 환경 정보 파라미터를 추출하고 디지털 액터 및 엑스트라의 행동 양식 파라미터를 적용하며, 상기 디지털 액터 및 엑스트라의 충돌을 회피할 수 있도록 상기 추출된 모션을 변형시키며, 상기 모션 데이터베이스를 다시 검색하여 상기 변형된 모션에 근접한 참조 모션이 있는지 검색하며 그 결과에 따라 상기 참조 모션 또는 관절 파라미터를 이용하여 모션을 변형시키는 모션 변형 단계; 및 상기 모션 변형 단계에서 결정된 모션을 디지털 액터 및 엑스트라에 적용하고 그 결과를 디스플레이시키는 모션 적용 단계를 포함한다. An intelligent digital actor and extra automatic generation method based on the digital conti according to the present invention includes: a digital conti processing step of receiving a digital conti, inputting the same, and converting it into a motion code; A motion database search and extraction step of searching for and extracting the nearest motion from a predetermined motion database based on the motion code converted in the step; Extracts environmental information parameters, applies behavioral parameters of digital actors and extras, transforms the extracted motions to avoid collisions of the digital actors and extras, and retrieves the motion database again for the transformed motions A motion modification step of searching for a close reference motion and modifying the motion using the reference motion or joint parameters according to the result; And a motion application step of applying the motion determined in the motion transformation step to the digital actors and extras and displaying the result.

Description

디지털 콘티 기반의 지능적 디지털 액터 및 엑스트라 자동 생성방법{METHOD FOR AUTOMATICALLY GENERATING INTELLIGENT DIGITAL ACTOR OR EXTRAS BASED ON DIGITAL CONTINUITY} Intelligent digital actor and extra automatic generation method based on digital contiguity {METHOD FOR AUTOMATICALLY GENERATING INTELLIGENT DIGITAL ACTOR OR EXTRAS BASED ON DIGITAL CONTINUITY}

본 발명은 지능적인 디지털 액터 및 엑스트라 생성방법에 관한 것으로서, 더욱 상세하게는 3차원 디지털 액터의 움직임을 생성하기 위해 일반적으로 사용되는 편집, 변형 기법보다 상위 수준인 디지털 콘티를 기반으로 모션 데이터베이스를 활용하여 디지털 액터 또는 엑스트라에게 자연스럽고 지능적인 모션을 부여하기 위한 지능적 디지털 액터 및 엑스트라 자동 생성방법에 관한 것이다. 특히, 본 발명은 모션 파라미터를 이용하여 다양한 모션을 변형할 수 있는 지능적 디지털 액터 및 엑스트라 자동 생성방법에 관한 것이다. The present invention relates to an intelligent method for generating digital actors and extras. More specifically, the present invention utilizes a motion database based on digital contiguity, which is higher than the editing and transformation techniques generally used for generating motions of three-dimensional digital actors. The present invention relates to a method for automatically generating intelligent digital actors and extras for giving natural and intelligent motion to digital actors or extras. In particular, the present invention relates to intelligent digital actors and extra automatic generation methods that can transform various motions using motion parameters.

컴퓨터 그래픽 기술이 발전하면서 인터넷 커뮤니티 상의 아바타와 같은 캐릭터, 3차원 애니메이션, 영화의 특수효과 등의 디지털 콘텐츠 분야에서 다양한 캐릭터 애니메이션 기술이 개발되고 있다. 본 발명은 사람과 동일한 반응, 행동을 가지는 지능화된 캐릭터인 디지털 액터 및 엑스트라의 모션 생성에 관한 것이다. With the development of computer graphics technology, various character animation technologies are being developed in the field of digital contents such as avatars such as avatars, 3D animation, and special effects of movies. The present invention relates to motion generation of digital actors and extras, which are intelligent characters with the same reactions and behaviors as humans.

이러한 가상 캐릭터의 모션 생성에 관한 기술로서, 대한민국 특허출원공개 제2002-15234호(공개일 : 2002년 2월 27일)에는 "가상 캐릭터의 실시간 동작변환 방법"이 공개되어 있으며, 상기 선행 특허는 실시간으로 크기가 다른 가상 캐릭터를 제어하는 기술에 관한 것이다. As a technique related to the motion generation of such a virtual character, Korean Patent Application Publication No. 2002-15234 (published: February 27, 2002) discloses a "real-time motion conversion method of a virtual character", the prior patent It relates to a technique for controlling virtual characters of different sizes in real time.

또한, 대한민국 특허출원공개 제2001-57880호(공개일 : 2001년 7월 5일)에는 "보행 동작 변형 애니메이션 방법"이 공개되어 있으며, 상기 선행 특허는 모션 캡쳐를 이용하여 생성된 보행 동작과 관련된 모션 데이터를 보행주기, 순환, 다리길이, 방향전환, 보폭 등의 인자들을 이용하여 변형하는 기술에 관한 것이다. In addition, Korean Patent Application Publication No. 2001-57880 (published: July 5, 2001) discloses a "walking motion deformation animation method", and the preceding patent relates to a walking motion generated using motion capture. The present invention relates to a technique for transforming motion data using factors such as gait period, circulation, leg length, direction change, and stride length.

대한민국 특허출원공개 제2002-57447호(공개일 : 2002년 7월 11일)에는 "3D 캐릭터의 직접 조정을 이용한 3D 애니메이션 영화 제작 방법"이 공개되어 있으며, 상기 선행 특허는 동영상 제작을 위해 3차원 캐릭터를 이용하여 외곽선을 추출하고 2차원 영상에서 그 사이를 자동으로 연결하여 중간에 필요한 동작을 프레임으로 생성하는 기술에 관한 것이다. Korean Patent Application Publication No. 2002-57447 (published: July 11, 2002) discloses a method for producing a 3D animation film using direct adjustment of a 3D character. The present invention relates to a technology for extracting outlines using characters and automatically connecting them in a two-dimensional image to generate necessary frames in the middle.

대한민국 특허출원공개 제2001-25161호(공개일 : 2001년 4월 6일)에는 "감정 처리가 가능한 아바타 메이커 구현 방법"이 공개되어 있으며, 상기 선행 특허는 사용자가 입력한 자연어를 기반으로 가상 캐릭터의 얼굴 표정 및 입 모양을 제어하는 기술에 관한 것이다. Korean Patent Application Publication No. 2001-25161 (published: April 6, 2001) discloses an "Avatar Maker Implementing Method capable of Emotional Processing", and the preceding patent is a virtual character based on a natural language input by a user. Relates to techniques for controlling facial expression and mouth shape.

대한민국 특허출원공개 제2000-26404호(공개일 : 2000년 5월 15일)에는 "가상현실 캐릭터의 실시간 제어 시스템"이 공개되어 있으며, 상기 선행 특허는 고가의 모션캡쳐 시스템을 사용하지 않고 가상 캐릭터를 실시간으로 제어할 수 있도록 하기 위하여 낮은 수준에서 입력 장치와의 매핑을 통해 캐릭터의 움직임을 생성하는 기술에 관한 것이다. Korean Patent Application Publication No. 2000-26404 (published: May 15, 2000) discloses a "real-time control system of a virtual reality character", the preceding patent is a virtual character without using an expensive motion capture system The present invention relates to a technique of generating a character's movement through mapping with an input device at a low level in order to be able to control in real time.

대한민국 특허출원공개 제2002-22885호(공개일 : 2002년 3월 28일)에는 "가상 캐릭터 생성 시스템 및 방법과 가상 캐릭터 서비스 방법"이 공개되어 있으며, 상기 선행 특허는 사용자의 형상 및 모션을 촬영하여 획득되는 동화상에 의해 가상 캐릭터의 형태를 재현하고, 그 가상 캐릭터가 온라인 및 오프라인의 컴퓨터 환경에서 다기능을 갖도록 하는 에이전트 프로그램을 합성하는 기술에 관한 것이다. Korean Patent Application Publication No. 2002-22885 (published: March 28, 2002) discloses a "virtual character generation system and method and a virtual character service method", the prior patent photographs the shape and motion of the user The present invention relates to a technique for synthesizing a form of a virtual character by a moving image obtained by the same, and for synthesizing an agent program such that the virtual character has multifunctionality in an online and offline computer environment.

상기 설명된 바와 같은 종래의 모션 생성에 관한 특허는 주로 단일 캐릭터에 대해서 실시간으로 동작을 변형하거나 제어하는 방법에 대해서만 주목하고 있다. 이러한 기술은 본 발명의 하부 기술에 해당하는 것으로서, 이러한 단순 변형, 편집 기술을 이용하는 것은 디지털 콘텐츠를 제작하는데 있어서 한계가 발생하게 된다. 즉, 디지털 액터를 제어하기 위하여 사용자가 직접 동작하거나 단순 입력 장치를 통해 제어하는 기술은 디지털 콘텐츠를 제작함에 있어서 약간의 편리성을 제공할 수는 있지만, 기존의 키프레임 방식과 크게 다르지 않은 수준이라고 할 수 있다. 또한, 디지털 콘텐츠에는 단일 디지털 액터만 등장하는 것이 아니라 디지털 엑스트라와 같은 많은 가상 캐릭터들이 등장할 수 있으나, 이러한 디지털 엑스트라에 대한 제어 기술에 대해서는 아직 연구가 미미한 상태이다. 따라서, 3차원 디지털 콘텐츠에 사용되는 디지털 액터 및 엑스트라에 자연스럽고 지능적인 움직임을 부여하기 위해 종래보다 더 높은 수준의 인터페이스 및 제어 기술이 요구되고 있다. Conventional motion generation patents, as described above, focus primarily on methods of modifying or controlling motion in real time for a single character. Such a technique corresponds to a subordinate technique of the present invention, and the use of such simple transformation and editing techniques has limitations in producing digital contents. In other words, the technology that the user operates directly or controls through a simple input device to control the digital actor may provide some convenience in producing digital content, but it is not much different from the existing keyframe method. can do. In addition, there are not only a single digital actor in the digital content, but many virtual characters such as digital extras may appear. However, the research on the control techniques for the digital extras is still insufficient. Accordingly, higher levels of interface and control techniques are required to provide natural and intelligent movement to digital actors and extras used in three-dimensional digital content.

본 발명은 상기 설명한 종래의 기술적 과제를 해결하기 위한 것으로서, 사용자가 입력한 디지털 콘티를 기반으로 모션 데이터베이스를 활용하여 디지털 액터 또는 엑스트라에게 자연스럽고 지능적인 모션을 부여하기 위한 지능적 디지털 액터 및 엑스트라 자동 생성방법을 제공하는 것을 그 목적으로 한다. SUMMARY OF THE INVENTION The present invention has been made to solve the above-described technical problem, and utilizes a motion database based on a digital input input by a user to automatically generate intelligent digital actors and extras for giving natural and intelligent motion to digital actors or extras. Its purpose is to provide a method.

상기한 목적을 달성하기 위한 본 발명에 따른 디지털 콘티 기반의 지능적 디지털 액터 및 엑스트라 자동 생성방법은, In order to achieve the above object, a digital conti based intelligent digital actor and extra automatic generation method according to the present invention,

(a) 디지털 콘티를 입력받아 이를 해석하고 모션 코드로 변환하는 디지털 콘티 처리 단계;(a) a digital continuous processing step of receiving a digital continuous and interpreting it and converting it into a motion code;

(b) 상기 (a) 단계에서 변환된 모션 코드를 기반으로하여 미리 구비된 소정의 모션 데이터베이스로부터 가장 근접한 모션을 검색하고 추출하는 모션 데이터베이스 검색 및 추출 단계;(b) a motion database search and extraction step of searching for and extracting the nearest motion from a predetermined motion database based on the motion code converted in the step (a);

(c) 환경 정보 파라미터를 추출하고 디지털 액터 및 엑스트라의 행동 양식 파라미터를 적용하며, 상기 디지털 액터 및 엑스트라의 충돌을 회피할 수 있도록 상기 추출된 모션을 변형시키며, 상기 모션 데이터베이스를 다시 검색하여 상기 변형된 모션에 근접한 참조 모션이 있는지 검색하며 그 결과에 따라 상기 참조 모션 또는 관절 파라미터를 이용하여 모션을 변형시키는 모션 변형 단계; 및(c) extract environmental information parameters, apply behavioral parameters of digital actors and extras, modify the extracted motion to avoid collisions of the digital actors and extras, and search the motion database again for the modifications A motion modification step of searching for a reference motion close to the completed motion and modifying the motion using the reference motion or joint parameter according to the result; And

(d) 상기 단계 (c)에서 결정된 모션을 디지털 액터 및 엑스트라에 적용하고 그 결과를 디스플레이시키는 모션 적용 단계를 포함하는 것을 특징으로 한다. (d) applying a motion determined in step (c) to the digital actors and extras and displaying the result.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명한다. Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.

도 1에는 본 발명의 실시예에 따른 디지털 액터 및 엑스트라 자동 생성방법의 처리 흐름이 도시되어 있고, 도 2에는 상기 도 1의 순서도에서 모션 변형 단계에서 사용되는 모션 파라미터의 예가 도시되어 있으며, 도 3에는 본 발명의 실시예에 따른 디지털 액터 및 엑스트라 자동 생성방법에서 액터들 간의 충돌 회피의 예가 도시되어 있다. 1 is a flowchart illustrating a process of automatically generating a digital actor and an extra method according to an embodiment of the present invention, and FIG. 2 illustrates an example of a motion parameter used in the motion transformation step in the flowchart of FIG. 1. An example of collision avoidance between actors in a digital actor and an extra automatic generation method according to an embodiment of the present invention is shown.

본 발명의 실시예에서 디지털 액터 및 엑스트라를 제어하기 위해서는, 먼저 디지털 콘티가 정의되어야 한다. 상기 디지털 콘티는 일종의 스크립트(script)에 속하며, 실제 액터(actor)들이 보는 대본과 비슷한 개념으로서 디지털 액터들이 취해야 할 행동, 감정 등에 대한 지시의 집합이라고 할 수 있다. In order to control digital actors and extras in an embodiment of the present invention, a digital context must first be defined. The digital conti is a kind of script, and is similar to the script seen by real actors, and can be referred to as a set of instructions on actions, emotions, etc. which digital actors should take.

상기 도 1의 디지털 콘티 입력 단계(S1)는 위에서 설명한 디지털 콘티를 입력받는 과정이다. 상기 디지털 콘티의 입력은 스크립트 창을 통해 한 줄씩 입력할 수도 있고, 한 장면이 들어있는 콘티를 파일 형식으로 입력할 수도 있다. The digital continuous input step S1 of FIG. 1 is a process of receiving the digital continuous input described above. The input of the digital conti may be input line by line through a script window, or a conti containing a scene may be input in a file format.

다음으로, 디지털 콘티 해석 단계(S2)가 수행된다. 상기 단계(S2)에서는 디지털 콘티가 해석되며, 보다 구체적으로, 입력된 모션(motion)이 어느 카테고리에 속하는지, 동작의 크기 및 감정에 대한 정보, 최종 행동 목표와 같은 부분이 해석된다. 이와 같이 해석된 콘티는 모션 코드 생성 단계(S3)에서 장치가 이해할 수 있는 언어인 모션 코드로 변환된다. 여기서, 모션 코드는 동작을 지정해주는 동작 함수로 이해될 수 있으며, 어떠한 동작을 어떠한 방식으로 표현할 것인지에 대한 정보를 담고 있다. Next, the digital continuous analysis step S2 is performed. In the step S2, the digital contiguity is interpreted, and more specifically, a category such as which category the input motion belongs to, information about the size and emotion of the motion, and the final action target are interpreted. The contiguously interpreted as described above is converted into a motion code, which is a language understood by the device, in the motion code generation step S3. Here, the motion code may be understood as an action function for designating an action, and contains information on which action is to be represented in what way.

상기 단계(S3)가 완료되면, 상기 생성된 모션 코드를 통해 모션 데이터베이스에서 가장 근접한 모션을 검색하고 추출하는 단계(S4)가 수행된다. 상기 추출된 모션은 단일 모션일 수도 있고, 여러 개의 모션이 혼합된 일련의 모션일 수도 있다. 어떠한 모션이 생성되는가는 모션 코드에 들어있는 정보가 어떠한가에 달려 있으며, 모션이 혼합되는 경우에는 가장 자연스럽게 전이될 수 있는 모션들을 검색하여 추출하며, 연결 부위를 자동으로 보간하여 준다. 이 부분은 모션 데이터베이스 내에서 내용 기반 모션 검색과 모션 관계 검색을 통해 모션 데이터 가공을 용이하게 하는 모션 데이터 프로세싱 파이프라인 방법을 이용한다. 상기 모션 데이터 프로세싱 파이프라인 방법은 모션을 효율적으로 저장하고 검색할 수 있는 모션 데이터베이스 관리 기법이다. When the step S3 is completed, a step S4 of searching for and extracting the closest motion from the motion database through the generated motion code is performed. The extracted motion may be a single motion or a series of motions in which several motions are mixed. Which motion is generated depends on how much information is included in the motion code. When the motions are mixed, it searches for and extracts the most naturally transitionable motions and automatically interpolates the connected parts. This part uses a motion data processing pipeline method that facilitates motion data processing through content-based motion search and motion relationship search within the motion database. The motion data processing pipeline method is a motion database management technique that can efficiently store and retrieve motion.

상기 단계(S4)에서 검색 및 추출된 모션은 아직 환경 정보나 행동 양식이 적용되기 전이므로, 도 1의 모션 변형 단계(S5)에 의해 환경 정보, 행동 양식 및 충돌 회피 제어를 기반으로 하여 상기 추출된 모션을 변형하는 동작이 필요하다. 이 때, 상기 모션 변형 단계(S5)는 환경 정보를 추출하는 단계(S6), 행동 양식을 적용하는 단계(S7) 및 행동 양식을 기반으로 액터들 간의 충돌을 회피하는 단계(S8)의 적용 결과를 참조하여 모션 변형을 수행한다. 이러한 모션 변형을 위해 도 2에 도시된 바와 같은 3개의 파라미터 즉, 행동 양식 파라미터, 환경 정보 파라미터 및 관절 정보 파라미터가 이용된다. 도 2를 참조하면, 상기 행동 양식 파라미터는 속도, 선호도, 신체특징, 상태 등을 포함하며, 상기 환경 정보 파라미터는 장애물, 지형의 높낮이 등을 포함하며, 관절 정보 파라미터는 관절의 회전각, 각속도, 진행방향 등을 포함한다. 상기 각 파라미터는 상기 모션 변형 단계(S5)에서의 다양한 동작 생성에 직접적 또는 간접적으로 참조된다. Since the motion searched and extracted in the step S4 is not yet applied to the environment information or the behavioral pattern, the motion is extracted based on the environment information, the behavioral style and the collision avoidance control by the motion modification step S5 of FIG. 1. An action is needed to deform the motion. At this time, the motion deformation step (S5) is the result of the application of the step (S6) of extracting environmental information (S6), applying the behavior pattern (S7) and avoiding the collision between actors based on the behavior pattern (S8) Perform the motion transformation with reference to. Three parameters as shown in FIG. 2 are used for this motion transformation, that is, a behavior pattern parameter, an environment information parameter, and a joint information parameter. Referring to FIG. 2, the behavior pattern parameter includes a speed, a preference, a body feature, a state, and the like. The environmental information parameter includes an obstacle, a height of a terrain, and the joint information parameter, such as a joint rotation angle, an angular velocity, Direction of travel, and the like. Each of these parameters is referenced directly or indirectly to the various motion generation in the motion modification step S5.

상기 환경 정보를 추출하여 적용하는 단계(S6)에서는 장애물, 지형의 높낮이 등의 환경 정보에 맞게 동작을 변형하거나 장애물을 피하도록 제어하기 위하여 상기 환경 정보가 추출된다. 상기 행동 양식을 적용하는 단계(S7)는 디지털 액터 및 엑스트라의 특성을 정의하고 적용하는 단계로서, 속도, 선호도, 신체 특징, 현재 상태 등의 행동 양식 파라미터를 이용하여 디지털 액터 및 엑스트라의 특성을 정의하고 적용한다. 디지털 액터에게 동일한 동작을 적용한다고 해도 이러한 행동 양식 파라미터를 이용하면 상기 단계(S5)에서 다양한 모션의 변형이 가능하며, 특히 디지털 엑스트라를 생성하는데 있어서 유용한 방법이라고 할 수 있다. 상기 단계(S8)는 디지털 액터들 간의 충돌을 회피하도록 제어하는 단계이다. 기존의 방식에서는 단지 충돌이 발생하지 않는 것에 초점을 두어 디지털 액터들이 서로 좌우로 움직여 충돌을 회피하였지만, 실제 인간 사회에서는 임의의 경로에서 충돌이 발생할 때, 한 사람이 먼저 피하면 다른 사람은 자신의 경로를 이탈하지 않는 방향으로 진행하는 것이 일반적이다. 따라서, 이러한 특성을 이용하여 충돌 회피 기법이 상기 단계(S8)에 적용된다. 도 3에는 이러한 본 발명의 방법에 따른 충돌 회피의 예가 도시되어 있다. 충돌 회피 시에는, 모션 파라미터 즉, 관절 정보 파라미터, 행동 양식 파라미터 및 환경 정보 파라미터를 이용하여 어느 캐릭터가 먼저 회피할 것인지, 아니면 둘이 동시에 피할 것인지 등을 결정하게 되며, 충돌을 회피한 후에는 원래의 경로로 되돌아 온다. 이러한 방법들은 실제 인간 사회의 통상적인 룰과 일치하므로, 매우 자연스러운 동작을 생성할 수 있다. In the step of extracting and applying the environmental information (S6), the environmental information is extracted in order to control the operation to change the environment or avoid the obstacle in accordance with environmental information such as the height of the obstacle, the terrain. The applying of the behavior pattern (S7) is a step of defining and applying the characteristics of the digital actors and extras, and defining the characteristics of the digital actors and the extras using behavioral parameters such as speed, preference, body characteristics, current state, and the like. And apply. Even if the same action is applied to the digital actor, the use of this behavior parameter enables various motion modifications in step S5, and is particularly useful for generating digital extras. Step S8 is a step of controlling to avoid collisions between digital actors. In the conventional way, digital actors avoided collision by moving left and right, focusing only on no collision, but in real human society, when a collision occurs in a random path, if one person avoids first, It is common to proceed in a direction not to deviate from the path. Thus, using this characteristic, a collision avoidance technique is applied to step S8 above. 3 shows an example of collision avoidance according to this method of the present invention. In avoiding collisions, motion parameters such as joint information parameters, behavioral parameters, and environmental information parameters are used to determine which characters to avoid first or both at the same time. Return to the path. Since these methods are consistent with the normal rules of real human society, they can produce very natural behavior.

상기 단계(S5)는 위와 같이 모션 파라미터를 적용한 결과를 참조하여 모션을 변형하며, 이 때, 모션 데이터베이스를 다시 검색하여 근접한 모션이 있는지, 또는 참조할 모션이 있는지 확인한다. 이 단계는 도 1에서 재적용 단계(S10)로 표현되어 있다. 만약, 참조할 모션이 있는 경우에는 참조 모션을 이용하여 동작을 변형시키며, 그렇지 않은 경우에는 관절 정보 파라미터를 이용하여 모션을 변형시킨다. 상기 모션 데이터베이스는 동작 데이터를 저장하고 있으며, 상기 동작 데이터는 인간으로부터 직접 추출한 동작이어서 가장 인간의 동작에 유사하다는 장점을 가지고 있으므로, 이를 기반으로 하는 참조 모션을 이용한 동작 변형이나 관절 파라미터를 이용한 동작 변형 역시 가장 자연스럽다고 할 수 있다. In the step S5, the motion is modified by referring to the result of applying the motion parameter as described above. At this time, the motion database is searched again to determine whether there is a close motion or a motion to be referred to. This step is represented as a reapplication step S10 in FIG. 1. If there is a motion to be referred to, the motion is modified by using the reference motion. Otherwise, the motion is transformed by using the joint information parameter. The motion database stores motion data, and since the motion data is a motion extracted directly from a human being, it has the advantage of being most similar to a human motion. Thus, motion deformation using a reference motion or motion deformation using a joint parameter based on the motion data is based on the motion data. It is also the most natural.

상기 모션 변형 단계(S5)가 완료되면, 디지털 액터 및 엑스트라에게 실제로 결정된 모션을 적용하여 그 결과를 화면 상에 디스플레이한다(S9). 또한, 상기 단계(S9)에서 사용자에게 디스플레이를 한 결과, 디지털 액터 또는 엑스트라의 움직임에 대해 수정이 필요한 것으로 판단되는 경우에는 개별적으로 수정되도록 구성할 수도 있다. 이렇게 함으로써, 사용자에게 생성된 결과를 확인할 수 있도록 하여 디지털 액터 및 엑스트라의 움직임에 수정이 필요할 경우에는 개별적으로 수정할 수 있는 인터페이스를 제공하여 사용자의 능동적 참여를 가능하게 한다. When the motion transformation step S5 is completed, the determined motion is applied to the digital actors and extras and the result is displayed on the screen (S9). In addition, when it is determined that the movement of the digital actor or the extra is necessary as a result of the display to the user in the step S9, it may be configured to be individually modified. In this way, the user can check the generated result, and if the motion of the digital actors and extras needs to be modified, the interface can be individually modified to enable active participation of the user.

이상 설명한 바와 같이, 본 발명의 디지털 콘티 기반의 지능적 디지털 액터 및 엑스트라 자동 생성방법에 따르면, 사용자는 디지털 콘티를 이용하여 쉽게 디지털 액터 및 엑스트라를 제어할 수 있고, 경로 및 동작은 모션 파라미터를 이용하여 환경과 특성에 맞게 자동으로 변형되며, 적은 모션으로도 유사한 다양한 모션을 적용할 수 있으며, 모션 데이터베이스에 다양한 모션을 확보한 경우 이를 활용하여 디지털 액터 및 엑스트라에게 다양한 동작을 자동으로 제공할 수 있는 기법을 제시하여 3차원 디지털 콘텐츠에 등장하는 디지털 액터 및 엑스트라들의 동작을 보다 쉽고 빠르게 생성하여 콘텐츠 제작의 편의성과 생산성을 향상시킬 수 있다. As described above, according to the method for automatically generating digital digital actors and extras based on the digital conti of the present invention, the user can easily control the digital actors and extras using the digital conti, and the path and the operation may be controlled by using motion parameters. It is automatically transformed according to the environment and characteristics, and similar motions can be applied with a small number of motions. If a variety of motions are obtained from the motion database, it can automatically provide various motions to digital actors and extras. By presenting the 3D digital contents, the digital actors and extras appearing in the 3D digital content can be generated more easily and quickly to improve the convenience and productivity of the content production.

이상으로 설명한 것은 본 발명에 따른 디지털 콘티 기반의 지능적 디지털 액터 및 엑스트라 자동 생성방법을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기한 실시예에 한정되지 않고, 이하의 특허청구의 범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 미친다고 할 것이다.What has been described above is just one embodiment for implementing the digital conti based intelligent digital actor and extra automatic generation method according to the present invention, the present invention is not limited to the above embodiment, the scope of the claims Without departing from the gist of the invention claimed in the present invention, anyone of ordinary skill in the art to which the technical spirit of the present invention extends to the extent that various modifications can be made.

도 1은 본 발명의 실시예에 따른 디지털 액터 및 엑스트라 자동 생성방법의 처리 흐름을 나타낸 순서도.1 is a flow chart showing the processing flow of the digital actor and extra automatic generation method according to an embodiment of the present invention.

도 2는 상기 도 1의 순서도에서 모션 변형 단계에서 사용되는 모션 파라미터의 예를 도시한 도면.FIG. 2 shows an example of motion parameters used in the motion transforming step in the flowchart of FIG. 1.

도 3은 본 발명의 실시예에 따른 디지털 액터 및 엑스트라 자동 생성방법에서 액터들 간의 충돌 회피의 예를 도시한 도면. 3 illustrates an example of collision avoidance between actors in a method for automatically generating digital actors and extras according to an embodiment of the present invention.

Claims (5)

(a) 디지털 콘티를 입력받아 이를 해석하고 모션 코드로 변환하는 디지털 콘티 처리 단계;(a) a digital continuous processing step of receiving a digital continuous and interpreting it and converting it into a motion code; (b) 상기 (a) 단계에서 변환된 모션 코드를 기반으로하여 미리 구비된 소정의 모션 데이터베이스로부터 가장 근접한 모션을 검색하고 추출하는 모션 데이터베이스 검색 및 추출 단계;(b) a motion database search and extraction step of searching for and extracting the nearest motion from a predetermined motion database based on the motion code converted in the step (a); (c) 환경 정보 파라미터를 추출하고 디지털 액터 및 엑스트라의 행동 양식 파라미터를 적용하며, 상기 디지털 액터 및 엑스트라의 충돌을 회피할 수 있도록 상기 추출된 모션을 변형시키며, 상기 모션 데이터베이스를 다시 검색하여 상기 변형된 모션에 근접한 참조 모션이 있는지 검색하며 그 결과에 따라 상기 참조 모션 또는 관절 파라미터를 이용하여 모션을 변형시키는 모션 변형 단계; 및(c) extract environmental information parameters, apply behavioral parameters of digital actors and extras, modify the extracted motion to avoid collisions of the digital actors and extras, and search the motion database again for the modifications A motion modification step of searching for a reference motion close to the completed motion and modifying the motion using the reference motion or joint parameter according to the result; And (d) 상기 단계 (c)에서 결정된 모션을 디지털 액터 및 엑스트라에 적용하고 그 결과를 디스플레이시키는 모션 적용 단계를 포함하는 (d) applying a motion determined in step (c) to the digital actors and extras and displaying the results; 디지털 콘티 기반의 지능적 디지털 액터 및 엑스트라 자동 생성방법.Intelligent digital actor and extra automatic generation method based on digital conti. 제1항에 있어서,The method of claim 1, 상기 단계 (c)에서 상기 환경 정보 파라미터는 디지털 콘티 상의 장애물, 지형의 높낮이를 표현하며, 상기 행동 양식 파라미터는 디지털 액터 및 엑스트라의 속도, 선호도, 신체특징 및 현재 상태를 표현하며, 상기 관절 정보 파라미터는 관절의 회전각, 각속도, 진행 방향을 표현하는 In the step (c), the environmental information parameter represents an obstacle on the digital console, the height of the terrain, and the behavior parameter represents the speed, preference, body characteristics and current state of the digital actor and extra, and the joint information parameter. Represents the rotation angle, angular velocity, and direction of movement of the joint. 디지털 콘티 기반의 지능적 디지털 액터 및 엑스트라 자동 생성방법.Intelligent digital actor and extra automatic generation method based on digital conti. 제1항에 있어서,The method of claim 1, 상기 디지털 콘티는 디지털 액터들이 취해야 할 행동, 감정에 대한 지시의 집합인 The Digital Conti is a set of instructions for actions and emotions that digital actors should take 디지털 콘티 기반의 지능적 디지털 액터 및 엑스트라 자동 생성방법.Intelligent digital actor and extra automatic generation method based on digital conti. 제1항에 있어서, The method of claim 1, 상기 단계 (c)에서 충돌 회피의 경우에 상기 환경 정보 파라미터, 행동 양식 파라미터 및 관절 정보 파라미터를 이용하여 디지털 액터와 엑스트라 중 어느 캐릭터가 먼저 회피할 것인지, 또는 둘이 동시에 피할 것인지를 결정하며, 충돌을 회피한 후에는 원래의 경로로 되돌아오도록 제어하는 In the step (c), in the case of collision avoidance, the character of the digital actor and the extra is determined first, or both at the same time, by using the environment information parameter, behavior pattern parameter, and joint information parameter, and collision is avoided. After avoiding, control to return to the original path 디지털 콘티 기반의 지능적 디지털 액터 및 엑스트라 자동 생성방법.Intelligent digital actor and extra automatic generation method based on digital conti. 제1항에 있어서, The method of claim 1, 상기 단계 (d)에서 디스플레이를 한 후에 사용자가 디지털 액터 또는 엑스트라의 움직임을 수정할 수 있는 인터페이스를 제공하는 단계를 더 포함하는 Providing an interface through which the user can correct movement of the digital actor or extra after displaying in step (d). 디지털 콘티 기반의 지능적 디지털 액터 및 엑스트라 자동 생성방법.Intelligent digital actor and extra automatic generation method based on digital conti.
KR10-2003-0059424A 2003-08-27 2003-08-27 Method for automatically generating intelligent digital actor or extras based on digital continuity KR100500896B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2003-0059424A KR100500896B1 (en) 2003-08-27 2003-08-27 Method for automatically generating intelligent digital actor or extras based on digital continuity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2003-0059424A KR100500896B1 (en) 2003-08-27 2003-08-27 Method for automatically generating intelligent digital actor or extras based on digital continuity

Publications (2)

Publication Number Publication Date
KR20050022597A KR20050022597A (en) 2005-03-08
KR100500896B1 true KR100500896B1 (en) 2005-07-14

Family

ID=37230433

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2003-0059424A KR100500896B1 (en) 2003-08-27 2003-08-27 Method for automatically generating intelligent digital actor or extras based on digital continuity

Country Status (1)

Country Link
KR (1) KR100500896B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101116538B1 (en) * 2010-01-14 2012-02-28 이승주 Choreography production system and choreography production method

Also Published As

Publication number Publication date
KR20050022597A (en) 2005-03-08

Similar Documents

Publication Publication Date Title
US10860838B1 (en) Universal facial expression translation and character rendering system
Holden et al. A deep learning framework for character motion synthesis and editing
US10949649B2 (en) Real-time tracking of facial features in unconstrained video
Alkawaz et al. Blend shape interpolation and FACS for realistic avatar
KR101977893B1 (en) Digital actor managing method for image contents
JP2011159329A (en) Automatic 3d modeling system and method
KR20200069786A (en) Method and Apparatus For Using Rigging Character
Mousas et al. Performance-driven hybrid full-body character control for navigation and interaction in virtual environments
Ekmen et al. From 2D to 3D real-time expression transfer for facial animation
KR102108422B1 (en) System and Method for Optimizing Facial Expression of Virtual Characters through AI-based Facial Expression Classification and Retargeting, and Computer Readable Storage Medium
Mattos et al. 3D linear facial animation based on real data
KR100500896B1 (en) Method for automatically generating intelligent digital actor or extras based on digital continuity
KR101780496B1 (en) Method for producing 3D digital actor image based on character modelling by computer graphic tool
Queiroz et al. A framework for generic facial expression transfer
KR20240013613A (en) Method for generating AI human 3D motion only with video and its recording medium
Tolba et al. Realistic facial animation review: Based on facial action coding system
Pantuwong A tangible interface for 3D character animation using augmented reality technology
Rose III Verbs and adverbs: Multidimensional motion interpolation using radial basis functions
Umenhoffer et al. Facial animation retargeting framework using radial basis functions
KR20010091219A (en) Method for retargetting facial expression to new faces
Park et al. A feature‐based approach to facial expression cloning
WO2021203076A1 (en) Method for understanding and synthesizing differentiable scenes from input images
CN117152843B (en) Digital person action control method and system
Vilchis et al. A Study of the Frameworks for Digital Humans: Analyzing Facial Tracking evolution and New Research Directions with AI.
WO2024066549A1 (en) Data processing method and related device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100701

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee