KR20100102515A - 디지털 액터의 감성을 자동으로 표현하는 방법 및 시스템 - Google Patents

디지털 액터의 감성을 자동으로 표현하는 방법 및 시스템 Download PDF

Info

Publication number
KR20100102515A
KR20100102515A KR1020090081866A KR20090081866A KR20100102515A KR 20100102515 A KR20100102515 A KR 20100102515A KR 1020090081866 A KR1020090081866 A KR 1020090081866A KR 20090081866 A KR20090081866 A KR 20090081866A KR 20100102515 A KR20100102515 A KR 20100102515A
Authority
KR
South Korea
Prior art keywords
emotional
emotion
vocabulary
classification system
expression
Prior art date
Application number
KR1020090081866A
Other languages
English (en)
Inventor
손애경
이종대
강장묵
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Publication of KR20100102515A publication Critical patent/KR20100102515A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Abstract

본 발명은 디지털 영상 기반의 문화 콘텐츠 기술 분야에서 프리 프러덕션의 핵심이 되는 서사 대본 분석을 통하여 디지털 액터의 자동 액션을 유도하기 위한, 디지털 액터 감성의 자동 표현 방법 및 시스템에 관한 것이다. 본 발명에서의 디지털 액터 감성의 자동 표현 방법은 감성 관련 어휘와 감성표현코드를 대응시키는 감성어휘 분류체계를 구비하는 단계와, 대본의 문장을 단어의 단위로 절단하는 단계와, 감성어휘 분류체계로부터 절단된 단어에 대응하는 감성표현코드를 판독하는 단계와, 감성표현코드에 따라 해당 디지털 액터의 감성을 표현하는 단계를 구비한다.
Figure P1020090081866
감성어휘, 분류체계, 디지털 액터, 대본, 자동 분석, 감성, 코드

Description

디지털 액터의 감성을 자동으로 표현하는 방법 및 시스템{METHOD AND SYSTEM FOR AUTOMATICALLY EXPRESSING EMOTIONS OF DIGITAL ACTOR}
본 발명은 디지털 액터의 감성을 자동으로 표현하는 방법 및 시스템에 관한 것으로서, 더욱 상세하게는 디지털 영상 기반의 문화 콘텐츠 기술 분야에서 프리 프러덕션의 핵심이 되는 서사 대본 분석을 통하여 디지털 액터의 자동 액션을 유도하기 위한, 디지털 액터 감성의 자동 표현 방법 및 시스템에 관한 것이다.
디지털 기반의 영상 문화 콘텐츠는 다양한 산업분야와 유통조직의 가치사슬로 이루어져있다. 즉, 네트워크 기술로 모든 디바이스 간에 상호 유기적인 결합이 이루어지는 것이므로 네트워크 간 소통 과정에서 자연스럽게 콘텐츠가 융합되는 기술 환경으로 간주할 수 있다.
또한, 각각의 다양한 디바이스를 통한 OSMU(One Source Multi Use)를 자유로이 가공, 구현할 수 있는 복합학문적인 과정을 필요로 하게 되어 이에 대한 표준화 작업도 요청되고 있다. 이러한 복합적인 가치사슬(Value Chain)을 웹 플랫폼 기술 과 잘 맞물릴 때 그에 따른 부가가치는 더욱더 높아지리라 본다.
이를 좀 더 가시화시키는 분야가 바로 문화기술 분야라 할 수 있는데, 영상 문화 콘텐츠 관련하여 핵심적인 컴퓨터그래픽 기술은 게임, 애니메이션, e-Learning 등 산업 전반에 걸쳐 파급효과가 큰 분야로 디지털 콘텐츠를 세계시장에 선도하는 핵심 기술이다.
디지털 액터 기반 기술의 한 예로서, 고품질 영상 콘텐츠 제작에 필요한 디지털 액터 기술 및 CG 영상표현 기술을 들 수 있다. 이러한 기술의 개발은 영화, 게임이나 각종 캐릭터 연계사업으로 인한 연쇄적인 부가가치 창출과 국내 영상 콘텐츠 산업의 국가 경쟁력을 한층 강화시키는 등 긍정적으로 평가된다.
그러나 이러한 기술들이 국제적 경쟁력을 지니려면, 디지털 영상 콘텐츠 속의 디지털 액터나 캐릭터들의 리얼리티 구현은 대사와 그에 따른 상황 연출이 감성 표현으로 비주얼하게 처리될 때 가능해진다 하겠다.
그래서 최근 디지털 액터에 대한 고도의 문화기술연구가 각국에서 활발하게 진행되고 있으며, 나아가 복합적인 감성 표현과 다양한 행동 표현을 위한 대사 자동 처리 기술 및 시각 고도화 기술이 가능해지면서 이를 연계할 만한 대본분석 자동구현 시도가 점점 중요하게 대두되게 되었다.
본 발명과 관련된 선행연구들을 구체적으로 살펴보면 다음과 같다.
대부분 기존의 공학계열에서 주도되었던 선행연구들의 공통된 특징은 영상 처리 기술을 바탕으로 가시화되는 컴퓨팅 표현 과정과 이미지 처리 구현 과정에 집중되어 있는데, 주로 3D 입체 영상분야와 관련하여 실제 신체의 운동이나 얼굴의 표정역학 연구가 주를 이룬다. 특히 애니메이션의 동작과 표정을 수동적으로 또는 소량의 데이터를 자동 처리하여 컴퓨터 기술로서 제어하는 디자인 계열의 연구가 있다.
대표적인 몇몇 선행연구들을 거론하자면, 우선 박문호의 '기준얼굴을 이용한 얼굴표정에 관한 분석 및 합성에 관한 연구'라는 연구에서 기준 얼굴표정을 분석하여 표정생성에 주안점을 두고 얼굴영상을 분석하면서, 얼굴의 감정표현에 대하여 사회문화적 변인요소를 중요시 생각하여 정확하고 신속하게 감성 표현을 탐색하기 위한 수립 과정과 자동 추출에 대한 향후 연구가 필요하다는 것을 언급하였다.
그 외에는 대부분 디지털의 인체모델구현과 캐릭터 생성과 관련된 시스템 설계에 대한 논문 등이 대부분을 차지하고 있다.
물론, 서사구조와 관련한 논문이 없는 것은 아니었다. 권경민의 논문이나, 백성실의 연구 등 대부분의 서사구조를 언급한 선행연구에서는 서사분석에 대한 방법론의 개발을 주장하거나 시나리오 전달방식을 연구하여 본 발명과의 유사성을 지닌 듯하였으나, 그 내용은 기호학적인 측면으로 접근, 또는 내용을 국가적 영상물간 비주얼한 내용에 관한 비교 분석 및 내용에 국한된 스토리텔링 분석에 그치고 있어, 본 발명에서 접근하는 문화기술(CT)적 시각과는 거리가 멀다 하겠다.
그러나 본 발명은 대본의 특징적 구성요소를 근간으로 하는 상황 문구와 내용적 의미 분석을 통하여 다양하고 섬세한 복합 환경에 최적의 표현 기술을 도출해 내고자 하는 것에서 앞선 선행연구 사례와 관점에서 차이를 두고 있다.
즉, 선행 연구가 대본상에서의 동작 및 감성과 관련한 1차적 어휘에 대한 추 출이었다면 본 발명은 대사 및 지문의 상황분석을 통한 행위 및 감성 유발의 2차적 메타의미를 도출해냄으로써 좀 더 다양하고 정교한 감성 표현과 행동을 표출할 수 있다. 또한 추출한 어휘 및 문장의 빈도수와 적용 순위를 연구함으로써 복합적 연계상황에 대한 자동 표현 기술 구현의 가능성을 높이는 데에 차별이 있다.
또한, 시각화되는 엔터테인먼트 형태의 영상 콘텐츠는 문장으로 구성하고 있는 언어의 표현에 기초한다고 볼 수 있는데, 이러한 언어는 전 세계적으로 공통된 행동 요소나 표현의 언어도 있지만, 그 나라만의 고유한 감성 표현어들이 존재하게 된다. 따라서 일반적으로 컴퓨터그래픽 기술이 발달한 영어권이나 유럽쪽 일부 국가들과는 달리 국내의 콘텐츠에 적합한 자동 대본 분석 시스템의 중요성이 필요해지고 있다.
따라서 이러한 유사한 연구개발이 비록 국외에서 진행된다 하더라도, 영상 콘텐츠는 기술만의 영역이 아니라 문화를 담아 표현하고 있어, 한국만의 고유한 감성 표현을 중심으로 한 심정의 다양한 내면을 표현하는 어휘들을 분석하는 본 발명은 이러한 점에 있어서도 그 차별성을 지닌다고 볼 수 있다. 특히 이를 웹과 연동하여 시스템 처리함으로 분산 환경에서 대량의 데이터 처리를 가능하게 한다.
컴퓨터 애니메이션에서의 주요한 작업은 디지털 액터(또는 캐릭터)의 제작과 표현이다. 디지털 액터가 한번 제작되면 재활용될 수 있다는 점에서 전통적인 애니메이션과 구별되나, 결국 애니메이션 전반에 걸쳐 캐릭터의 표현을 수작업으로 처리하는 것은 변함이 없다.
전통적인 애니메이션의 캐릭터가 이미지만으로 존재하는데 비해 디지털화된 캐릭터는 자체적으로 실제 인간과 유사하게 골격구조(skeleton)와, 골격구조를 덮는 피부(skin)를 갖는다. 디지털 액터의 동작 표현은 이러한 골격구조를 제어하는 것이 주요 내용이다. 전통적인 애니메이션에서 각 프레임의 캐릭터 이미지들을 그리는 것이 애니메이터들의 역할이었다면 디지털화된 애니메이션에서 그 역할은 각 프레임의 캐릭터 골격구조를 형성하는 각 분절(bone 또는 segment)들의 위치와 방향을 결정하는 것으로 바뀌었다.
디지털화된 캐릭터(또는 디지털 액터)의 동작 표현은 모두 수작업으로 진행될 수 있지만 작업의 많은 부분이 컴퓨터에 의해 자동으로 생성될 수 있다. 이는 전문 애니메이터의 생산성을 높이고, 애니메이션 제작의 문턱을 낮추어 다양한 작품들이 제작될 수 있는 기회를 제공하며, 이전에 수작업에 소요된 작업 시간의 상당 부분을 보다 창의적인 작업에 사용할 수 있도록 한다.
그러나 여전히 디지털 액터의 감성 표현을 위해 전문 스크립터가 각 디지털 액터의 감정을 수동으로 지정하므로 애니메이션 제작의 생산성이 매우 낮다.
따라서 본 발명은 대본 분석을 통해 디지털 액터의 액션을 자동 생성함으로써 디지털 액터의 감성을 자동 표현하는 것을 일 목적으로 한다.
또한 본 발명은 대본 분석을 통해 디지털 액터의 스마트 감성 환경을 지원하는 것을 다른 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
이러한 목적을 달성하기 위해 제안된 본 발명은 디지털 액터의 감성을 자동으로 표현하는 방법으로서, 감성 관련 어휘와 감성표현코드를 대응시키는 감성어휘 분류체계를 구비하는 단계와, 대본의 문장을 단어의 단위로 절단하는 단계와, 상기 감성어휘 분류체계로부터 상기 절단된 단어에 대응하는 감성표현코드를 판독하는 단계와, 상기 감성표현코드에 따라 해당 디지털 액터의 감성을 표현하는 단계를 구비하는 것을 일 특징으로 한다.
또한 본 발명은 디지털 액터의 감성을 자동으로 표현하는 시스템으로서, 감 성 관련 어휘와 감성표현코드를 대응시키는 감성어휘 분류체계를 구비하는 데이터베이스와, 대본의 문장을 단어의 단위로 절단하는 단어 추출부와, 상기 단어 추출부에서 절단된 단어에 대응하는 감성표현코드를 상기 데이터베이스의 감성어휘 분류체계로부터 판독하는 단계와, 상기 감성표현코드에 따라 해당 디지털 액터의 감성을 표현하는 감성 표현부를 구비하는 것을 다른 특징으로 한다.
전술한 바와 같은 본 발명에 의하면, 대본 분석을 통해 디지털 액터의 액션을 자동 생성함으로써 디지털 액터의 감성을 자동 표현하는 것이 가능하다.
또한 본 발명은 영상 문화 콘텐츠의 컴퓨터 그래픽 요소의 품질을 높이면서 적절한 디지털 액터의 감성 행동 표현에 대한 모델을 도출하는 데에 이용될 수 있다.
또한 본 발명은 인터렉티브 드라마(interactive drama), 인터렉티브 영화, 버츄얼 씨어터(virtual theater) 등의 분야 등 대본을 통해 표현되는 모든 장르에 활용 가치가 높을 뿐 아니라, 디지털 기반 영상 문화 콘텐츠 응용 분야 및 융복합 산업에 선도적 기여를 할 수 있다.
또한 본 발명은 영화 및 애니메이션 분야를 비롯하여 대사를 입력하면 감정이 자동으로 표현되는 커뮤니티 이모티콘, 게임 및 e-sports 분야, 아동용 에듀테인먼트 및 u-러닝 분야 콘텐츠, 모바일 커뮤니티, 관광, 음악, 공연 예술 등 확장성이 높은 기술로서 산업적 측면에서도 부가가치가 높다.
또한 본 발명은 웹에 연동되는 서사구조 분석을 통해 단말기 사이의 대화 분석, 블로그 사이의 대화 분석, 카페 간 대화 분석, 스마트폰의 문자(SMS)대화분석, 메신저 대화 분석 등 디지털화된 대화를 자동으로 분석하여 시의적절한 감성으로 표현하는 스마트 감성 환경을 뒷받침하는 다양한 서비스 개발에 원천 사상 및 기술을 제공한다.
상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면들을 함께 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 의한 디지털 액터 감성 표현 시스템의 블록도이다. 도시된 바와 같이, 디지털 액터 감성 표현 시스템(100)은 입력부(102), 단어 추출부(104), 감성표현코드 생성부(106), 감성어휘 분류체계 데이터베이스(108), 감성어휘 카운터부(110), 동작데이터 생성부(112), 감성 표현 데이터베이스(114), 동작데이터 저장부(116), 동작 표현부(118)를 구비하고 있다.
먼저, 입력부(102)는 사용자로부터 대본을 입력받는다. 입력부(102)는 대본 의 장르, 디지털 액터의 개성 등을 사용자로부터 입력받을 수 있다. 입력부(102)를 통해 입력된 대본의 문장은 단어 추출부(104)를 통해 단어의 단위로 절단된다.
감성표현코드 생성부(106)는 단어 추출부(104)에서 생성된 대본의 단어를 기본형으로 변환하고 이에 해당하는 감성표현코드를 감성어휘 분류체계 데이터베이스(108)로부터 판독하여 동작데이터 생성부(112)로 제공한다. 감성어휘 분류체계 데이터베이스(108)에 저장된 감성어휘 분류체계는 감성 관련 어휘와 감성표현코드를 대응시킨다. 감성표현코드 생성부(106)는 입력부(102)를 통해 사용자로부터 입력된 대본의 장르, 디지털 액터의 개성에 관한 정보를 감성어휘 분류체계 데이터베이스(108)로 제공하여 감성 관련 어휘에 대해 대본의 장르, 디지털 액터의 개성에 적합한 감성표현코드가 감성어휘 분류체계 데이터베이스(108)로부터 선택되도록 할 수 있다. 감성표현코드 생성부(106)는 감성어휘 분류체계 데이터베이스(108)로부터 대본의 단어에 해당하는 감성표현코드가 판독되지 않는 경우 해당 단어가 감성 관련 어휘(즉, 감성어휘)가 아닌 것으로 판정한다. 또한 감성표현코드 생성부(106)는 감성표현코드의 빈도수를 감성어휘 카운터(110)를 이용하여 계산하므로써 해당 대본의 상황을 추정하고, 이에 관한 정보를 감성어휘 분류체계 데이터베이스(108)로 제공하여 보다 적합한 감성표현코드가 선택되도록 할 수 있다.
동작데이터 생성부(112)는 감성표현코드 생성부(106)로부터 입력된 감성표현코드에 해당하는 동작을 해당 디지털 액터에 일으키기 위해 필요한 정보를 동작데이터 데이터베이스(114)로부터 판독하여 동작 표현부(118)로 제공한다. 동작데이터 저장부(116)는 동작데이터 데이터베이스(114)로부터 판독된 동작데이터를 디지털 액터(캐릭터)와 관련하여 저장하며, 동작 표현부(118)는 동작데이터 생성부(112)로부터 제공된 동작데이터를 이용하여 디지털 액터에 미리 정해진 동작이 일어나도록 하므로써 디지털 액터의 감성을 표현한다.
애니메이션 제작에 필요한 동작을 매번 포착하는 대신 포착한 동작들을 동작데이터 데이터베이스(114)로 저장하고 이들을 재사용하여 애니메이션을 제작하면 고가의 동작 포착 장비를 사용하여 매번 동작을 포착하는데 필요한 시간과 노력을 절감할 수 있다. 동작데이터는 디지털 액터의 각 관절의 위치와 회전각에 관한 정보로 구성될 수 있다.
이하, 도 2 내지 도 5를 참조하여 본 발명의 일 실시예에 의한 디지털 액터 감성 표현 방법을 보다 구체적으로 설명한다. 도 2는 본 발명의 일 실시예에 의한 디지털 액터 감성 표현 방법의 흐름도이다.
먼저, 감성 관련 어휘와 감성표현코드를 대응시키는 감성어휘 분류체계를 구비한다(202). 다음에는 입력부(도 1의 102)를 통해 입력된 대본의 문장을 단어의 단위로 절단한다(204). 대본으로부터 단어를 절단한 예가 도 4에 도시되어 있다. 대본에 지문이 있는 경우에는 지문으로부터 추출된 감성 관련 어휘를 이용할 수 있다.
다음에는 절단된 단어에 대응하는 감성표현코드를 감성어휘 분류체계로부터 판독한다(206). 도 5는 감성표현코드 판독 단계의 상세 흐름도이다. 한국어는 조사와 어미가 발달한 언어이므로 절단된 단어는 기본형으로 변환된(502) 후에 감성어휘 분류체계를 참조하여 감성어휘코드로 매핑된다(504). 다음에는 판독된 감성표현 코드에 따라 해당 디지털 액터의 감성을 표현한다(208).
도 3은 본 발명에 의한 감성어휘 분류체계의 하나의 예를 설명하는 도면이다. 도 3에 도시된 바와 같이, 감성어휘 분류체계는 감성 관련 어휘를 기본형을 이용해 분류한다. 또한 감성어휘 분류체계는 감성 관련 어휘를 품사, 신체, 반복 및 종합적 행동, 강약, 위치, 색깔 등을 이용하여 분류할 수 있다. 신체별 분류는 얼굴부분, 머리부분, 몸통부분, 팔부분, 다리부분, 신체적 특징으로 상세하게 구분될 수 있다. 얼굴부분은 얼굴액션, 입모양, 얼굴표정으로 상세하게 구분될 수 있다. 반복 및 종합적 행동 분류는 종합적 행동, 상황별 행동으로 구분될 수 있다.
감성어휘 분류체계는 대본의 장르, 디지털 액터의 개성, 상황 묘사 어휘, 감성 관련 어휘의 빈도수에 따라 보다 정교하게 감성 관련 어휘를 감성표현코드에 대응시킬 수 있다.
감성어휘 분류체계를 작성하기 위한 대본 선정은 디지털 콘텐츠 산업화 전후, 일반적으로 보편화되어 있는 문화 콘텐츠 유형을 중심으로 하여 그 대상 대본을 선정하였다. 그 대본의 장르는 TV 드라마, 연극, 뮤지컬, 영화, 그리고 애니메이션으로 각 장르별 5편의 대본으로 그 내용 역시, 국내에서 이미 대중들에게 친숙한 대중성 있는 작품이거나 또는 수상작을 중심으로 전체 구문 분석이 아닌, 구성요소 특징만을 일차적으로 검토해보는 단계 수준에서 분석하였다.
여러 다양한 장르별의 대본 중에서 별도의 감성 표현 및 행위에 영향을 미칠 수 있는 모든 구성요소를 분석한다. 그리고는 그에 따른 행동 및 감성 관련 문장들을 추출하거나 또는 그에 적합한 지문을 새롭게 생성하는 과정을 거친다.
디지털 액터의 아이덴티티 정립 및 정교한 감성 표현을 유도해낼 수 있는 대본 구성요소를 분석하려면 다음과 같이 세 가지 시선으로 접근하여 본 발명의 세부 모듈을 구체화시키는 것이 필요하다.
먼저, 인문학적 접근이다. 대본이라는 문화예술과 관련된 내용을 심층 분석하면서 그 구성요소에 따른 중층적 요인들을 어휘로 도출하는 이러한 접근이야 말로, 바로 기술기반을 중심으로 연구하는 접근법과의 차별점이며, 문화콘텐츠라는 내면의 정성적 표현 연구에 요구되는 분석 방법이라 본다.
다음으로는 공학적 접근을 들 수 있다. 대본에 대한 인문학적 내용 분석을 토대로, 그 어휘 분류법은 정량적 데이터 분석 프로그램을 활용하는 분석적 접근이 필요하다.
마지막으로, 미학적 접근을 들 수 있는데 이는 여기서 다루고자 하는 대본 구성요소를 통한 자동 감성 표현의 시각적 효과에 관한 품질고도화를 목표로 그 다양성 극대화를 염두에 두는 것이다.
도 4에 도시된 바와 같이, 대본 속 내용에서 기존의 지문을 추출하든가 또는 녹아 들어있는 행위 및 표현 요소를 어휘로 도출하여 정리한 후에 이것의 어절을 잘라내어 그 기본형과 품사 등 1차적 분류 작업 과정을 거치게 된다.
이 부분은 이제껏 수동적 디지털 기반 영상 콘텐츠 제작 과정에서는 존재하지 않던 새로운 과정이다. 이 부분은 대본 구성요소를 분석하여 디지털 액터가 자동으로 감성 표현을 구현할 때 최소한의 오류를 제거할 수 있는 과정이며, 어찌 보면 유일하게 또 하나의 수동적 절차일 수도 있지만, 이를 기존의 영상 콘텐츠 관련 분야에서의 유사 담당분야를 찾아보자면 다음과 같이 설명할 수 있겠다.
예를 들어, 영화의 경우는 각색 작가나 영화감독, 그리고 스크립터, 방송드라마 경우엔 방송작가 및 PD의 역할이 그러했고 애니메이션 경우엔 콘티작가가 원형 소스를 이와 같은 형태로 재가공한 형태라 볼 수 있다. 이 외에 공연 예술분야의 희곡 작가 및 감독과 배우들이 현장에서 더욱더 작품의 질을 높이기 위하여 대본을 수정 보완하는 작업을 바로 이 전문 스크립터가 하게 된다.
이 부분까지가 실제 디지털 액터에게 행위 및 감성 표현을 직접적으로 지시할 수 있는 어휘 추출 단계라 할 수 있다. 이 과정이 필요한 이유로는, 일반적으로 대본 속 어휘나 문장들은 1차적 의미 그대로 디지털 액터의 표정이나 액션을 일으킨다기보다는, 그 의미를 이해하고 전후 문맥의 흐름과 디지털 액터에 함의되어 있는 복합적인 요소들에 의해서 달라지는 경우가 대부분이기 때문이다.
따라서 시놉시스, 인물설정에 관한 설명 및 환경요인 등 내재되어 있는 변인과 중층적으로 분석하는 작업을 전체적으로 컴퓨터의 온톨로지 기반 인공지능개념의 퍼지 시스템에 일임하는 과정을 웹 플랫폼으로 구현한다. 다만 아직 기술 여건이 디지털 액터의 감성 문맥을 예측 및 추론하기에 부족하므로 본 발명에서 제시한 대본 분석대상 선정 및 시스템으로서 보완한다. 그러나 본 발명의 전체 흐름도에서 웹을 통해 기존에 아카이브로 저장된 수많은 대본들을 상호 대조함으로 더욱 정밀한 의미 추론 기반의 감성 분류가 가능하다.
다음 단계로는 그러한 어휘를 기반으로 하여 빈도수 및 코드 분류 작업을 거치게 되고 이에 따라 디지털 액터의 감성 표현의 시각화가 이루어지면서 디지털 액 터 설정 연결 작업 처리가 완료되는데, 구체적인 내용은 이하에서 다룬다.
본 발명의 분류체계는 대본상에서의 등장인물들의 담화, 즉 대사가 디지털 액터의 감성 표현에서 가장 효과적인 결과물로 시각화되어질 것인가에 초점을 맞춰 분류체계 구축방법론을 모색하는 데서 나오게 된 모델이다.
따라서 대본상의 지문이나 시놉시스의 등장인물 분석이 이러한 연구의 중층적 의미 분석에 유효한 의미를 지니게 되고, 본 감성 표현 분류 시스템은 디지털 액터의 자동 감성 표현 및 행위를 자연스럽고 정교하게 유도해내기 위해서 다음과 같이 크게 세 가지 어휘추출 기준을 정하여 진행한다.
첫째는, 자연어 처리 연구 분야에서의 외형적 어휘 분석, 구문 분석, 의미 분석, 문맥 분석이 아닌 인문학적 측면에서 대본 내의 인물 분석을 통해 감성 표현 어휘를 추출한다.
이는 텍스트 내의 품사 분석, 감성 표현 어휘 및 행위를 유도하는 어휘를 중심으로 한 모든 직간접적 은유적인 의미 특성을 디지털 액터의 감정화로 연결시키는 시스템이라 할 수 있다. 이에 필요한 구체적 분석 방법론은 다음과 같이 제시할 수 있겠다. 첫째 텍스트상의 행동 표현 어휘의 빈도수 및 유형 분석(의성어, 의태어 등 포함), 둘째 지문을 중심으로 한, 감성 표현 어휘의 빈도수 및 유형 분석 셋째 문화다양성 및 지역적 표현에 따른 감성 표현 분석이다.
둘째는, 크게 영상 콘텐츠의 각 분야의 다양한 장르별 특성을 고려하여 감성 표현 어휘를 추출한다.
즉, 비주얼 또는 텍스트 기반의 대본구조와의 비교나 사운드가 감성 표현구 현에 영향을 많이 미치는 뮤지컬 장르 경우, 또 애니메이션 장르같이 디지털 액터의 표정변화가 그다지 섬세하지 않은 대본을 콘티로 작성하였을 경우 등이 이에 해당된다 하겠다.
이때는 그 장르에 맞는 특성을 고려한 분석시스템을 심층 분석해 낼 필요가 있다. 즉, 텍스트 및 비주얼 기반 대본의 구성요소에 따른 감성 표현 기술 분석을 제시할 수 있다.
셋째는, 시놉시스 내의 등장인물의 개성 등 프리 프러덕션 과정에서만 분석되어지는 표현 요소 및 2차 구성요소라 할 수 있는 상황묘사 어휘들과 소품에 의한 감성 변화의 특성 등을 분석하여 추출한다.
즉, 프리프로덕션 구성요소에 따른 중층적 감성 표현을 분석하여 주인공의 감성을 도출하고, 이를 가상 캐릭터가 적절한 감정과 행동으로 표현하여 실제 배우와 같이 연기할 수 있도록 자동 분석 모델을 개발하기 위하여 인물 소개 등 디지털이 아닌 기존의 제작 과정 중 배우들이 대사 전 이해하는 과정을 함께 전문 스크립트 처리과정에서 다루어 주는 분석 방법이다.
이에는 다중 의미의 복합적 상황과 이를 토대로 한 상호 문장 연계성이 행동 및 감성 표현에 미치는 요인을 자동으로 분류해나가는 데 중점을 둔 분석 모델이라 할 수 있다.
이와 같은 세 가지의 분석 시스템은 본 발명에서 제시하는 전문 스크립트 처리 과정을 거쳤을 때, 도 3과 같은 형태의 필드 분류법의 자동화가 구체화할 수 있다고 본다.
앞서 살펴보았듯이, 기존 대부분의 연구는 개성과 감정만을 사용하여 캐릭터의 감정을 모델링하는 데 그쳤다. 그 외의 캐릭터 고유의 환경적 요소-인물의 배경, 살아온 과정 등-가 디지털 액터의 개성 및 감정에 미치는 영향을 고려하지 않음으로써 신뢰성 있는 감정 생성이 어려웠기에, 이 같은 등장인물 고유의 환경적 요소를 반영한 확장된 감성 시스템이 필요하다 할 것이다.
대부분의 시나리오 작법서와 장르별 분류체계는 그 제작기법과 스토리 라인에서의 차별성에도 불구하고 여러 영상 콘텐츠 분야에서 그대로 적용되는 경향을 보이고 있다.
대본 개성에 따른 용어조차도 다양하게 사용되고 있는데, 이를 하나로 총괄하여 다룬 연구는 아직 진행되지 않고 있다. 따라서 앞으로 본 발명에서 바라보는 인문, 예술, 과학의 복합 연계적 분야에서 다루어야 할 영상 문화 콘텐츠에서의 대본은 대략 어떠한 장르들이 있는지 기존 분야들에서 다룬 내용을 중심으로 발명의 구성요소를 도출한다.
<희곡 대본의 구성요소>
먼저, 연극이나 뮤지컬 같은 공연 대본과 관련해서 일반적인 개론서의 내용을 살펴보자면, 문학적 관점에서 쓰는 용어로 대본을 희곡이라 부른다. 희곡은 공연을 위해 쓰였는데, 많은 경우 공연의 밑그림이 되어, 전공 관련 인력들인 연출가, 배우, 무대 디자이너들에게 구현할 때 효과적으로 활용되는 대본이다.
이러한 희곡의 구성요소는 크게 제목과 등장인물의 제시문,막과 장면, 대사, 무대 지시문 등으로 구성되어 있다. 이러한 희곡을 서사적 방법으로 분류하기 위해 다음과 같은 요소들을 고려하여 분석한다.
먼저, 극의 짜임새에 대한 이해로서, 외적 행동 및 내적 행동 분석, 그리고 플롯의 진전을 비트 나누기, 유닛 나누기, 장면과 막으로 분류하고 그 구성을 내용적으로 개시지점, 자극 행동, 얽힘, 위기와 절정, 단순 플롯과 복합 플롯, 해결부로 나누어 분석하기도 한다.
이에 덧붙여, 좀 더 중층적 효과를 분석해 내기 위해, 극의 과거에 대한 이해로서, 제시부를 드러내거나, 과거의 사건/인물/느낌의 묘사 부분에 대한 분석도 필요하며, 극의 현재에 대한 이해를 위해, 시간, 장소 및 사회/정치와 문화적 배경 분석도 요구된다 하겠다.
특히 감성 표현에서 가장 중요하다 할 수 있는 인물분석에 있어서는 첫째 등장인물의 소개 및 묘사, 둘째 등장인물의 목표, 셋째 극적 행동 및 갈등과 상호관계를 분석하고 마지막으로 의지와 가치기준 등 개성적 특징을 분석하여야 한다. 또한 이러한 등장인물의 사상과 주제를 드러내기 위한 주제 분석 작업도 병행해야 한다.
<방송 대본의 구성요소>
위에서 살펴본 희곡 대본이 방송에서도 거의 비슷한 구조로 쓰이지만 방송프로그램에 따라 어떠한 장르로 또 세분화되어 활용되는지 그 대본의 유형을 프로그램 형식 및 내용에 따라 분류해 놓은 것을 참고로 그 구성요소를 다음과 같이 유추해보도록 하겠다.
먼저, 방송 대본은 드라마와 시트콤, 번역물, 다큐멘터리, 시사 및 뉴스관련 프로그램, 토론이나 대담, 생활 교양 프로그램, 그리고 오락 종합물과 코미디나 개그 그리고 어린이 프로그램, 국내 애니메이션, 스포츠 경기 중계, 광고 프로그램 등 의 다양한 장르에서 그 대본의 유형을 분류할 수 있다.
<영화 대본의 구성요소>
이러한 대본은 영화라는 장르에서는 좀 더 영상미를 극대화하여 심층적으로 분석되어 시각화된다. 영화각본이라고도 하는 시나리오의 구성요소를 간단하게 살펴보면, 크게 실사 영화와 애니메이션에 따른 시놉시스 및 시나리오를 들 수 있다.
그 세부 구성요소로는 스토리와 플롯 구성 그리고 지문과 대사, 컷 씬 시퀀스(cut scene sequence) 등이 있는데 이를 통하여 영화적 인물 창조와 인물의 종류를 분류하고 이를 묘사하는 분석이 필요하게 된다.
인물묘사에 있어서는 심리 묘사 및 개성 묘사의 기법을 분석하게 되고, 대사, 셔레이드, 리액션, 소도구를 이용하여 캐릭터의 중요성과 역할을 부여하는 작업을 하게 된다.
이러한 영화 시나리오는 내용상으로 그 장르를 세분화할 수 있는데, 코미디, 범죄극, 공포극, 액션극의 작법 기술의 특징들도 분석 요소가 될 수 있으며 이러한 심층 분석이 원작의 재구성과 재창조를 낳기도 한다.
이 외에 애니메이션 또는 게임콘텐츠 및 모바일, IPTV 등 뉴미디어 콘텐츠 장르는 텍스트 기반의 대본 구조와는 다른 일차적인 시각화 가공작업인 콘티를 그 차별적 구성요소로 하고 있다.
다음에는 이와 같이 다양한 장르별 대본 속에서 감성 표현의 요소는 어떻게 구현해야 하는지, 과연 감성 표현이란 무엇을 말하는지 그 정의 및 범주를 분석함으로 발명이 실현될 수 있는 근거를 제공한다.
감성이라는 용어에 대하여, 정현원의 연구를 참고로 살펴보면, 아직까지도 감성공학에 있어서의 감정과 그 의미가 혼용되어 쓰이고 있다고 지적하고 있다. 여기서, 감정의 사전적 정의는 '느끼어 일어나는 심정, 마음, 기분 또는 어떠한 대상이나 상태에 따라 일어나는 기쁨, 노여움, 슬픔, 두려움, 쾌감, 불쾌감 따위의 마음의 현상'이라 정의하였다.
또 감성이라는 용어에 대한 사전적 정의로는 '느낌을 받아들이는 성질, 감수성으로, 자극이나 자극의 변화를 느끼는 성질이며 인간의 인식 능력'으로 정의하였다.
이는 또 한편 정서라는 용어로도 해석되기도 하면서 심리학, 국문학, 디자인학, 공학 등 여러 복합학문에서 통용되는 용어이다. 특히, 이러한 감성이라는 용어가 영상 콘텐츠 분야에서는 시각화되는 면에 집중되어 감성 표현을 하는 주체자의 느낌을 그대로 수용자에게 공감시킬 수 있는 리얼함을 중시하게 되었다.
이런 점에서 보면, 감성 표현의 정성적 분류 작업은 어찌 보면, 수용자의 정서 연구와도 밀접한 관계가 있다고 볼 수 있겠다. 이러한 문화적/지역적 특성을 내재한 영상 콘텐츠의 정량적 코드 분류작업은 더더욱 의미가치를 추론하는 인문학적 소양을 다분히 요하는 분야라 볼 수 있다. 또한, 이러한 감성 표현의 범주를 행위요소로까지 넓혀서 큰 범주로 볼 수 있기에, 본 발명에서는 그와 연관된 행위 요소도 분석 대상으로 삼고자 한다.
본 발명에 의한 대본 분석 방법을 이용한 디지털 액터 감성의 자동 표현 기술은 인터렉티브 드라마, 인터렉티브 영화, 버츄얼 씨어터 등의 분야 등 대본을 통해 표현되는 모든 장르에 활용 가치가 높을 뿐 아니라, 디지털 기반 영상 문화 콘텐츠 분야의 연구에 선도적 기여를 할 수 있을 것이라 기대한다.
이를 구체적으로 영상관련 문화콘텐츠 산업분야에서 살펴보면, 영화 및 애니메이션 분야를 비롯하여 대사를 입력하면 감정이 자동으로 표현되는 커뮤니티 이모티콘, 게임 및 e-sports 분야, 아동용 에듀테인먼트 및 u-러닝 분야 콘텐츠, 모바일 커뮤니티, 관광, 음악, 공연 예술 등 확장성이 높은 기술로서 산업적 측면에서도 부가가치가 높다 할 수 있다.
따라서 자연스레, 이 같은 부가가치는 영화나 게임과 같은 문화콘텐츠 개발자와 게임, 컴퓨터 그래픽스, 가상현실, 영화 등의 콘텐츠 산업 분야의 전문 스크립터라는 인문학적 소양을 지닌 복합 학문분야로서의 전문 인력을 양성할 수 있을 것이다.
이러한 고급 인력은 이와 관련된 일을 수행하면서, 앞으로 대외적인 경쟁력이 있는 콘텐츠를 개발할 수 있는 기획과 개발제작 능력을 가지게 될 것이며 대외적인 기술 동향에 대하여 국가 경쟁력도 지니게 되어 글로벌한 전문 능력 및 국제적 감각 등도 갖추게 될 것으로 기대한다.
이렇듯, 본 발명에서 제시한 분석 시스템은 프리 프러덕션 구성요소에 따른 중층적 감성 표현을 분석하여 주인공의 감성을 도출하고, 이를 가상 캐릭터가 적절한 감정과 행동으로 표현하여 실제 배우와 같이 연기할 수 있도록, 중층적 감성 표 현 자동 분석 모델을 제시함으로써, 게임, 가상현실, 영화 등의 가상 환경을 다루는 모든 디지털 콘텐츠 분야에서 요구되는 매우 중요한 기술로, 고급 콘텐츠 제작 기술 분야 중 독보적인 위치를 확보할 수 있다.
마지막으로 이와 같은 분석 시스템이 가져올 기대효과를 생각해 본다면, 콘텐츠 제작 분야의 프리 프로덕션 기획, 제작 기간, 유통 서비스 등에서 창작 문화콘텐츠 산업의 창의적 기획 경쟁력과 수익창출 역량 발전을 꾀할 수 있다.
본 발명은 기초적 분석데이터를 기반으로 하여 향후 앞으로 더욱더 디테일한 적용가능성을 축적된 DB로의 접근과 이를 데이터마이닝하는 시맨틱한 웹 플랫폼 기반의 처리 시스템으로 구현될 수 있다.
영화장르의 대본 경우엔 동일한 언어구사라 할지라도 이를 표현하는 배우의 각기 다른 다양한 감성 표현에 대하여 딱히 정량화된 기준이 없는 관계로 보편타당한 객관성을 지닌 감성 표현이 어려워, 이에 대해서는 오히려 역과정으로 기존 아날로그 상태의 실제 인물의 묘사나 좀 더 질 높은 감성 표현에 대해서는 일부 수상작품의 화면분석을 매핑하여 이에 대한 감성 표현은 추출해낼 수 있겠다.
따라서 디지털 액터의 섬세하고 실감있는 표정구현을 위해서는 대본상의 독특한 어휘들을 웹에 디지털화된 영상 장면과 실시간으로 매핑하는 작업이 우선적으로 선행되어야 한다고 본다.
이를 위해 영화 상영 후 우수한 좀더 감성 표현 어휘들간의 느낌과 긍정적, 부정적 어휘들의 분석 및 내면 및 외면의 표현과 관련된 어휘 분석 등을 통하여 유사 표정을 차별화할 수 있는 감성어휘를 연구할 수 있을 것이다.
하지만, 이러한 객관화된 디지털 액터의 감성 표현은 어찌 보면 그 언어나 대사에 맞는 표현을 정형화시킴으로써 좀더 세밀한 표현을 요구하는 콘텐츠 제작에 있어서는 오히려 독창적인 예술성을 배제하는 역효과가 있을 수도 있다.
결론적으로, 본 발명의 활용분야는 실제 배우와 사실적인 감성 표현 및 신체 표현이 가능한 시뮬레이션으로 인하여 퍼지기술과의 시스템 연계로, 사용자가 직접 드라마나 영화, 게임, 연극 공연과 같은 영상 문화 콘텐츠에 직접 참여하는 맞춤형 UCC 감성 표현의 도구로서 복합연계분야로의 확장이 가능케 된다고 볼 수 있다.
한편, 전술한 바와 같은 본 발명의 방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드, 코드 세그먼트, 해당 모듈, 전체 시스템, 웹 플랫폼은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 구현될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 웹에서 또는 다양한 디바이스 환경에서 자연스럽게 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
도 1은 본 발명의 일 실시예에 의한 디지털 액터 감성 표현 시스템의 블록도이고,
도 2는 본 발명의 일 실시예에 의한 디지털 액터 감성 표현 방법의 흐름도이며,
도 3은 본 발명에 의한 감성어휘 분류체계의 일 예를 설명하는 도면이고,
도 4는 본 발명에 의한 단어 추출부에서의 단어 추출 방법을 설명하는 도면이며,
도 5는 도 2에서의 감성표현코드의 판독 단계를 상세하게 설명하는 흐름도이다.

Claims (10)

  1. 디지털 액터의 감성을 자동으로 표현하는 방법에 있어서,
    감성 관련 어휘와 감성표현코드를 대응시키는 감성어휘 분류체계를 구비하는 단계와,
    대본의 문장을 단어의 단위로 절단하는 단계와,
    상기 감성어휘 분류체계로부터 상기 절단된 단어에 대응하는 감성표현코드를 판독하는 단계와,
    상기 감성표현코드에 따라 해당 디지털 액터의 감성을 표현하는 단계를
    구비하는 것을 특징으로 하는 디지털 액터 감성의 자동 표현 방법.
  2. 제 1 항에 있어서,
    상기 감성어휘 분류체계에서 감성 관련 어휘는 기본형을 이용해 분류되며,
    상기 감성표현코드의 판독 단계는 상기 절단된 단어의 기본형을 도출하는 과정을 포함하는 것을 특징으로 하는 디지털 액터 감성의 자동 표현 방법.
  3. 제 1 항에 있어서,
    상기 감성어휘 분류체계에서 감성 관련 어휘는 품사, 신체, 행동, 강약, 위 치, 색깔 중의 적어도 어느 하나에 의해 분류되는 것을 특징으로 하는 디지털 액터 감성의 자동 표현 방법.
  4. 제 1 항에 있어서,
    상기 감성어휘 분류체계에서 감성 관련 어휘는 상기 대본의 장르에 따라 감성표현코드에 대응되는 것을 특징으로 하는 디지털 액터 감성의 자동 표현 방법.
  5. 제 1 항에 있어서,
    상기 감성어휘 분류체계에서 감성 관련 어휘는 상기 디지털 액터의 개성에 따라 감성표현코드에 대응되는 것을 특징으로 하는 디지털 액터 감성의 자동 표현 방법.
  6. 제 1 항에 있어서,
    상기 감성어휘 분류체계에서 감성 관련 어휘는 상황 묘사 어휘에 따라 감성표현코드에 대응되는 것을 특징으로 하는 디지털 액터 감성의 자동 표현 방법.
  7. 제 1 항에 있어서,
    상기 감성어휘 분류체계에서 감성 관련 어휘는 해당 감성 관련 어휘의 빈도수에 따라 감성표현코드에 대응되는 것을 특징으로 하는 디지털 액터 감성의 자동 표현 방법.
  8. 제 1 항에 있어서,
    상기 감성어휘 분류체계에서 감성 관련 어휘는 상황 묘사 어휘에 따라 감성표현코드에 대응되는 것을 특징으로 하는 디지털 액터 감성의 자동 표현 방법.
  9. 제 1 항에 있어서,
    상기 대본에 지문이 있는 경우 상기 감성어휘 분류체계에서 감성 관련 어휘는 상기 지문으로부터 추출되는 것을 특징으로 하는 디지털 액터 감성의 자동 표현 방법.
  10. 디지털 액터의 감성을 자동으로 표현하는 시스템에 있어서,
    감성 관련 어휘와 감성표현코드를 대응시키는 감성어휘 분류체계를 구비하는 데이터베이스와,
    대본의 문장을 단어의 단위로 절단하는 단어 추출부와,
    상기 단어 추출부에서 절단된 단어에 대응하는 감성표현코드를 상기 데이터베이스의 감성어휘 분류체계로부터 판독하는 단계와,
    상기 감성표현코드에 따라 해당 디지털 액터의 감성을 표현하는 감성 표현부를
    구비하는 것을 특징으로 하는 디지털 액터 감성의 자동 표현 시스템.
KR1020090081866A 2009-03-11 2009-09-01 디지털 액터의 감성을 자동으로 표현하는 방법 및 시스템 KR20100102515A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20090020762 2009-03-11
KR1020090020762 2009-03-11

Publications (1)

Publication Number Publication Date
KR20100102515A true KR20100102515A (ko) 2010-09-24

Family

ID=43007591

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090081866A KR20100102515A (ko) 2009-03-11 2009-09-01 디지털 액터의 감성을 자동으로 표현하는 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR20100102515A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011054380A1 (de) 2010-10-20 2012-04-26 Samsung Electronics Co., Ltd. Speicherschaltungen, -systeme und -module zum Durchführen von DRAM-Wiederauffrischungsoperationen und Betriebsverfahren derselben
KR20130022075A (ko) * 2011-08-24 2013-03-06 한국전자통신연구원 감성 어휘 정보 구축 방법 및 장치
KR20160134883A (ko) * 2015-04-28 2016-11-24 동서대학교산학협력단 영상컨텐츠 적용 디지털액터의 운용방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011054380A1 (de) 2010-10-20 2012-04-26 Samsung Electronics Co., Ltd. Speicherschaltungen, -systeme und -module zum Durchführen von DRAM-Wiederauffrischungsoperationen und Betriebsverfahren derselben
KR20130022075A (ko) * 2011-08-24 2013-03-06 한국전자통신연구원 감성 어휘 정보 구축 방법 및 장치
KR20160134883A (ko) * 2015-04-28 2016-11-24 동서대학교산학협력단 영상컨텐츠 적용 디지털액터의 운용방법

Similar Documents

Publication Publication Date Title
US9992556B1 (en) Automated creation of storyboards from screenplays
Taylor Multimodal transcription in the analysis, translation and subtitling of Italian films
Butler Television style
Fanelli et al. A 3-d audio-visual corpus of affective communication
CN110830852B (zh) 一种视频内容的处理方法及装置
CN101639943B (zh) 制作动画的方法和设备
Darvin Design, resistance and the performance of identity on TikTok
KR102490319B1 (ko) 인공지능 콘텐츠 자동 생성 및 변형 방법
Baron et al. More than a method: Trends and traditions in contemporary film performance
CN112800263A (zh) 一种基于人工智能的视频合成系统、方法及介质
Braun et al. Comparing human and automated approaches to visual storytelling
Volpe Computational models of expressive gesture in multimedia systems.
Kacorri TR-2015001: A survey and critique of facial expression synthesis in sign language animation
Yang et al. Automatic comic generation with stylistic multi-page layouts and emotion-driven text balloon generation
KR20100102515A (ko) 디지털 액터의 감성을 자동으로 표현하는 방법 및 시스템
Patel-Grosz et al. Steps towards a semantics of dance
Akser et al. SceneMaker: Creative technology for digital storytelling
Gjaci et al. Towards culture-aware co-speech gestures for social robots
Tsai et al. An intelligent recommendation system for animation scriptwriters’ education
Gambier Revisiting certain concepts of translation studies through the study of media practices
CN114911973A (zh) 动作生成方法、装置、电子设备及存储介质
CN116561294A (zh) 手语视频的生成方法、装置、计算机设备及存储介质
Smid et al. Autonomous speaker agent
Sra et al. Deepspace: Mood-based image texture generation for virtual reality from music
Chang et al. Report of 2017 NSF workshop on multimedia challenges, opportunities and research roadmaps

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E902 Notification of reason for refusal