KR102261548B1 - Apparatus of transforming art work into multimedia based on emotion - Google Patents

Apparatus of transforming art work into multimedia based on emotion Download PDF

Info

Publication number
KR102261548B1
KR102261548B1 KR1020190171543A KR20190171543A KR102261548B1 KR 102261548 B1 KR102261548 B1 KR 102261548B1 KR 1020190171543 A KR1020190171543 A KR 1020190171543A KR 20190171543 A KR20190171543 A KR 20190171543A KR 102261548 B1 KR102261548 B1 KR 102261548B1
Authority
KR
South Korea
Prior art keywords
emotion
information
work
text
unit
Prior art date
Application number
KR1020190171543A
Other languages
Korean (ko)
Inventor
김성광
류준용
Original Assignee
류준용
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 류준용 filed Critical 류준용
Priority to KR1020190171543A priority Critical patent/KR102261548B1/en
Application granted granted Critical
Publication of KR102261548B1 publication Critical patent/KR102261548B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention comprises: a work input unit (100) for receiving text or voice, text and voice works from an artist or a system; a character input unit (200) that receives character information according to time information including a character name, age, gender, personality type, intimacy between the characters, and a relationship index between the characters from the writer or the system; a background information input unit (300) for receiving background information including historical information, spatial information, political information, and socio-cultural information according to time information from the writer or the system; a first emotion setting unit (400) for automatically setting and providing a first emotion, which is an initial value of emotion contained in the work, based on the information input from the character input unit and the background information input unit; and a first multimedia transforming unit (500) for automatically expressing the work audiovisually based on the basis of the first emotion. The present invention is to provide an apparatus for receiving text or voice, text and voice work from an artist or a system, analyzing the emotion of the work, and automatically converting the work into audiovisual, that is, multimedia, based on the emotion.

Description

감성에 기초한 작품의 멀티미디어 변환 장치{APPARATUS OF TRANSFORMING ART WORK INTO MULTIMEDIA BASED ON EMOTION}A multimedia transformation device for works based on emotion {APPARATUS OF TRANSFORMING ART WORK INTO MULTIMEDIA BASED ON EMOTION}

본 발명은 감성에 기초한 작품의 멀티미디어 변환 장치에 관한 것으로, 보다 상세하게는, 작가로부터 또는 시스템으로부터, 텍스트 또는 음성, 텍스트 및 음성으로 된 작품을 입력받고, 작품의 감성을 분석하여, 그 감성에 기초하여, 작품을 시청각적으로, 즉 멀티미디어적으로 자동으로 변환하는, 감성에 기초한 작품의 멀티미디어 변환 장치에 관한 것이다.The present invention relates to a multimedia conversion device for a work based on emotion, and more particularly, receives a text or voice, text and voice work from an artist or a system, analyzes the emotion of the work, and analyzes the emotion of the work. It relates to a multimedia conversion apparatus of a work based on emotion, which automatically converts the work audiovisually, that is, multimedia based.

네덜란드 문화사학자 J.호이징거는 인간의 본질을 유희의 측면에서 파악하는 인간관을 갖고 있다. 우리 인간의 문화는 유희, 즉 즐길거리를 통해서 발전해 왔다. 오늘날 우리는 다양한 영상 및 음성 콘텐츠, 특히 유튜브 등과 같은 온라인 상에서의 콘텐츠를 통해서 즐길거리를 찾고, 시간을 보내고 있다. 과거의 콘텐츠 시장에서는, 종이책만의 시장이었다면, 오늘날의 콘텐츠는 e북, 오디오북, 유튜브 등 다양한 콘텐츠를 눈과 귀를 통해서 즐기고 있다. Dutch cultural historian J. Heusinger has a view of humanity that grasps the essence of human beings in terms of play. Our human culture has developed through play, that is, entertainment. Today, we spend our time looking for entertainment through various video and audio content, especially online content such as YouTube. In the past, in the content market, there was only a market for paper books, but today's content is enjoying various contents such as e-books, audiobooks, and YouTube through eyes and ears.

관련해서 2가지 측면을 살펴몬다. 첫 번째 측면은, 종래와 다른 오늘날의 작품 활동 방식을 고려하여, 텍스트만을 타이핑하여 소설이나 수필을 집필하는 것에서 벗어나, 현대의 작가들은 텍스트만이 아니라 음성 등의 다른 방식의 입력 수단을 고려하는 한편, 현재까지 텍스트를 입력 받아 감성에 기초하여 텍스트 등을 자동으로 멀티미디어로 변환하는 장치에 대해서는 개시된 바가 없다.Let's look at two aspects in this regard. The first aspect is that, in consideration of today's work activity that is different from the conventional one, instead of writing novels or essays by typing only text, modern writers consider other input methods such as voice and not only text, while , a device for receiving text input and automatically converting text into multimedia based on emotion has not been disclosed.

두 번째 측면은, 인류 지성의 집대성이라고 하는 정보나 자료는 모두 글로 되어 책의 형태로 되어 있다. 여러 다른 이슈를 양산하고 있지만, 구글은 수백만 권의 책을 디지털화하려고 노력하고 있는데, 현재까지 기존에 존재하던 방대한 텍스트 정보를 입력 받아 감성에 기초하여 텍스트 등을 자동으로 멀티미디어로 변환하는 장치에 대해서는 개시된 바가 없다. In the second aspect, all information and data, which is said to be the culmination of human intelligence, are written and in the form of books. Although mass-producing various other issues, Google is trying to digitize millions of books, but until now, a device that automatically converts texts and the like into multimedia based on emotions by receiving vast amounts of text information that existed in the past has been disclosed. there is no bar

관련한 종래의 특허문헌으로는, 대한민국 공개특허 제10-2009-0126862호(출원인 : 엔에이치엔다이퀘스트, 발명의 명칭 : 자연어 처리를 이용한 감성 정보 분석 시스템 및 방법,자연어 처리를 이용한 감성 정보 분석 방법을 컴퓨터에서실행하기 위한 프로그램을 저장한 기록매체{SYSTEM AND METHOD FOR ANALYZING EMOTIONAL INFORMATION FROM NATURAL LANGUAGE SENTENCE, AND MEDIUM FOR STORAGING PROGRAM FOR THE SAME})에서는, "본 발명은 자연어 처리를 이용한 감성 정보 분석 시스템을 제공한다. 이러한 시스템에서, 분석 대상 문서 저장 수단은 평가 대상에 대한 화자의 감성을 내포하는 복수의 자연어 문장을 유지한다. 또한, 감성 정보 분석 서버는 상기 자연어 문장을 형태소 단위로 분석하는 형태소 분석기와, 상기 분석된 형태소로부터 상기 형태소가 의미하는 바를 나타내는 의미 태그를 추출하고 상기 형태소와 상기 의미 태그의 조합으로 이루어지는 추상 문장을 생성하는 의미 추출기와, 유지하고 있는 복수의 패턴 규칙(LSP) 중에서 상기 추상 문장에 대응하는 적어도 하나의 패턴 규칙을 선택하고 상기 선택된 패턴 규칙을 참조하여 상기 추상 문장이 내포하는 평가 대상에 대한 화자의 감성을 나타내는 감성 정보를 산출하는 규칙 처리기를 포함하는 기술구성"이 개시되어 있다. As a related conventional patent document, Korean Patent Laid-Open Patent Publication No. 10-2009-0126862 (Applicant: NHN Diequest, Title of Invention: Sentiment information analysis system and method using natural language processing, emotional information analysis method using natural language processing in a computer In the recording medium storing the program for execution {SYSTEM AND METHOD FOR ANALYZING EMOTIONAL INFORMATION FROM NATURAL LANGUAGE SENTENCE, AND MEDIUM FOR STORAGING PROGRAM FOR THE SAME}), "The present invention provides an emotional information analysis system using natural language processing. In such a system, the analysis target document storage means maintains a plurality of natural language sentences that contain the speaker's emotions toward the evaluation target, and the sentiment information analysis server includes a morpheme analyzer that analyzes the natural language sentences in units of morphemes, and the analysis A semantic extractor that extracts a semantic tag representing the meaning of the morpheme from the morpheme and generates an abstract sentence composed of a combination of the morpheme and the semantic tag, and corresponds to the abstract sentence among a plurality of maintained pattern rules (LSP) A technical configuration including a rule processor that selects at least one pattern rule to be selected and calculates emotion information representing a speaker's emotion for an evaluation target contained in the abstract sentence with reference to the selected pattern rule" is disclosed.

이와 같이, 텍스트를 자연어 처리하고 형태소 단위로 분석하여 화자의 감성을 찾아내는 기술이 일부 존재함에도 불구하고, 현재까지 텍스트를 입력 받아 감성에 기초하여 텍스트 등을 자동으로 멀티미디어로 변환하는 장치 또는 기존에 존재하던 방대한 서적이나 텍스트 정보를 입력 받아 감성에 기초하여 서적이나 텍스트 등을 자동으로 멀티미디어로 변환하는 장치에 대해서는 전혀 개시하지 않고 있었다. As described above, although there are some technologies for natural language processing of text and analysis of morpheme units to find the speaker's emotions, there is an existing device or existing that receives text input and automatically converts text into multimedia based on emotion. A device for automatically converting books or texts into multimedia based on emotions by receiving vast amounts of book or text information has not been disclosed at all.

대한민국 공개특허 제10-2009-0126862호(출원인 : 엔에이치엔다이퀘스트, 발명의 명칭 : 자연어 처리를 이용한 감성 정보 분석 시스템 및 방법,자연어 처리를 이용한 감성 정보 분석 방법을 컴퓨터에서실행하기 위한 프로그램을 저장한 기록매체{SYSTEM AND METHOD FOR ANALYZING EMOTIONAL INFORMATION FROM NATURAL LANGUAGE SENTENCE, AND MEDIUM FOR STORAGING PROGRAM FOR THE SAME})Korean Patent Laid-Open Patent No. 10-2009-0126862 (Applicant: NHN Die Quest, Title of Invention: System and method for analyzing emotional information using natural language processing, a record storing a program for executing a method for analyzing emotional information using natural language processing on a computer MEDIUM {SYSTEM AND METHOD FOR ANALYZING EMOTIONAL INFORMATION FROM NATURAL LANGUAGE SENTENCE, AND MEDIUM FOR STORAGING PROGRAM FOR THE SAME}

본 발명은 상술한 문제점을 해결하기 위하여 창출된 것으로, 본 발명의 목적은 작가로부터 또는 시스템으로부터, 텍스트 또는 음성, 텍스트 및 음성으로 된 작품을 입력받고, 작품의 감성을 분석하여, 그 감성에 기초하여, 작품을 시청각적으로, 즉 멀티미디어적으로 자동으로 변환하는, 감성에 기초한 작품의 멀티미디어 변환 장치를 제공하는 것에 있다.The present invention was created to solve the above problems, and an object of the present invention is to receive text or voice, text and voice works from an artist or a system, analyze the sensibility of the work, and based on the sensibility Therefore, it is to provide a multimedia conversion device for works based on emotion, which automatically converts the work audiovisually, that is, multimedia.

상기의 목적을 달성하기 위한 본 발명에 따른 감성에 기초한 작품의 멀티미디어 변환 장치는, 작가로부터 또는 시스템으로부터, 텍스트 또는 음성, 텍스트 및 음성으로 된 작품을 입력받는 작품 입력부(100); 및 상기 작품의 감성을 분석하여, 상기 감성에 기초하여, 상기 작품을 시청각적으로 자동으로 표현하는 멀티미디어 변환부;를 포함한다.A multimedia conversion apparatus for a work based on emotion according to the present invention for achieving the above object, a work input unit 100 for receiving a work of text or voice, text and voice from an artist or a system; and a multimedia conversion unit that analyzes the emotion of the work and automatically expresses the work audiovisually based on the emotion.

또한, 본 발명에 따른 감성에 기초한 작품의 멀티미디어 변환 장치는, 작가 또는 시스템으로부터 텍스트 또는 음성, 텍스트 및 음성으로 된 작품을 입력받는 작품 입력부(100); 상기 작가 또는 상기 시스템으로부터, 캐릭터 이름, 나이, 성별, 성격 유형, 상기 캐릭터 간의 친밀도, 및 상기 캐릭터 간의 관계 지수를 포함하는 시간 정보에 따른 캐릭터 정보를 입력받는 캐릭터 입력부(200); 상기 작가 또는 상기 시스템으로부터, 시간 정보에 따른 시대적 정보, 공간적 정보, 정치적 정보, 및 사회문화적 정보를 포함한 배경 정보를 입력 받는 배경 정보 입력부(300); 상기 캐릭터 입력부 및 상기 배경 정보 입력부로부터 입력된 정보에 기초하여, 상기 작품에 담긴 감성의 초기값인 제 1 감성을 자동으로 설정하여 제공하는 제 1 감성 설정부(400); 및 상기 제 1 감성에 기초하여, 상기 작품을 시청각적으로 자동으로 표현하는 제 1 멀티미디어 변환부(500);를 포함한다. In addition, the multimedia conversion apparatus for a work based on emotion according to the present invention includes: a work input unit 100 for receiving a work of text or voice, text and voice from an artist or a system; a character input unit 200 that receives character information according to time information including a character name, age, gender, personality type, intimacy between the characters, and a relationship index between the characters from the writer or the system; a background information input unit 300 for receiving background information including historical information, spatial information, political information, and socio-cultural information according to time information from the author or the system; a first emotion setting unit 400 for automatically setting and providing a first emotion, which is an initial value of emotion contained in the work, based on the information input from the character input unit and the background information input unit; and a first multimedia conversion unit 500 that automatically expresses the work audiovisually based on the first emotion.

또한, 상기 작가 또는 상기 시스템으로부터, 상기 제 1 감성 설정부에 의해서 설정된 상기 작품의 제 1 감성을 수정하는 정보를 입력받아 상기 제 1 감성을 조정한 제 2 감성을 설정하는 제 2 감성 설정부(450);를 더 포함하는 것이 바람직하다. In addition, a second emotion setting unit that receives information for correcting the first emotion of the work set by the first emotion setting unit from the artist or the system and sets a second emotion adjusted with the first emotion ( 450); it is preferable to further include.

또한, 상기 멀티미디어 변환부는, 상기 제 1 멀티미디어 변환부(500)의 결과물인 상기 작품의 시청각적인 표현에 기초하여, 상기 작가 또는 상기 시스템으로부터 상기 제 2 감성 설정부(450)를 통해서 상기 제 1 감성을 조정한 상기 제 2 감성을 입력받아, 상기 작품을 시청각적으로 자동으로 표현하는 제 2 멀티미디어 변환부(550);를 포함한다. In addition, the multimedia conversion unit, based on the audiovisual expression of the work that is the result of the first multimedia conversion unit 500, the first emotion through the second emotion setting unit 450 from the author or the system and a second multimedia conversion unit 550 for receiving the second emotion adjusted by , and automatically expressing the work audiovisually.

또한, 상기 작품은 공상과학소설, 무협소설, 판타지소설, 추리소설, 호러소설, 로맨스소설을 포함하는 장르소설 가운데 하나인 것이 바람직하다. In addition, it is preferable that the work is one of genre novels including science fiction novels, martial arts novels, fantasy novels, mystery novels, horror novels, and romance novels.

또한, 상기 시간 정보는 상기 장르소설의 사건 전개 정보에 따라서 설정되며, 상기 캐릭터 정보는, 상기 장르소설의 사건 전개 정보에 따른 상기 캐릭터 이름, 나이, 성별, 성격 유형, 상기 캐릭터 간의 친밀도, 및 상기 캐릭터 간의 관계 지수를 포함하며, 상기 배경 정보는, 상기 장르소설의 사건 전개 정보에 따른 시대적 정보, 공간적 정보 및 정치적 정보, 사회문화적 정보를 포함하는 것이 바람직하다. In addition, the time information is set according to the event development information of the genre novel, and the character information includes the character name, age, gender, personality type, intimacy between the characters, and the character information according to the event development information of the genre novel. It includes a relationship index between characters, and the background information preferably includes epochal information, spatial information and political information, and socio-cultural information according to the event development information of the genre novel.

또한, 상기 제 1 감성 설정부(400)에서, 상기 작품에 담긴 감성의 초기값인 제 1 감성을 자동으로 설정할 때, 자연어 처리부에서 상기 텍스트를 자연어 처리하고, 형태소 분석부에서 형태소 단위로 분석하고, 감성 사전부를 기초로 하여 감성 분석부가 상기 텍스트의 감성을 분석하여 상기 작품을 시청각적으로 자동으로 표현하되, 상기 작가 또는 시스템으로부터의 텍스트에 포함된 이모티콘이 있는 경우에는, 상기 이모티콘을 우선하여 상기 텍스트의 감성을 분석하여 상기 작품을 시청각적으로 자동으로 표현하는 것이 바람직하다. In addition, when the first emotion setting unit 400 automatically sets the first emotion, which is the initial value of the emotion contained in the work, the natural language processing unit processes the text as natural language, and the morpheme analysis unit analyzes the text in units of morphemes. , based on the emotion dictionary, the emotion analysis unit analyzes the emotion of the text to automatically express the work audiovisually, but if there is an emoticon included in the text from the author or the system, the emoticon takes precedence It is preferable to automatically express the work audiovisually by analyzing the emotion of the text.

또한, 상기 작가 또는 시스템으로부터, 상기 성격 유형의 입력이 없는 경우에는, 상기 장르소설의 캐릭터를 프로파일링하여, 미리 저장되어 있는 전형적 성격 유형 가운데 하나로 설정할 수 있다. In addition, when there is no input of the personality type from the writer or the system, the character of the genre novel may be profiled and set as one of the pre-stored typical personality types.

또한, 상기 감성 사전은, 감성을 나타내는 초기에 설정되어 있는 감성 사전을, 데이터 처리 과정에서 기계 학습된 감성어를 추가해 나가는 확장형 가변 사전인 것이 바람직하다. In addition, it is preferable that the sentiment dictionary is an expandable variable dictionary in which a machine-learned sentiment word is added in a data processing process to an initially set sentiment dictionary indicating emotion.

또한, 상기 제 1 감성 설정부(400)에서, 상기 작품에 담긴 감성의 초기값인 제 1 감성을 자동으로 설정할 때, 상기 작품 입력부(100)와 연동하여 동작하는, 상기 작가의 생체신호 센서, 오디오 센서, 및 카메라 센서를 기초로 하여, 상기 생체신호 센서의 센싱 결과값, 상기 오디오 센서의 센싱 결과값, 상기 카메라에서 획득하여 영상처리를 통해서 도출된 센싱 결과값에 기초하여, 상기 제 1 감성을 설정할 수 있다. In addition, when the first emotion setting unit 400 automatically sets the first emotion, which is the initial value of the emotion contained in the work, the artist's biosignal sensor, which operates in conjunction with the work input unit 100, Based on the audio sensor and the camera sensor, based on the sensing result value of the biosignal sensor, the sensing result value of the audio sensor, and the sensing result value obtained through image processing obtained from the camera, the first emotion can be set.

또한, 상기 제 1 멀티미디어 변환부 및 상기 제 2 멀티미디어 변환부에서의 시각적 표현은, 독자의 시선 유도를 할 수 있도록 상기 텍스트를 타이핑 치는 형태로 한글자 한글자씩 타이핑하되, 상기 타이핑의 속도를 조절하거나, 상기 텍스트의 글자 크기를 조정하거나, 상기 텍스트의 글자 색상을 조정하거나, 상기 텍스트의 글자에 감성 효과를 입히거나, 또는 상기 텍스트에 출현하는 특정 오브젝트를 레이어에 덧입혀서 시각적으로 표현하며, 상기 제 2 멀티미디어 변환부 및 상기 제 2 멀티미디어 변환부에서의 청각적 표현은, 상기 텍스트를 낭독하는 화자를 변경하거나 상기 화자의 낭독 속도를 조절하거나, 상기 화자의 낭독하는 목소리 크기를 조정하거나, 상기 화자의 낭독에 감성효과를 입히거나, 상기 낭독에 출현하는 특정 오브젝트를 상기 화자의 낭독 음성의 레이어에 덧입혀서 출력하는 것이 바람직하다. In addition, the visual expression in the first multimedia conversion unit and the second multimedia conversion unit is to type each Hangul character in the form of typing the text so as to induce the reader's gaze, but by adjusting the speed of the typing, Adjusting the font size of the text, adjusting the font color of the text, applying an emotional effect to the characters of the text, or visually expressing a specific object appearing in the text on a layer, the second multimedia The auditory expression in the conversion unit and the second multimedia conversion unit may change the speaker who reads the text or adjust the reading speed of the speaker, adjust the volume of the speaker's reading voice, or in the reading of the speaker. It is preferable to apply an emotional effect or to output a specific object appearing in the reading over the layer of the speaker's reading voice.

본 발명에 따른 감성에 기초한 작품의 멀티미디어 변환 장치에 의하면, According to the multimedia conversion apparatus of the work based on the emotion according to the present invention,

첫째, 작가로부터 또는 시스템으로부터, 텍스트 또는 음성, 텍스트 및 음성으로 된 작품을 입력받고, 작품의 감성을 분석하여, 그 감성에 기초하여, 작품을 시청각적으로, 즉 멀티미디어적으로 자동으로 변환하는 것이 가능하다.First, receiving a text or voice, text and voice work from the artist or from the system, analyzing the emotion of the work, and automatically converting the work into audiovisual, that is, multimedia, based on the emotion It is possible.

둘째, 캐릭터 입력부(200)를 통해서, 작가 또는 시스템으로부터, 캐릭터 이름, 나이, 성별, 성격 유형, 캐릭터 간의 친밀도, 및 캐릭터 간의 관계 지수를 포함하는 시간 정보에 따른 캐릭터 정보를 입력받는 것이 가능하여, 감성 설정이나 감성 도출의 초기 값 설정의 유효성을 높일 수 있다. 결과적으로, 작가의 시간이나 노력의 낭비를 줄일 수 있다. Second, through the character input unit 200, it is possible to receive character information according to time information including a character name, age, gender, personality type, intimacy between characters, and a relationship index between characters from a writer or system, It is possible to increase the effectiveness of setting the initial value of emotion setting or emotion derivation. As a result, it is possible to reduce the waste of time or effort of the writer.

셋째, 배경 정보 입력부(300)를 통해서, 작가 또는 시스템으로부터, 시간 정보에 따른 시대적 정보, 공간적 정보, 정치적 정보, 및 사회문화적 정보를 포함한 배경 정보를 입력 받는 것이 가능하여, 감성 설정이나 감성 도출의 초기 값 설정의 유효성을 높일 수 있다. 결과적으로, 작가의 시간이나 노력의 낭비를 줄일 수 있다. Third, through the background information input unit 300, it is possible to receive background information, including historical information, spatial information, political information, and socio-cultural information according to time information, from an artist or system, so that it is possible to set emotions or derive emotions. The validity of the initial value setting can be increased. As a result, it is possible to reduce the waste of time or effort of the writer.

넷째, 제 2 멀티미디어 변환부(550)를 통해서, 작가는 제 1 멀티미디어 변환부(500)에서 임시적으로 만들어낸 작품의 시청각 자료를 검증하여, 제 1 감성을 조정하는 제 2 감성을 설정하는 것이 가능하다. Fourth, through the second multimedia conversion unit 550, the artist verifies the audiovisual data of the work temporarily created by the first multimedia conversion unit 500, it is possible to set the second emotion to adjust the first emotion Do.

다섯째, 작가 또는 시스템으로부터의 텍스트에 포함된 이모티콘이 있는 경우에는, 이모티콘을 우선적으로 적용하여, 텍스트의 감성을 분석하여 작품을 시청각적으로 자동으로 표현하는 것이 가능하다. Fifth, if there is an emoticon included in the text from the author or the system, it is possible to apply the emoticon first, analyze the emotion of the text, and automatically express the work audiovisually.

여섯째, 작가 또는 시스템으로부터, 성격 유형의 입력이 없거나 또는 있더라도 보완이 필요한 경우에는, 최근 OBA(온라인 행태 광고) 등에서 활용되고 있는 프로파일링 기법을 활용하여 장르소설의 캐릭터를 프로파일링하여, 미리 저장되어 있는 전형적 성격 유형 가운데 하나로 설정하여, 감성 설정이나 감성 도출의 초기 값 설정의 유효성을 높일 수 있다. 결과적으로, 작가의 시간이나 노력의 낭비를 줄일 수 있다.Sixth, if there is no personality type input from the writer or the system, or if supplementation is needed, the character of the genre novel is profiled using the profiling technique used in OBA (online behavior advertisement), etc., and stored in advance. By setting it as one of the typical personality types that exist, it is possible to increase the effectiveness of setting the initial value of emotion setting or emotion elicitation. As a result, it is possible to reduce the waste of time or effort of the writer.

일곱째, 기존에 출현한 적이 없는 신조어나 작가의 파괴적 단어 선택의 경우를 고려하여, 감성 사전은 감성을 나타내는 초기에 설정되어 있는 감성 사전을, 데이터 처리 과정에서 기계 학습(딥러닝 등)된 감성어를 추가해 나가는 확장형 가변 사전을 포함하여, 감성 설정이나 감성 도출의 초기 값 설정의 유효성을 제고할 수 있다. Seventh, considering the case of a new word that has never appeared before or the author's destructive word selection, the emotional dictionary uses the emotional dictionary set at the beginning to express emotions, and the emotional words that are machine-learned (deep learning, etc.) in the data processing process. It is possible to improve the validity of setting the initial value of emotion setting or emotion derivation by including an expandable variable dictionary that adds .

여덟째, 제 1 감성 설정부(400)에서, 작품에 담긴 감성의 초기값인 제 1 감성을 자동으로 설정할 때, 작가의 몸에 부착된 생체신호 센서(예를 들어, ECG, EEG, 혈압센서, 심박수센서 등), 오디오 센서(예를 들어, 마이크, 오디오의 주파수 분석이나 스펙트럼 애널라이저 등), 및 카메라 센서를 기초로 하여, 생체신호 센서의 센싱 결과값, 오디오 센서의 센싱 결과값, 카메라에서 획득하여 영상처리를 통해서 도출된 센싱 결과값에 기초하여, 제 1 감성을 설정하여, 감성 설정이나 감성 도출의 정확도를 제고하는 것이 가능하다. Eighth, when the first emotion setting unit 400 automatically sets the first emotion, which is the initial value of the emotion contained in the work, a biosignal sensor (eg, ECG, EEG, blood pressure sensor, heart rate sensor, etc.), audio sensor (eg, microphone, audio frequency analysis or spectrum analyzer, etc.), and the camera sensor, the sensing result of the biosignal sensor, the sensing result of the audio sensor, and the camera Thus, it is possible to set the first emotion based on the sensing result value derived through image processing, thereby improving the accuracy of emotion setting or emotion derivation.

아홉째, 제 1 멀티미디어 변환부 및 상기 제 2 멀티미디어 변환부에서의 시각적 표현 및 청각적 효현을 통해서, 텍스트에 대한 독자의 관심보다 더 높은 집중도, 독자의 시선 유도를 하는 것이 가능하며, 감성까지 전달하는 것이 가능하다. Ninth, through the visual expression and auditory effect in the first multimedia conversion unit and the second multimedia conversion unit, it is possible to induce a higher degree of concentration than the reader's interest in the text, the reader's gaze, and to deliver emotions it is possible

도 1은 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치를 개략적으로 나타낸 블록도이다.
도 2는 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치의 캐릭터 입력부(200)에 대한 캐릭터 정보 입력을 도시한 도면이다.
도 3은 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치의 캐릭터 입력부(200)에 대해서 시간 정보, 예를 들어 사건 전개 정보에 따라 캐릭터 정보 입력을 도시한 도면이다.
도 4는 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치의 배경 정보 입력부(300)에 대한 배경 정보 입력을 도시한 도면이다.
도 5는 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치의 배경 정보 입력부(300)에 대해서 시간 정보, 예를 들어 사건 전개 정보에 따라 배경 정보 입력을 도시한 도면이다.
도 6은 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치의 자연처 처리, 형태소 분석, 감성 사전부, 감성 분석부를 나타낸 것이다.
도 7은 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치의 형태소 분석부에서 활용하는 한국어 형태소 및 한국어 형태소 코드를 나타낸 것이다.
1 is a block diagram schematically showing an apparatus for converting a multimedia work based on emotion according to a preferred embodiment of the present invention.
2 is a diagram illustrating character information input to the character input unit 200 of the multimedia conversion apparatus for a work based on emotion according to a preferred embodiment of the present invention.
3 is a diagram illustrating character information input according to time information, for example, event development information, with respect to the character input unit 200 of the multimedia conversion apparatus for a work based on emotion according to a preferred embodiment of the present invention.
4 is a diagram illustrating background information input to the background information input unit 300 of the apparatus for converting a multimedia work based on emotion according to a preferred embodiment of the present invention.
5 is a diagram illustrating input of background information according to time information, for example, event development information, to the background information input unit 300 of the apparatus for converting a multimedia work based on emotion according to a preferred embodiment of the present invention.
6 is a diagram illustrating natural part processing, morpheme analysis, emotion dictionary unit, and emotion analysis unit of the multimedia conversion device for works based on emotion according to a preferred embodiment of the present invention.
7 is a view showing Korean morphemes and Korean morpheme codes used by the morpheme analysis unit of the multimedia conversion device for works based on emotion according to a preferred embodiment of the present invention.

이하 첨부된 도면을 참조하면서 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. Prior to this, the terms or words used in the present specification and claims should not be construed as being limited to conventional or dictionary meanings, and the inventor should properly understand the concept of the term in order to best describe his invention. Based on the principle that can be defined, it should be interpreted as meaning and concept consistent with the technical idea of the present invention.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Accordingly, the configuration shown in the embodiments and drawings described in the present specification is only the most preferred embodiment of the present invention and does not represent all the technical spirit of the present invention, so at the time of the present application, various It should be understood that there may be equivalents and variations.

(감성에 기초한 작품의 멀티미디어 변환 장치)(A multimedia conversion device for works based on emotions)

도 1은 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치를 개략적으로 나타낸 블록도이다. 1 is a block diagram schematically showing an apparatus for converting a multimedia work based on emotion according to a preferred embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 감성에 기초한 작품의 멀티미디어 변환 장치는, 작품 입력부(100), 캐릭터 입력부(200), 배경 정보 입력부(300), 제 1 감성 설정부(400) 및 제 1 멀티미디어 변환부(500)를 포함한다. As shown in FIG. 1 , the multimedia conversion apparatus for a work based on emotion according to the present invention includes a work input unit 100 , a character input unit 200 , a background information input unit 300 , a first emotion setting unit 400 and It includes a first multimedia conversion unit (500).

먼저, 작품 입력부(100)는 작가나 또는 시스템으로부터 텍스트 또는 음성, 텍스트 및 음성으로 된 작품을 입력 받는다. 여기서 작가는, 공상과학소설, 무협소설, 판타지소설, 추리소설, 호러소설, 로맨스소설을 포함하는 장르소설가는 물론이고, 그 외 수필이나 일반적인 소설, 극본, 희곡 등을 포함한다. 마찬가지로, 작품은 공상과학소설, 무협소설, 판타지소설, 추리소설, 호러소설, 로맨스소설을 포함하는 장르소설 가운데 하나인 것이 바람직하지만, 그 외 문학작품일 수 있음은 물론이다. First, the work input unit 100 receives text or voice, text and voice works from an artist or a system. Here, writers include genre novelists including science fiction novels, martial arts novels, fantasy novels, mystery novels, horror novels, and romance novels, as well as other essays, general novels, screenplays, and plays. Likewise, it is desirable that the work be one of genre novels including science fiction, martial arts novels, fantasy novels, mystery novels, horror novels, and romance novels, but of course it may be other literary works.

여기서, 시스템으로부터 작품을 입력받는 것은, 방대한 텍스트 형태로 존재하던 소설을 다시 현대의 멀티미디어로 자동 변환하는 것으로서, 캐릭터의 감성이나 문맥이나 지문 상의 감성, 사회문화적 감성이나 상황적 감성, 시대적 분위기를 고려한 감성과 결합된 멀티미디어로 변환하기 위한 입력을 말한다. Here, receiving works from the system automatically converts novels that existed in the form of vast texts back to modern multimedia, taking into account the character's sensibility, context or fingerprint sensibility, sociocultural sensibility or situational sensibility, and the atmosphere of the times. It refers to the input for converting into multimedia combined with emotion.

(캐릭터 입력부)(character input section)

도 2는 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치의 캐릭터 입력부(200)에 대한 캐릭터 정보 입력을 도시한 도면이고, 도 3은 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치의 캐릭터 입력부(200)에 대해서 시간 정보, 예를 들어 사건 전개 정보에 따라 캐릭터 정보 입력을 도시한 도면이다.2 is a view showing character information input to the character input unit 200 of the multimedia conversion device for a work based on emotion according to a preferred embodiment of the present invention, and FIG. 3 is an emotion-based work based on emotion according to a preferred embodiment of the present invention. It is a diagram illustrating input of character information according to time information, for example, event development information, to the character input unit 200 of the multimedia conversion device of the work.

도 2 및 도 3에 도시된 바와 같이, 캐릭터 입력부(200)는, 작가 또는 시스템으로부터 시스템적으로, 캐릭터의 이름(예명, 별칭, 아호, 별호 등), 나이, 성별, 성격 유형, 캐릭터 간의 친밀도, 및 캐릭터 간의 관계 지수를 포함하는 시간 정보에 따른 캐릭터 정보를 입력받는다. As shown in FIGS. 2 and 3 , the character input unit 200 is, systematically from the author or system, the character's name (stage name, nickname, nickname, nickname, etc.), age, gender, personality type, and intimacy between the characters. , and character information according to time information including a relationship index between characters is received.

여기서, 시간 정보는 작품의 사건 전개나 시간을 흐름을 나타낼 수 있다. 좀 더 구체적으로, 장르소설의 사건 전개 정보에 따라서 설정될 수 있다. 즉, 캐릭터 정보는, 장르소설의 사건 전개 정보에 따른 캐릭터 이름, 나이, 성별, 성격 유형, 상기 캐릭터 간의 친밀도, 및 상기 캐릭터 간의 관계 지수를 포함한다. 데이터베이스에 저장되어 있는 형태는, 옴니버스 형식의 사건 전개나 타입 슬립 방식의 사건 전개를 고려하여, 시간의 순서에 따른 형태가 분기(分岐)하거나 합쳐지거나, 역으로 흐르는 것을 고려한 입체적 형태로, 사건 전개와 시간 순서가 매핑이 될 수 있다. Here, the time information may represent the development of events or the flow of time of the work. More specifically, it may be set according to the event development information of the genre novel. That is, the character information includes a character name, age, gender, personality type, intimacy between the characters, and a relationship index between the characters according to the event development information of the genre novel. The form stored in the database is a three-dimensional form that considers the divergence, merging, or reverse flow of forms according to the sequence of time in consideration of omnibus event development or type slip type event development. and time order can be a mapping.

예를 들어, 사건1에서, 서로 절친한 죽마고우인 두 대학생 남성(C2, C3)가 아름다운 묘령의 한 여인(C1)을 만난다. 사랑스럽고 봄 기운 같은 청춘의 느낌을 감성으로 표현할 수 있다. 이후 사건4에서는, 두 남성(C2, C3)은 C1을 사랑하게 되고, 두 남성은 서로 원수 사이가 되는 구성을, 캐릭터 간의 친밀도 또는 캐릭터 간의 관계 지수로 표현하여 입력을 하고, 이를 바탕으로 텍스트에 감성을 덧입힐 때, 이와 같은 캐릭터 간의 친밀도 및/또는 캐릭터 간의 관계 지수를 바탕으로 제 1 감성을 설정하게 된다. For example, in case 1, two college student men (C2, C3) who are close friends meet a beautiful mysterious woman (C1). You can express the feeling of youth, which is lovely and spring-like. Later, in case 4, two men (C2, C3) fall in love with C1, and the two men enter the composition in which they become enemies by expressing the intimacy between the characters or the relationship index between the characters, and based on this, the text is entered. When adding emotion, the first emotion is set based on the intimacy between the characters and/or the relationship index between the characters.

(배경 정보 입력부)(background information input unit)

도 4는 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치의 배경 정보 입력부(300)에 대한 배경 정보 입력을 도시한 도면이고, 도 5는 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치의 배경 정보 입력부(300)에 대해서 시간 정보, 예를 들어 사건 전개 정보에 따라 배경 정보 입력을 도시한 도면이다.4 is a view showing the input of background information to the background information input unit 300 of the multimedia conversion apparatus for a work based on emotion according to a preferred embodiment of the present invention, and FIG. 5 is a view showing the emotion based on the emotion according to the preferred embodiment of the present invention. It is a diagram illustrating input of background information according to time information, for example, event development information, to the background information input unit 300 of the multimedia conversion apparatus for a work based on the work.

도 4 및 도 5에 도시된 바와 같이, 배경 정보 입력부(300)는, 예를 들어 장르소설의 작가로부터 입력을 받거나 또는 시스템적으로 시스템으로부터 입력을 받을 수 있다. 시간 정보에 따른 시대적 정보, 공간적 정보, 정치적 정보, 및 사회문화적 정보를 포함한 배경 정보를 입력 받는다.As shown in FIGS. 4 and 5 , the background information input unit 300 may receive an input from, for example, a writer of a genre novel or may receive an input from a system in a systematic manner. Background information including temporal information, spatial information, political information, and socio-cultural information according to temporal information is input.

여기서, 배경 정보는, 예를 들어, 장르소설의 사건 전개 정보에 따른 시대적 정보, 공간적 정보 및 정치적 정보, 사회문화적 정보를 포함하는 것이 바람직한데, 도 5에서처럼, 사건1에서는, 주인공이 대한민국 2019년 서울에서 살고 있었다. 사건1의 텍스트를 서술하는 음성이나 텍스트 타이핑에서 가볍고 활기찬 감성을 표현할 수 있다. 하지만, 알 수 없는 이유로 조선 초 1395년의 한양으로 타임슬립을 하여, 사건 2에서는 조선 초의 모습을 감성으로 담을 수 있고, 사건 3과 사건 4에서는 중국의 남경, 북경의 명나라 초기의 모습을 공간적, 정치적, 사회문화적 상황이나 배경에 맞게, 감성적으로 담을 수 있다. 다만 이것은 디폴트 값으로 설정하는 것이고, 기본적인 배경 설명을 하는 부분에서 활용될 수 있다. 즉, 문맥이나 맥락 상 캐릭터 간의 대화가 다르게 설정될 수 있음은 물론이다. Here, the background information preferably includes, for example, historical information, spatial information and political information, and socio-cultural information according to the event development information of the genre novel. I was living in Seoul. Light and lively emotions can be expressed in voice or text typing that describes the text of Event 1. However, due to an unknown reason, the time slip to Hanyang in 1395 in the early Joseon Dynasty can capture the appearance of the early Joseon sensibly in Case 2, and in Case 3 and 4, the appearance of the early Ming Dynasty in Nanjing and Beijing in China is spatially and It can be emotionally contained in accordance with the political, socio-cultural situation or background. However, this is to set the default value, and it can be used in the basic background explanation. That is, it goes without saying that dialogue between characters may be set differently in context or context.

(멀티미디어 변환부)(Multimedia converter)

다음으로, 도 1에 도시된 바와 같이, 제 1 제 1 감성 설정부(400)는 상술한 캐릭터 입력부(200) 및 배경 정보 입력부(300)로부터 입력된 정보에 기초하여, 작품에 담긴 감성의 초기값인 제 1 감성을 자동으로 설정하여 제공한다. 이와 같이 함으로써, 감성이 담긴 자동 멀티미디어 변환 장치의 효율성을 높일 수 있다. Next, as shown in FIG. 1 , the first first emotion setting unit 400 is based on the information input from the above-described character input unit 200 and background information input unit 300 , the initial emotion contained in the work. The first emotion, which is a value, is automatically set and provided. By doing this, it is possible to increase the efficiency of the automatic multimedia conversion device containing emotion.

모든 감성의 설정을 작가가 한다면 상당히 비효율적일 수 있으나, 1차적으로 작품에 담긴 감성의 초기값인 제 1 감성을 자동으로 설정하고, 작가가 후술하는 것처럼 제 1 감성을 검증하여 수정하거나 보완하거나, 만약 제 1 감성이 작가가 느끼기에 맞다면 그대로 놔둘 수도 있다. It can be quite inefficient if the artist sets all the emotions, but firstly, the first emotion, which is the initial value of the emotion contained in the work, is automatically set, and the first emotion is verified and corrected or supplemented as described later by the artist, If the first emotion is right for the artist to feel, it can be left as it is.

즉, 제 2 감성 설정부(450)를 더 포함하여, 작가 또는 시스템으로부터, 상술한 제 1 감성 설정부에 의해서 설정된 작품의 제 1 감성을 수정하는 정보를 입력받아 상기 제 1 감성을 조정한 제 2 감성을 설정한다.That is, the second emotion setting unit 450 is further included to receive information for correcting the first emotion of the work set by the above-described first emotion setting unit from the artist or the system and adjust the first emotion. 2 Set the emotion.

이 때, 제 1 멀티미디어 변환부(500)는 이와 같은 제 1 감성에 기초하여, 작품을 시청각적으로 자동으로 표현한다. 작가는 제 1 멀티미디어 변환부(500)에서 임시적으로 만들어낸 작품의 시청각 자료를 검증하여, 제 1 감성을 조정하는 제 2 감성을 설정하는 것이 가능하다. At this time, the first multimedia conversion unit 500 automatically expresses the work audiovisually based on the first emotion as described above. The artist verifies the audiovisual material of the work temporarily created by the first multimedia conversion unit 500, and it is possible to set the second emotion to adjust the first emotion.

이후에, 멀티미디어 변환부는 제 2 멀티미디어 변환부(550)를 더 포함할 수 있다. 즉, 제 1 멀티미디어 변환부(500)의 결과물인 상기 작품의 시청각적인 표현에 기초하여, 작가 또는 시스템으로부터 제 2 감성 설정부(450)를 통해서 제 1 감성을 조정한 상기 제 2 감성을 입력받아, 그 결과값에 기초하여, 작품을 시청각적으로 자동으로 표현하는 것이 가능하다. Thereafter, the multimedia converter may further include a second multimedia converter 550 . That is, based on the audiovisual expression of the work, which is the result of the first multimedia conversion unit 500 , the second emotion adjusted through the second emotion setting unit 450 is received from the artist or the system. , based on the result value, it is possible to automatically express the work audiovisually.

멀티미디어 변환부에서의 시각적 표현은, 예를 들어, 텍스트를 독자의 시선 유도를 할 수 있도록 타이핑 치는 형태로 한글자 한글자씩 타이핑하되, 타이핑의 속도를 조절하거나, 텍스트의 글자 크기를 조정하거나, 텍스트의 글자 색상을 조정하는, 텍스트의 글자에 감성 효과(예를 들어 추운 날씨에 글자가 떨고 있거나, 공포의 대상으로 인해 캐릭터가 떨고 있는 것을 표현하기 위해 글자가 떨고 있거나, 더운 날씨에 글자가 땀을 흘리고 있거나, 또는 난감한 상황에서 캐릭터가 식은 땀을 흘리는 것을 표현하기 위해서 글자가 땀을 흘리고 있거나, 캐릭터가 의식을 잃은 것을 형상화해서 글자가 쓰러지는 등의 표현)를 입히는 것이 가능하다. 또한, 바닷가에서 갈매기가 출현한다면, 갈매기 오브젝트를 영상의 레이어에 덧입혀서 디스플레이하는 형식이 될 수 있다.Visual expression in the multimedia conversion unit is, for example, typing each Hangul character in the form of typing to induce the reader's gaze on the text, but adjusting the typing speed, adjusting the font size of the text, or Adjusting the color of the text, emotional effects on the letters of the text (e.g. the letters are shaking in cold weather, the letters are shaking to represent that the character is shaking because of the object of fear, or the letters are sweating in hot weather) Or, to express that the character is sweating in a difficult situation, the character is sweating, or the character is unconscious and the character collapses) is possible. In addition, if a seagull appears on the beach, the seagull object may be overlaid on the image layer and displayed.

또한, 멀티미디어 변환부에서의 청각적 표현은, 예를 들어, 텍스트를 낭독하는 화자의 속도를 조절하거나, 화자의 목소리 크기를 조정하거나, 화자의 감성효과(기쁘다면 기쁜 음성으로, 슬프다면 슬픈 음성으로 표현)를 입히는 것이 가능하다. 또한, 바닷가에서 갈매기가 출현한다면, 사전에 저장되어 있는 갈매기 목소리를 화자의 낭독 음성의 레이어에 덧입혀서 출력하는 형식이 될 수 있다.In addition, the auditory expression in the multimedia conversion unit, for example, adjusts the speed of the speaker reading the text, adjusts the speaker's voice volume, or the emotional effect of the speaker (a happy voice if happy, sad voice if sad) expressed as ), it is possible to In addition, if a seagull appears at the beach, it can be output by overlaying the previously stored seagull voice on the speaker's reading voice layer.

(캐릭터 프로파일링)(character profiling)

작가 또는 시스템으로부터, 성격 유형의 입력이 없는 경우에는상기 장르소설의 캐릭터를 프로파일링하여, 미리 저장되어 있는 전형적 성격 유형 가운데 하나로 설정할 수 있다. If there is no input of a personality type from the writer or the system, the character of the genre novel may be profiled and set as one of the pre-stored typical personality types.

전형적 성격 유형은, 일반적으로 공개된 다양한 장르소설의 주인공 가운데 가장 전형적인 성격 유형을 정리하여 입력한다. 예를 들어, 돈키오테 성격 유형 등을 들 수 있다. 이와 같은 캐릭터의 프로파일링을 통해서, 해당 캐릭터가 어떤 성격 유형의 그룹에 해당하는지를 파악함으로써, 해당 전형적 성격 유형을 바탕으로 제 1 감성 설정을 할 때 기초 정보로서 활용한다. The typical personality type is entered by organizing and entering the most typical personality type among the protagonists of various genre novels that are generally published. For example, the Don Quiote personality type, etc. Through such character profiling, by identifying which personality type group the corresponding character belongs to, it is used as basic information when setting the first emotion based on the typical personality type.

한편, 성격 유형의 입력이 있다고 하더라도, 캐릭터 프로파일링 분석 결과에 맞지 않다면, 조정값을 독자에게 제공하는 것도 가능하다. On the other hand, even if there is a personality type input, it is possible to provide an adjustment value to the reader if it does not fit the character profiling analysis result.

(감성 사전)(Emotional Dictionary)

또한, 감성 사전은, 감성을 나타내는 초기에 설정되어 있는 감성 사전을, 데이터 처리 과정에서 기계 학습(딥러닝 등)된 감성어를 추가해 나가는 확장형 가변 사전인 것이 바람직하다. 기존에 축적된 데이터를 시스템적으로 분석하여, 감성 사전을 확장해 나가는 것이 가능하다. 이것은 기존에 출현한 적이 없는 신조어나 작가의 파괴적 단어 선택의 경우에 유효할 수 있다. 감성 사전은 작가별나 시기별, 국가별로 다르게 설정하는 것도 가능하다.In addition, it is preferable that the sentiment dictionary be an expandable variable dictionary in which emotional words that are machine-learned (deep learning, etc.) are added in the data processing process to the sentiment dictionary that is initially set for expressing emotions. By systematically analyzing previously accumulated data, it is possible to expand the emotional dictionary. This can be effective in the case of a new word that has never appeared before or the author's destructive word choice. It is also possible to set the emotional dictionary differently for each author, period, or country.

(감성 도출 정확도 향상 기술)(Technology for improving the accuracy of emotional derivation)

도 6은 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치의 자연처 처리, 형태소 분석, 감성 사전부, 감성 분석부를 나타낸 것이고, 도 7은 본 발명의 바람직한 실시예에 따른 감성에 기초한 작품의 멀티미디어 변환 장치의 형태소 분석부에서 활용하는 한국어 형태소 및 한국어 형태소 코드를 나타낸 것이다. 6 is a view showing the natural part processing, morpheme analysis, emotion dictionary unit, and emotion analysis unit of the multimedia conversion device for works based on emotion according to a preferred embodiment of the present invention, and FIG. 7 is a view showing emotion analysis according to a preferred embodiment of the present invention. It shows Korean morphemes and Korean morpheme codes used by the morpheme analysis unit of the multimedia conversion device of the based work.

도 6 및 도 7에 도시된 바와 같이, 제 1 감성 설정부(400)에서, 작품에 담긴 감성의 초기값인 제 1 감성을 자동으로 설정할 때, 자연어 처리부(510)에서 텍스트를 자연어 처리하고, 형태소 분석부(520)에서 형태소 단위로 분석하고, 감성 사전부(530)를 기초로 하여 감성 분석부(540)가 텍스트의 감성을 분석하여 작품을 시청각적으로 자동으로 표현한다. 여기서 텍스트의 감성 분석은, 단어별로, 문장별로, 단락별로, 사건별로 설정하는 것이 하다. 6 and 7, when the first emotion setting unit 400 automatically sets the first emotion, which is the initial value of the emotion contained in the work, the natural language processing unit 510 processes the text in natural language, The morpheme analyzer 520 analyzes the morpheme unit, and the emotion analyzer 540 analyzes the emotion of the text based on the emotion dictionary 530 and automatically expresses the work audiovisually. Here, the sentiment analysis of the text is set for each word, each sentence, each paragraph, and each event.

이 때, 작가 또는 시스템으로부터의 텍스트에 포함된 이모티콘이 있는 경우에는, 이모티콘을 우선적으로 적용하여, 텍스트의 감성을 분석하여 작품을 시청각적으로 자동으로 표현하는 것이 바람직하다. 예를 들어, 사랑의 하트 이모티콘이 있다면, 사랑스러웁 느낌의 분위기로 시각적(핑크색으로 표현 등), 청각적(사랑스러운 목소리의 낭독 화자로 선택 등)으로 표현한다. At this time, if there is an emoticon included in the text from the author or the system, it is preferable to apply the emoticon first, analyze the emotion of the text, and automatically express the work audiovisually. For example, if there is a heart emoticon of love, it is expressed visually (expressed in pink, etc.) and aurally (selected as a speaker in a lovely voice, etc.) as a lovely atmosphere.

또한, 제 1 감성 설정부(400)에서, 작품에 담긴 감성의 초기값인 제 1 감성을 자동으로 설정할 때, 작품 입력부(100), 예를 들어, 음성으로 작품활동을 하는 경우에는 작가의 음성 입력과 이를 STT(Speech-To-Text) 변환하는 것과 연동하여 동작하는 또는 텍스트를 입력하는 것과 연동하여 동작하는, 작가의 몸에 부착된 생체신호 센서(예를 들어, ECG, EEG, 혈압센서, 심박수센서 등), 오디오 센서(예를 들어, 마이크, 오디오의 주파수 분석이나 스펙트럼 애널라이저 등), 및 카메라 센서를 기초로 하여, 상기 생체신호 센서의 센싱 결과값, 상기 오디오 센서의 센싱 결과값, 상기 카메라에서 획득하여 영상처리를 통해서 도출된 센싱 결과값에 기초하여, 제 1 감성을 설정하여, 감성 설정이나 감성 도출의 정확도를 제고하는 것이 가능하다. In addition, when the first emotion setting unit 400 automatically sets the first emotion, which is the initial value of the emotion contained in the work, the work input unit 100, for example, the artist's voice when the work is performed with voice. A biosignal sensor (e.g., ECG, EEG, blood pressure sensor, heart rate sensor), an audio sensor (eg, a microphone, an audio frequency analysis or spectrum analyzer, etc.), and a camera sensor, the sensing result value of the biosignal sensor, the sensing result value of the audio sensor, the It is possible to set the first emotion based on the sensing result value obtained through image processing obtained from the camera to improve the accuracy of emotion setting or emotion derivation.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재될 청구범위의 균등 범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described with reference to limited embodiments and drawings, the present invention is not limited thereto, and the technical spirit of the present invention and the following by those of ordinary skill in the art to which the present invention pertains. It goes without saying that various modifications and variations are possible within the scope of equivalents of the claims to be described.

(부호의 설명)(Explanation of symbols)

100...작품 입력부100...Artwork input

200...캐릭터 입력부200...character input

300...배경 정보 입력부300...Background information input

400...제 1 감성 설정부 400... 1st emotion setting unit

450...제 2 감성 설정부450...Second emotional setting unit

500...제 1 멀티미디어 변환부500... first multimedia conversion unit

510...자연어 처리부510...Natural Language Processing Unit

520...형태소 분석부520... morpheme analysis unit

530...감성 사전부530...Emotional Dictionary

540...감성 분석부540...Sentiment Analysis Department

550...제 2 멀티미디어 변환부 550...Second multimedia conversion unit

Claims (11)

작가로부터 또는 시스템으로부터, 텍스트 또는 음성, 텍스트 및 음성으로 된 작품을 입력받는 작품 입력부(100); 및 상기 작품의 감성을 분석하여, 상기 감성에 기초하여, 상기 작품을 시청각적으로 자동으로 표현하는 멀티미디어 변환부;를 포함하며,
상기 작가 또는 상기 시스템으로부터, 캐릭터 이름, 나이, 성별, 성격 유형, 상기 캐릭터 간의 친밀도, 및 상기 캐릭터 간의 관계 지수를 포함하는 시간 정보에 따른 캐릭터 정보를 입력받는 캐릭터 입력부(200); 및
상기 작가 또는 상기 시스템으로부터, 시간 정보에 따른 시대적 정보, 공간적 정보, 정치적 정보, 및 사회문화적 정보를 포함한 배경 정보를 입력 받는 배경 정보 입력부(300);
상기 캐릭터 입력부 및 상기 배경 정보 입력부로부터 입력된 정보에 기초하여, 상기 작품에 담긴 감성의 초기값인 제 1 감성을 자동으로 설정하여 제공하는 제 1 감성 설정부(400); 및
상기 제 1 감성에 기초하여, 상기 작품을 시청각적으로 자동으로 표현하는 제 1 멀티미디어 변환부(500);를 더 포함하고,
상기 작가 또는 상기 시스템으로부터, 상기 제 1 감성 설정부에 의해서 설정된 상기 작품의 제 1 감성을 수정하는 정보를 입력받아 상기 제 1 감성을 조정한 제 2 감성을 설정하는 제 2 감성 설정부(450);를 더 포함하고,
상기 멀티미디어 변환부는,
상기 제 1 멀티미디어 변환부(500)의 결과물인 상기 작품의 시청각적인 표현에 기초하여, 상기 작가 또는 상기 시스템으로부터 상기 제 2 감성 설정부(450)를 통해서 상기 제 1 감성을 조정한 상기 제 2 감성을 입력받아, 상기 작품을 시청각적으로 자동으로 표현하는 제 2 멀티미디어 변환부(550);를 포함하고,
상기 작품은 공상과학소설, 무협소설, 판타지소설, 추리소설, 호러소설, 로맨스소설을 포함하는 장르소설 가운데 하나이고,
상기 시간 정보는 상기 장르소설의 사건 전개 정보에 따라서 설정되며,
상기 캐릭터 정보는, 상기 장르소설의 사건 전개 정보에 따른 상기 캐릭터 이름, 나이, 성별, 성격 유형, 상기 캐릭터 간의 친밀도, 및 상기 캐릭터 간의 관계 지수를 포함하며,
상기 배경 정보는, 상기 장르소설의 사건 전개 정보에 따른 시대적 정보, 공간적 정보 및 정치적 정보, 사회문화적 정보를 포함하는 것을 특징으로 하는,
감성에 기초한 작품의 멀티미디어 변환 장치.
a work input unit 100 for receiving text or voice, text and voice works from an artist or a system; and a multimedia conversion unit that analyzes the emotion of the work and automatically expresses the work audiovisually based on the emotion.
a character input unit 200 that receives character information according to time information including a character name, age, gender, personality type, intimacy between the characters, and a relationship index between the characters from the writer or the system; and
a background information input unit 300 for receiving background information including historical information, spatial information, political information, and socio-cultural information according to time information from the author or the system;
a first emotion setting unit 400 for automatically setting and providing a first emotion, which is an initial value of emotion contained in the work, based on the information input from the character input unit and the background information input unit; and
Based on the first emotion, the first multimedia conversion unit 500 for automatically expressing the work audiovisually; further comprising,
A second emotion setting unit 450 that receives information for correcting the first emotion of the work set by the first emotion setting unit from the artist or the system and sets a second emotion adjusted with the first emotion further including;
The multimedia conversion unit,
Based on the audiovisual expression of the work, which is the result of the first multimedia conversion unit 500, the second emotion adjusted by the author or the system through the second emotion setting unit 450 and a second multimedia conversion unit 550 for receiving the input and automatically expressing the work audiovisually;
The above work is one of the genre novels including science fiction novels, martial arts novels, fantasy novels, mystery novels, horror novels, and romance novels,
The time information is set according to the event development information of the genre novel,
The character information includes the character name, age, gender, personality type, intimacy between the characters, and a relationship index between the characters according to the event development information of the genre novel,
The background information, characterized in that it includes historical information, spatial information and political information, and socio-cultural information according to the event development information of the genre novel,
Multimedia conversion device for works based on emotion
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 제 1 감성 설정부(400)에서, 상기 작품에 담긴 감성의 초기값인 제 1 감성을 자동으로 설정할 때, 자연어 처리부에서 상기 텍스트를 자연어 처리하고, 형태소 분석부에서 형태소 단위로 분석하고, 감성 사전부를 기초로 하여 감성 분석부가 상기 텍스트의 감성을 분석하여 상기 작품을 시청각적으로 자동으로 표현하되, 상기 작가 또는 시스템으로부터의 텍스트에 포함된 이모티콘이 있는 경우에는, 상기 이모티콘을 우선하여 상기 텍스트의 감성을 분석하여 상기 작품을 시청각적으로 자동으로 표현하는 것을 특징으로 하는,
감성에 기초한 작품의 멀티미디어 변환 장치.
The method of claim 1,
When the first emotion setting unit 400 automatically sets the first emotion, which is the initial value of the emotion contained in the work, the natural language processing unit processes the text in natural language, the morpheme analysis unit analyzes the text in units of morphemes, and the emotion On the basis of the dictionary, the emotion analysis unit analyzes the emotion of the text to automatically express the work audiovisually, but if there is an emoticon included in the text from the author or the system, the emoticon takes precedence over the text. Characterized in automatically expressing the work audiovisually by analyzing the emotion,
A multimedia conversion device for works based on emotion.
제 7 항에 있어서,
상기 작가 또는 시스템으로부터, 상기 성격 유형의 입력이 없는 경우에는, 상기 장르소설의 캐릭터를 프로파일링하여, 미리 저장되어 있는 전형적 성격 유형 가운데 하나로 설정하는 것을 특징으로 하는,
감성에 기초한 작품의 멀티미디어 변환 장치.
8. The method of claim 7,
Characterized in that when there is no input of the personality type from the writer or the system, the character of the genre novel is profiled and set as one of the pre-stored typical personality types,
A multimedia conversion device for works based on emotion.
제 8 항에 있어서,
상기 감성 사전은, 감성을 나타내는 초기에 설정되어 있는 감성 사전을, 데이터 처리 과정에서 기계 학습된 감성어를 추가해 나가는 확장형 가변 사전인 것을 특징으로 하는,
감성에 기초한 작품의 멀티미디어 변환 장치.
9. The method of claim 8,
The sentiment dictionary is an expandable variable dictionary that adds machine-learned sentiment words in a data processing process to an initially set sentiment dictionary indicating emotions,
A multimedia conversion device for works based on emotion.
제 9 항에 있어서,
상기 제 1 감성 설정부(400)에서, 상기 작품에 담긴 감성의 초기값인 제 1 감성을 자동으로 설정할 때, 상기 작품 입력부(100)와 연동하여 동작하는, 상기 작가의 생체신호 센서, 오디오 센서, 및 카메라 센서를 기초로 하여, 상기 생체신호 센서의 센싱 결과값, 상기 오디오 센서의 센싱 결과값, 상기 카메라에서 획득하여 영상처리를 통해서 도출된 센싱 결과값에 기초하여, 상기 제 1 감성을 설정하는 것을 특징으로 하는,
감성에 기초한 작품의 멀티미디어 변환 장치.
10. The method of claim 9,
When the first emotion setting unit 400 automatically sets the first emotion, which is the initial value of the emotion contained in the work, the artist's biosignal sensor and audio sensor that operate in conjunction with the work input unit 100 , and based on the camera sensor, based on the sensing result value of the biosignal sensor, the sensing result value of the audio sensor, and the sensing result value obtained through image processing obtained from the camera, setting the first emotion characterized in that
A multimedia conversion device for works based on emotion.
제 10 항에 있어서,
상기 제 1 멀티미디어 변환부 및 상기 제 2 멀티미디어 변환부에서의 시각적 표현은, 독자의 시선 유도를 할 수 있도록 상기 텍스트를 타이핑 치는 형태로 한글자 한글자씩 타이핑하되, 상기 타이핑의 속도를 조절하거나, 상기 텍스트의 글자 크기를 조정하거나, 상기 텍스트의 글자 색상을 조정하거나, 상기 텍스트의 글자에 감성 효과를 입히거나, 또는 상기 텍스트에 출현하는 특정 오브젝트를 레이어에 덧입혀서 시각적으로 표현하며,
상기 제 2 멀티미디어 변환부 및 상기 제 2 멀티미디어 변환부에서의 청각적 표현은, 상기 텍스트를 낭독하는 화자를 변경하거나 상기 화자의 낭독 속도를 조절하거나, 상기 화자의 낭독하는 목소리 크기를 조정하거나, 상기 화자의 낭독에 감성효과를 입히거나, 상기 낭독에 출현하는 특정 오브젝트를 상기 화자의 낭독 음성의 레이어에 덧입혀서 출력하는 것을 특징으로 하는,
감성에 기초한 작품의 멀티미디어 변환 장치.
11. The method of claim 10,
The visual expression in the first multimedia conversion unit and the second multimedia conversion unit is to type each Hangul character in the form of typing the text so as to induce a reader's gaze, but by adjusting the speed of the typing, or by adjusting the speed of the text Adjusts the font size of the text, adjusts the text color of the text, applies an emotional effect to the text text, or visually expresses a specific object appearing in the text layer over the layer,
The auditory expression in the second multimedia conversion unit and the second multimedia conversion unit may change a speaker who reads the text or adjust the reading speed of the speaker, adjust the volume of the speaker's reading voice, or the Characterized in that an emotional effect is applied to the speaker's reading, or a specific object appearing in the reading is overlaid on the speaker's reading voice layer and output.
A multimedia conversion device for works based on emotion.
KR1020190171543A 2019-12-20 2019-12-20 Apparatus of transforming art work into multimedia based on emotion KR102261548B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190171543A KR102261548B1 (en) 2019-12-20 2019-12-20 Apparatus of transforming art work into multimedia based on emotion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190171543A KR102261548B1 (en) 2019-12-20 2019-12-20 Apparatus of transforming art work into multimedia based on emotion

Publications (1)

Publication Number Publication Date
KR102261548B1 true KR102261548B1 (en) 2021-06-07

Family

ID=76373978

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190171543A KR102261548B1 (en) 2019-12-20 2019-12-20 Apparatus of transforming art work into multimedia based on emotion

Country Status (1)

Country Link
KR (1) KR102261548B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020042248A (en) * 2000-11-30 2002-06-05 한가람 Method and system for perceiving emotion from the text and visualizing the perceived emotion

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020042248A (en) * 2000-11-30 2002-06-05 한가람 Method and system for perceiving emotion from the text and visualizing the perceived emotion

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
대한민국 공개특허 제10-2009-0126862호(출원인 : 엔에이치엔다이퀘스트, 발명의 명칭 : 자연어 처리를 이용한 감성 정보 분석 시스템 및 방법,자연어 처리를 이용한 감성 정보 분석 방법을 컴퓨터에서실행하기 위한 프로그램을 저장한 기록매체{SYSTEM AND METHOD FOR ANALYZING EMOTIONAL INFORMATION FROM NATURAL LANGUAGE SENTENCE, AND MEDIUM FOR STORAGING PROGRAM FOR THE SAME})

Similar Documents

Publication Publication Date Title
Kipp Gesture generation by imitation: From human behavior to computer character animation
Illouz et al. Emotions and cultural theory
US20150072322A1 (en) Situated simulation for training, education, and therapy
Said Fixing Copyright in Characters: Literary Perspectives on a Legal Problem
Deibel et al. Conversations with Things: UX design for Chat and Voice
Janssoone et al. Using temporal association rules for the synthesis of embodied conversational agents with a specific stance
Yimer On the interaction between literature and psychology
Maree Queerqueen: Linguistic excess in Japanese media
Langlotz 17. Language and emotion in fiction
Perdikaki Adaptation as translation: Examining film adaptation as a recontextualised Act of Communication
Currie From Girlhood, Girls to Girls’ Studies
KR102261548B1 (en) Apparatus of transforming art work into multimedia based on emotion
Lazzeri et al. The influence of dynamics and speech on understanding humanoid facial expressions
Stadelmann Language, cognition, interaction: Conceptual blending as discursive practice
Seron et al. A semantic memory bank assisted by an embodied conversational agents for mobile devices
Rustad et al. Introducing quantitative reception aesthetics: Television reception and textual engagement
Petrilli Representation and Literary Writing. From Identity to Alterity: Re-writing and De-writing Shakespeare with Laforgue and Bene
Savettieri Self-Reflection and Ambivalence in Gadda's L'adalgisa
Bloor et al. Creative writing teaching-learning practice in second language learning: a didactic study
Dubois et al. From perception to sensory experiences
McDonnell et al. “Caption It in an Accessible Way That Is Also Enjoyable”: Characterizing User-Driven Captioning Practices on TikTok
Altes Factual or Fictional?: The Interpretive and Evaluative Impact of Framing Acts
Nirme et al. Early or synchronized gestures facilitate speech recall—a study based on motion capture data
Wallwork Resources: Presentations on TED and YouTube
Van Hoecke Subtitles for access to education: the impact of subtitles, subtitle language and linguistic proficiency on cognitive load, comprehension, reading and processing in different styles of asynchronous, online university lectures

Legal Events

Date Code Title Description
N231 Notification of change of applicant
GRNT Written decision to grant