KR20140123715A - 감정 전달이 가능한 라이브 텍스트 및 라이브 텍스트를 이용한 라이브 보이스를 제공하기 위한 텍스트 편집 및 보이스 변환 시스템 및 방법 - Google Patents

감정 전달이 가능한 라이브 텍스트 및 라이브 텍스트를 이용한 라이브 보이스를 제공하기 위한 텍스트 편집 및 보이스 변환 시스템 및 방법 Download PDF

Info

Publication number
KR20140123715A
KR20140123715A KR1020130040878A KR20130040878A KR20140123715A KR 20140123715 A KR20140123715 A KR 20140123715A KR 1020130040878 A KR1020130040878 A KR 1020130040878A KR 20130040878 A KR20130040878 A KR 20130040878A KR 20140123715 A KR20140123715 A KR 20140123715A
Authority
KR
South Korea
Prior art keywords
text
live
editing
emotional
user terminal
Prior art date
Application number
KR1020130040878A
Other languages
English (en)
Other versions
KR101509196B1 (ko
Inventor
홍성용
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR20130040878A priority Critical patent/KR101509196B1/ko
Publication of KR20140123715A publication Critical patent/KR20140123715A/ko
Application granted granted Critical
Publication of KR101509196B1 publication Critical patent/KR101509196B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)

Abstract

감정 전달이 가능한 라이브 텍스트 및 라이브 텍스트를 이용한 라이브 보이스를 제공하기 위한 텍스트 편집 및 보이스 변환 시스템 및 방법을 공개한다. 본 발명은 적어도 하나의 사용자 단말을 이용한 텍스트 편집 및 보이스 변환 방법에 있어서, 적어도 하나의 사용자 단말은, 복수개의 문장 구조 및 복수개의 감정 표현의 조합 각각에 대응하여 텍스트의 형태를 변환하는 텍스트 변화 규칙이 기설정되어 저장된 감정 텍스트 편집 프로그램을 구동하는 단계, 텍스트 편집 명령이 인가되면, 인가된 텍스트 편집 명령이 감정 표현 편집 명령인지 판별하고, 텍스트 편집 명령이 감정 표현 편집 명령이면, 텍스트의 문장 구조를 분석하는 단계, 및 감정 표현 편집 명령에 의해 설정되는 감정 표현 및 분석된 문장 구조에 대응하여 문장의 악센트, 어조, 강세, 장음, 단음의 변화가 반영되는 텍스트 변화 규칙을 텍스트에 적용하여 텍스트를 감정 표현을 포함하는 라이브 텍스트로 변환하는 단계를 포함한다.

Description

감정 전달이 가능한 라이브 텍스트 및 라이브 텍스트를 이용한 라이브 보이스를 제공하기 위한 텍스트 편집 및 보이스 변환 시스템 및 방법{SYSTEM AND METHOD FOR EDITING TEXT AND TRANSLATING TEXT TO VOICE}
본 발명은 텍스트 편집 및 보이스 변환 시스템 및 방법에 관한 것으로, 특히 감정 전달이 가능한 라이브 텍스트 및 라이브 텍스트를 이용한 라이브 보이스를 제공하기 위한 텍스트 편집 및 보이스 변환 시스템 및 방법에 관한 것이다.
컴퓨터 및 네트워크 기술의 발전에 따라 최근에는 수많은 문서들이 컴퓨터상에서 전자 문서로 작성되어 저장되고, 전송되고 있다. 특히 스마트폰이나 휴대폰과 같은 휴대용 사용자 단말기의 발전 및 보급과 더불어 급성장한 소셜 네트워크 서비스(Social Network Services : SNS)에 의해 많은 사람들이 단문 및 장문의 전자 텍스트를 활용하는 빈도가 기하급수적으로 증가하였다.
그러나 사람들 간에 음성을 이용한 의사소통에 비해 전자 텍스트를 이용한 의사소통은 감정의 전달에서 매우 취약하다는 한계가 있다. 일반적으로 음성을 이용한 의사소통의 경우, 문장의 악센트(accent), 어조(intonation), 강세(stress), 장음(prolonged sound), 단음(short sound) 등의 음향 특성이 함께 전달되므로, 단순히 문장에 포함된 단어들의 조합으로서의 의미뿐만 아니라 말하는 사람의 감정도 함께 전달할 수 있다. 반면 전자 텍스트의 경우에는 음향 특성이 포함되지 않기 때문에 글 작성자의 감정이 표현되지 못한다. 전자 텍스트가 아닌 손 글씨로 작성된 텍스트라면, 글씨체 등으로 글 작성자의 감정이 일부라도 표현될 수 있으나, 전자 텍스트는 기설정된 글꼴에 따라 항상 동일한 글씨체가 표현되므로 감정이 표현되지 않는다.
전자 텍스트에 감정이 표현되지 않는 것은 의사소통 시에 여러 가지 오해를 불러일으킬 수 있으며, 이로 인해 사람들 간의 불화나 분쟁이 발생할 가능성이 높다.
예를 들어, "그것 참 좋은 아이디어야"라는 표현을 살펴보면, 정말로 좋은 아이디어라고 생각하여 감탄하는 경우와, 그다지 좋지 않는 아이디어라고 생각하면서 일종의 반어법 형태로 좋다고 표현하는 경우가 있다.
음성으로 상기의 표현을 전달하는 경우, 전자는 "참"을 단음으로 억양의 톤이 점차로 올라가도록 발음하는데 비해, 후자는 "참"을 장음으로 억양 톤이 점차로 낮아지도록 발음하여 두 가지 표현의 차이를 듣는 사람이 명확하게 구분할 수 있도록 한다. 그러나 전자 텍스트로는 단순히 "그것 참 좋은 아이디어야"라는 하나의 표현만으로 전달할 수 있으므로, 상기의 두 가지 경우 중 어떤 의미로 이러한 표현을 하였는지 텍스트의 수신자가 구분하기 어렵다. 따라서 수신자는 보통 전후 문장으로부터 문맥의 흐름을 파악하고, 파악된 문맥의 흐름으로부터 화자의 표현 의도가 어떠한 것이었는지 막연히 추측할 수밖에 없었다. 그러나 문맥의 흐름은 전후 문장을 명확히 파악할 수 있는 경우에만 활용할 수 있는 반면, 최근 휴대용 사용자 단말기를 이용하는 SNS는 주로 1 ~ 2개의 문장으로 구성되는 단문의 메시지를 전송하는 경우가 빈번하고, SNS는 채팅과 달리 연속되는 대화가 아니기 때문에, 이전 문장을 다시 확인하지 않으면, 문맥의 흐름으로부터 문장의 의미를 분석하기 어렵다. 이에 사람들 간에 오해가 발생할 가능성이 높아지고 있다. 즉 사람들 간의 의사소통은 서로 상대에게 자신의 생각을 전달하기 위한 것임에도 불구하고, 전자 텍스트에 감정을 함께 표현할 수 없다는 한계로 인해 생각이 잘못 전달됨에 따라 불필요한 오해를 불러일으키는 경우가 왕왕 발생한다.
이에 기존에 글 작성자들은 감정 표현을 전자 텍스트에 포함하기 위해 다양한 이모티콘이나 아이콘을 활용하고 있다. 그러나 이모티콘의 경우에는 문장을 전달하고자하는 사람이 이모티콘의 표현 방법을 미리 알고 있어야 한다는 한계가 있고, 아이콘의 경우에는 시스템에서 미리 설정된 표현만 가능하다는 한계가 있다. 또한 텍스트 상에 직접 표현되는 것이 아니므로, 실질적으로 텍스트에 감정을 표현하는 것이 아니라, 문장에 부가적으로 추가하는 형태로서 감정 전달이 명확하지 않다. 즉 전자 텍스트의 어감을 제공하지 않는다는 한계가 있다. 더불어, 이모티콘의 의미를 정확히 알지 못하는 사용자에게는 이모티콘으로 인해 오히려 감정 표현이 오인될 가능성도 있다.
비록 기존의 텍스트 프로그램에서도 텍스트의 형태나 색상을 변경할 수는 있으나, 이러한 기능을 감정 표현에 대응시키는 경우는 없다. 따라서 텍스트의 변형이 어떠한 감정을 표현하고자 하는 것인지 텍스트를 읽는 사람이 판단할 수 없어서, 여전히 의사 전달 시에 오해의 소지가 있다.
또한 최근에는 기존의 종이 서적을 대체하여 다양한 전자 출판물이 간행됨에 따라 전자 출판물을 자동으로 읽어 주는 TTS(Text To Speech)가 확대 보급되고 있으나, 기존의 전자 출판물의 전자 텍스트에는 상기한 바와 같이 말하는 사람의 감정을 표현하기 위한 방법이 포함되어 있지 않음에 따라 TTS를 사용 시 듣는 이로 하여금 무미건조하다는 느낌을 받게 하여 쉽게 지루해지게 만들고, 텍스트의 원래 의미를 정확하게 전달하지 못한다는 한계가 있다.
본 발명의 목적은 텍스트 포맷을 변경하여 텍스트 자체에 음향 특성에 대한 표현을 함께 포함하여 감정 전달이 가능한 라이브 텍스트를 생성하고, 라이브 텍스트를 이용하여 사실적인 보이스로 변환할 수 있는 텍스트 편집 및 보이스 변환 방법하는데 있다.
본 발명의 다른 목적은 감정 전달이 가능한 라이브 텍스트를 생성하고, 라이브 텍스트를 사실적 보이스 변환할 수 있는 텍스트 편집 및 보이스 변환 시스템을 제공하는데 있다.
상기 목적을 달성하기 위한 본 발명의 일예에 따른 텍스트 편집 및 보이스 변환 방법은 적어도 하나의 사용자 단말을 이용한 텍스트 편집 및 보이스 변환 방법에 있어서, 상기 적어도 하나의 사용자 단말은, 복수개의 문장 구조 및 복수개의 감정 표현의 조합 각각에 대응하여 텍스트의 형태를 변환하는 텍스트 변화 규칙이 기설정되어 저장된 감정 텍스트 편집 프로그램을 구동하는 단계; 텍스트 편집 명령이 인가되면, 인가된 상기 텍스트 편집 명령이 감정 표현 편집 명령인지 판별하고, 상기 텍스트 편집 명령이 상기 감정 표현 편집 명령이면, 상기 텍스트의 상기 문장 구조를 분석하는 단계; 및 상기 감정 표현 편집 명령에 의해 설정되는 감정 표현 및 상기 분석된 문장 구조에 대응하여 문장의 악센트, 어조, 강세, 장음, 단음의 변화가 반영되는 텍스트 변화 규칙을 상기 텍스트에 적용하여 상기 텍스트를 상기 감정 표현을 포함하는 라이브 텍스트로 변환하는 단계; 를 포함한다.
상기 목적을 달성하기 위한 본 발명의 다른 예에 따른 텍스트 편집 및 보이스 변환 방법은 적어도 하나의 사용자 단말이 접속 가능한 텍스트 편집 서버를 이용한 텍스트 편집 및 보이스 변환 방법에 있어서, 상기 텍스트 편집 서버는, 상기 적어도 하나의 사용자 단말이 접속되는지 판별하는 단계; 상기 적어도 하나의 사용자 단말이 접속되면, 복수개의 문장 구조 및 복수개의 감정 표현의 조합 각각에 대응하여 텍스트의 형태를 변환하는 텍스트 변화 규칙이 기설정되어 저장된 감정 텍스트 편집 프로그램을 구동하는 단계; 접속된 상기 사용자 단말로부터 텍스트 편집 명령이 인가되면, 인가된 상기 텍스트 편집 명령이 감정 표현 편집 명령인지 판별하고, 상기 텍스트 편집 명령이 상기 감정 표현 편집 명령이면, 상기 텍스트의 상기 문장 구조를 분석하는 단계; 및 상기 감정 표현 편집 명령에 의해 설정되는 감정 표현 및 상기 분석된 문장 구조에 대응하여 문장의 악센트, 어조, 강세, 장음, 단음의 변화가 반영되는 텍스트 변화 규칙을 상기 텍스트에 적용하여 상기 텍스트를 상기 감정 표현을 포함하는 라이브 텍스트로 변환하는 단계; 를 포함한다.
상기 텍스트 편집 및 보이스 변환 방법은 라이브 보이스 변환 명령이 인가되면, 변환할 상기 라이브 텍스트를 선택하는 단계; 및 선택된 상기 라이브 텍스트를 상기 라이브 텍스트에 적용된 텍스트 변화 규칙에 대응하여 상기 문장의 악센트, 어조, 강세, 장음, 단음의 변화가 포함된 음향 신호인 라이브 보이스 신호로 변환하는 단계를 더 포함하는 것을 특징으로 한다.
상기 라이브 텍스트로 변환하는 단계는 상기 감정 표현 편집 명령에 의해 지정되는 감정 표현에 대응하는 상기 텍스트 변화 규칙을 적용하여 상기 텍스트를 상기 라이브 텍스트로 변환하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 또 다른 예에 따른 텍스트 편집 및 보이스 변환 방법은 적어도 하나의 사용자 단말이 접속 가능한 텍스트 전송 서버를 이용한 텍스트 편집 및 보이스 변환 방법에 있어서, 상기 텍스트 전송 서버는, 상기 적어도 하나의 사용자 단말이 접속되어 다른 사용자 단말로 전송 요청되는 텍스트가 수신되는지 판별하는 단계; 상기 텍스트가 수신되면, 상기 접속된 사용자 단말의 사용자 설정이 텍스트에 감정 표현을 포함하도록 설정되어 있는지 판별하는 단계; 상기 텍스트에 감정 표현을 포함하도록 설정되어 있으면, 복수개의 문장 구조 및 복수개의 감정 표현의 조합 각각에 대응하여 텍스트의 형태를 변환하는 텍스트 변화 규칙이 기설정되어 저장된 감정 텍스트 편집 프로그램을 이용하여 상기 텍스트의 상기 문장 구조를 분석하는 단계; 상기 감정 표현 편집 명령에 의해 설정되는 감정 표현 및 상기 분석된 문장 구조에 대응하여 문장의 악센트, 어조, 강세, 장음, 단음의 변화가 반영되는 텍스트 변화 규칙을 상기 텍스트에 적용하여 상기 텍스트를 상기 감정 표현을 포함하는 라이브 텍스트로 변환하는 단계; 및 상기 라이브 텍스트를 상기 다른 사용자 단말로 전송하는 단계; 를 포함한다.
상기 텍스트 편집 및 보이스 변환 방법은 상기 텍스트가 수신되면, 상기 접속된 사용자 단말의 사용자 설정이 상기 라이브 텍스트를 라이브 보이스로 변환하도록 설정되어 있는지 판별하는 단계; 상기 사용자 설정이 상기 라이브 보이스로 변환하도록 설정되어 있으면, 상기 변환할 상기 라이브 텍스트를 선택하는 단계; 및 선택된 상기 라이브 텍스트를 상기 라이브 텍스트에 적용된 텍스트 변화 규칙에 대응하여 상기 문장의 악센트, 어조, 강세, 장음, 단음의 변화가 포함된 음향 신호인 라이브 보이스 신호로 변환하는 단계를 더 포함하는 것을 특징으로 한다.
상기 라이브 텍스트로 변환하는 단계는 상기 감정 텍스트 편집 프로그램이 상기 텍스트의 문맥을 분석하고, 분석된 문맥으로부터 기설정된 복수개의 감정표현 중 하나의 감정표현을 선택하여, 선택된 감정 표현에 감정 표현에 대응하는 상기 텍스트 변화 규칙을 적용하여 상기 텍스트를 자동으로 상기 라이브 텍스트로 변환하는 것을 특징으로 한다.
상기 라이브 텍스트로 변환하는 단계는 상기 텍스트 편집 명령에 응답하여 기설정된 범위의 상기 텍스트에 대해 상기 라이브 텍스트로 변환하는 것을 특징으로 한다.
상기 라이브 텍스트로 변환하는 단계는 상기 텍스트 전체를 라이브 텍스트로 변환하는 것을 특징으로 한다.
상기 라이브 텍스트로 변환하는 단계는 상기 텍스트 변화 규칙에 따라 상기 복수개의 문장 구조 및 상기 복수개의 감정 표현의 조합 각각에 대해 기분석된 어감이 상기 텍스트에 시각적으로 표시되도록 상기 텍스트를 변환하는 것을 특징으로 한다.
상기 라이브 텍스트로 변환하는 단계는 상기 텍스트 변화 규칙에 따라 상기 텍스트가 동적으로 가변되는 다이나믹 텍스트의 형태로 변환하는 것을 특징으로 한다.
상기 다른 목적을 달성하기 위한 본 발명의 일 예에 따른 텍스트 편집 시스템은 복수개의 문장 구조 및 복수개의 감정 표현의 조합 각각에 대응하여 텍스트의 형태를 변환하는 텍스트 변화 규칙이 기설정되어 저장된 감정 텍스트 편집 프로그램이 저장된 텍스트 편집 서버; 및 상기 텍스트 편집 서버로부터 상기 감정 텍스트 편집 프로그램을 수신하여 설치하며, 입력 수단을 통해 텍스트 편집 명령이 인가되면, 인가된 상기 텍스트 편집 명령이 감정 표현 편집 명령인지 판별하고, 상기 텍스트 편집 명령이 상기 감정 표현 편집 명령이면, 상기 텍스트의 상기 문장 구조를 분석하고, 상기 감정 표현 편집 명령에 의해 설정되는 감정 표현 및 상기 분석된 문장 구조에 대응하는 텍스트 변화 규칙을 상기 텍스트에 적용하여 상기 텍스트를 상기 감정 표현을 포함되는 라이브 텍스트로 변환하는 적어도 하나의 사용자 단말;을 포함한다.
상기 텍스트 편집 서버는 상기 감정 텍스트 편집 프로그램을 직접 구동하여 상기 적어도 하나의 사용자 단말로부터 상기 텍스트 및 상기 텍스트 편집 명령을 수신하여, 상기 텍스트를 상기 라이브 텍스트로 변환하는 것을 특징으로 한다.
상기 텍스트 서버는 상기 감정 텍스트 프로그램에 의해 편집된 라이브 텍스트를 상기 텍스트 변화 규칙에 의해 표현되는 문장의 악센트, 어조, 강세, 장음, 단음의 변화를 반영하여 음향 신호인 라이브 보이스 신호로 변환하는 라이브 보이스 변환 프로그램이 추가로 저장하고, 상기 라이브 보이스 변환 프로그램을 구동하여, 상기 라이브 텍스트를 상기 라이브 텍스트에 적용된 텍스트 변화 규칙에 대응하는 음향 신호인 라이브 보이스 신호로 변환하는 것을 특징으로 한다.
상기 적어도 하나의 사용자 단말 각각은 상기 감정 텍스트 프로그램에 의해 편집된 라이브 텍스트를 상기 텍스트 변화 규칙에 의해 표현되는 문장의 악센트, 어조, 강세, 장음, 단음의 변화를 반영하여 음향 신호인 라이브 보이스 신호로 변환하는 라이브 보이스 변환 프로그램을 상기 텍스트 편집 서버로부터 더 수신하여 설치하고, 상기 라이브 보이스 변환 프로그램을 구동하여, 상기 라이브 텍스트를 상기 라이브 텍스트에 적용된 텍스트 변화 규칙에 대응하는 음향 신호인 라이브 보이스 신호로 변환하여 출력하는 것을 특징으로 한다.
상기 텍스트 편집 시스템은 상기 감정 텍스트 편집 프로그램을 구동하여 상기 적어도 하나의 사용자 단말이 접속되어 다른 사용자 단말로 전송 요청되는 텍스트를 수신하고, 수신된 상기 텍스트를 상기 라이브 텍스트로 변환하여 상기 다른 사용자 단말로 전송하는 텍스트 전송 서버;를 더 포함하는 것을 특징으로 한다.
상기 텍스트 전송 서버는 상기 감정 텍스트 프로그램에 의해 편집된 라이브 텍스트를 상기 텍스트 변화 규칙에 의해 표현되는 문장의 악센트, 어조, 강세, 장음, 단음의 변화를 반영하여 음향 신호인 라이브 보이스 신호로 변환하는 라이브 보이스 변환 프로그램을 구동하여 상기 라이브 보이스 변환 프로그램을 구동하여, 상기 라이브 텍스트를 상기 라이브 텍스트에 적용된 텍스트 변화 규칙에 대응하는 음향 신호인 라이브 보이스 신호로 변환하여 출력하는 것을 특징으로 한다.
따라서, 본 발명의 감정 전달이 가능한 라이브 텍스트 및 라이브 텍스트를 이용한 사실적 보이스를 제공하기 위한 텍스트 편집 및 보이스 변환 시스템 및 방법은 텍스트 편집 화면에 텍스트의 어감을 표현하기 위한 복수개의 어감 편집 아이콘을 제공하여, 사용자가 전달하고자 하는 전자 텍스트에 강조, 악센트 장음 및 단음 표현을 함께 기입할 수 있도록 하므로, 텍스트에 감정을 표현할 수 있도록 한다. 또한 경우에 따라서는 텍스트 편집 시스템이 문장 분석을 통해 자동으로 텍스트에 감정이 표현되도록 텍스트를 편집하여 라이브 텍스트를 제공할 수 있다. 그러므로 라이브 텍스트에 어감을 통한 감정 전달이 가능해져셔, 텍스트 전달로 인한 오해가 발생할 가능성을 줄여 더욱 정확한 의사소통이 가능하도록 한다. 더불어, 전자 텍스트를 자동으로 읽어 주는 TTS(Text To Speech)에 적용 시에 라이브 텍스트에 에 포함된 문장의 어감을 활용하여 문장의 악센트, 어조, 강세, 장음, 단음의 변화가 반영된 라이브 보이스를 출력할 수 있으므로, 사람이 말하는 것과 유사한 감성을 전달할 수 있다. 또한 다양한 종류의 사용자 단말에 적용할 수 있도록 하여, 텍스트에 감정 표현을 포함하는 기법에 대한 공통 기준을 제공할 수 있다.
도1 은 본 발명의 일실시예에 따른 텍스트 편집 및 보이스 변환 시스템을 나타낸다.
도2 는 본 발명에 따른 라이브 텍스트의 실제 적용예를 나타낸다.
도3 및 도4 는 본 발명의 일 실시예에 따른 감정 전달이 가능한 라이브 텍스트 및 라이브 보이스를 제공하기 위한 텍스트 편집 및 라이브 보이스 변환 방법을 나타낸다.
도5 는 본 발명에 따른 텍스트 감정 표현 포함 설정창의 일예를 나타낸다.
도6 은 본 발명의 다른 실시예에 따른 감정 전달이 가능한 라이브 텍스트 및 라이브 보이스를 제공하기 위한 텍스트 편집 및 라이브 보이스 변환 방법을 나타낸다.
도7 은 본 발명의 또 다른 실시예에 따른 감정 전달이 가능한 라이브 텍스트 및 라이브 보이스를 제공하기 위한 텍스트 편집 및 라이브 보이스 변환 방법을 나타낸다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로서, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “...부”, “...기”, “모듈”, “블록” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
도1 은 본 발명의 일실시예에 따른 텍스트 편집 및 보이스 변환 시스템을 나타낸다.
도1 을 참조하면, 본 발명에 따른 텍스트 편집 및 보이스 변환 시스템은 복수개의 사용자 단말(110 ~ 130), 네트워크(200), 텍스트 편집 서버(300) 및 텍스트 전송 서버(400)를 포함한다.
복수개의 사용자 단말(110 ~ 130)은 사용자의 명령을 인가받는 입력부 및 화면을 출력하는 디스플레이부를 구비하여 사용자가 전자 텍스트를 입력 및 편집할 수 있도록 하고, 입력 및 편집된 전자 텍스트를 저장한다. 그리고 통신부를 구비하여 네트워크(200)를 통해 저장된 전자 텍스트를 전송할 수 있다. 또한 복수개의 사용자 단말(110 ~ 130)은 다른 사용자 단말에서 작성된 전자 텍스트를 수신하여 디스플레이 수단을 통해 디스플레이 할 수 있다. 그리고 수신된 전자 텍스트에 대해서도 편집을 수행할 수 있도록 한다. 복수개의 사용자 단말(110 ~ 130)은 사용자가 전자 텍스트에 감정 표현이 포함되는 편집을 수행할 수 있도록 하는 감정 텍스트 편집 프로그램이 설치되어 구동될 수 있다. 여기서 감정 텍스트 편집 프로그램은 사용자 단말(110 ~ 130)에 기설치된 텍스트 편집 프로그램에 추가되는 애드온(Add-On) 타입의 프로그램일 수도 있으며, 기존의 텍스트 편집 프로그램과 별도로 구동되는 개별 텍스트 편집 프로그램일 수도 있다.
감정 텍스트 편집 프로그램은 사용자가 전자 텍스트에 감정 표현을 포함할 수 있도록 다양한 감정 편집도구를 제공할 수 있다. 감정 편집도구는 즐거움, 기쁨, 울음, 불만, 감탄, 부끄러움, 민망, 화남, 놀람 등의 복수개의 감정 표현 아이콘을 포함할 수 있다. 그리고 감정 텍스트 편집 프로그램은 복수개의 감정 표현 아이콘에 대응하여 기설정된 형태로 텍스트 자체의 형태를 변환할 수 있다. 이를 위해 다양한 문장 구조 및 감정 표현 각각의 조합에 대한 어감을 분석되고, 분석된 어감에 대응하는 텍스트의 형태 변화 규칙이 미리 설정되어 감정 텍스트 편집 프로그램에 저장될 수 있다. 즉 감정 텍스트 편집 프로그램에는 문장 구조 및 감정 표현에 따른 텍스트의 형태 변화 규칙이 미리 저장된다.
그리고 감정 텍스트 편집 프로그램의 텍스트 형태 변화 규칙은 텍스트의 글꼴 크기, 글꼴 색을 변화할 뿐만 아니라 기존의 텍스트 폰트에서 제공하지 않는 다양한 텍스트 형태를 제공할 수도 있다. 뿐만 아니라, 텍스트 형태가 시간의 진행에 따라 가변되는 다이나믹 텍스트를 제공할 수도 있다. 특히 감정 텍스트 편집 프로그램은 사용자가 지정한 범위 이내의 문장의 모든 단어에 대해 분석을 수행하고, 분석된 단어들의 품사나 문장 구조에 따라 자동으로 선택된 감정에 대응하는 어감이 표현되도록 텍스트 편집을 수행할 수 있다.
이에 사용자는 자신이 표현하고자 하는 감정을 전자 텍스트에 어감으로 표시형태로 시각적으로 포함시킬 수 있다. 본 발명에서는 상기한 바와 같이 감정 표현이 포함되는 텍스트를 라이브 텍스트(live text)라 지칭하기로 한다.
감정 텍스트 편집 프로그램은 경우에 따라서, 사용자가 작성한 문장의 전후 문맥 구조를 분석하고, 분석된 문맥 구조에 따라 자동으로 전체 전자 텍스트에 감정 표현이 포함되도록 편집을 수행하거나, 현재 편집 중인 문장에 대해 추천하는 감정 표현을 표시하여 사용자가 선택할 수 있도록 할 수도 있다. 최근 전자 문서의 활용 분야가 다양해짐에 따라 학습, 검색, 통계 등의 다양한 이유로 전자 문서에 대한 자동 분석 기술이 급격하게 발전하였다. 이러한 문장 자동 분석 기술은 현재까지 사람이 작성한 문장에 대해 완전한 해석을 수행하지는 못하지만, 각 문장의 구성, 문장 구조, 긍정 및 부정 표현, 품사의 구분과 같은 다양한 분석을 수행할 수 있다. 따라서 감정 텍스트 편집 프로그램은 전자 문서에 대한 자동 분석을 수행하여 문맥에 따라 전자 텍스트에 감정 표현이 포함되도록 편집을 수행할 수 있으며, 사용자가 편집 중인 문장에 대해 추천 감정을 제시할 수도 있다. 상기한 문장 자동 분석 기술은 공지된 기술로서 여기서는 상세하게 설명하지 않는다.
그리고 복수개의 사용자 단말(110 ~ 130)은 라이브 보이스 변환 프로그램이 설치 및 구동되어, 라이브 텍스트를 라이브 보이스 신호로 자동으로 변환하고, 스피커와 같은 음향 출력 장치를 구비하여 변환된 라이브 보이스 신호를 라이브 보이스로 출력할 수 있다. 즉 복수개의 사용자 단말(110 ~ 130)은 감정 표현이 포함된 라이브 텍스트를 실제 사람이 말하는 것과 같이 악센트, 어조, 강세, 장음, 단음과 같은 음향 특성이 포함된 라이브 보이스로 변환하여 출력할 수 있다.
기존에도 전자 텍스트를 보이스로 변환하여 출력하는 기술은 공개되어 있으나, 상기한 바와 같이 기존의 전자 텍스트는 감정 표현을 텍스트에 포함하지 못함에 따라 출력되는 보이스가 무미건조하고 텍스트의 의미를 정확하게 전달하지 못하였다. 그러나 본 발명에서는 라이브 텍스트에 감성 표현이 함께 편집되어 저장되어 있음에 따라, 텍스트를 보이스로 출력할 때, 텍스트에 지정된 즐거움, 기쁨, 울음, 불만, 감탄, 부끄러움, 민망, 화남, 놀람 등과 같은 감성 표현에 따라 악센트, 어조, 강세, 장음, 단음과 같은 음향 특성을 조절하여 라이브 보이스를 출력할 수 있다. 라이브 보이스 변환 프로그램은 감정 텍스트 편집 프로그램과 별도의 프로그램으로 제공될 수도 있으며, 감정 텍스트 편집 프로그램에 포함되어 구현될 수도 있다. 또한 라이브 보이스 변환 프로그램 또한 기존에 사용자 단말에 설치된 다른 프로그램에 애드온 프로그램의 형태로 제공되어 설치될 수도 있다.
도1 에서 복수개의 사용자 단말(110 ~ 130)은 컴퓨터, 핸드폰, 스마트폰 및 PDA 등의 장치로 구현될 수 있다.
네트워크(200)는 복수개의 사용자 단말(110 ~ 130)과 텍스트 편집 서버(300) 및 텍스트 전송 서버(400) 사이의 통신을 제공한다. 네트워크(200)는 통신 및 통신망과 동일한 의미로 사용될 수 있으며, 본 발명의 네트워크(200)는 유선 및 무선 네트워크를 모두 포함한다. 또한 네트워크(200)는 근거리 네트워크 및 원거리 광역 네트워크를 모두 포함할 수 있다.
텍스트 편집 서버(300)는 감정 텍스트 편집 프로그램 및 라이브 보이스 변환 프로그램이 저장되어, 복수개의 사용자 단말(110 ~ 130)로 감정 텍스트 편집 프로그램과 라이브 보이스 변환 프로그램을 제공할 수 있다. 또한 텍스트 편집 서버(300)는 감정 텍스트 편집 프로그램을 사용자 단말(110 ~ 130)로 제공하지 않고, 직접 감정 텍스트 편집 프로그램을 구동할 수도 있다. 즉 네트워크(200)을 통해 사용자 단말(110 ~ 130)이 접속되면, 텍스트 편집 서버(300)는 접속되는 사용자 단말(110 ~ 130)에 감정 텍스트 편집 프로그램을 표시하고, 사용자가 사용자 단말(110 ~ 130)을 이용하여 온라인상에서 직접 텍스트에 감정 표현을 포함할 수 있도록 편집할 수 있도록 할 수도 있다. 즉 라이브 텍스트를 생성할 수 있도록 할 수 있다. 이 경우, 사용자는 감정 텍스트 편집 프로그램을 사용자 단말(110 ~ 130)에 설치하지 않아도 전자 텍스트에 감정 표현을 포함시켜 라이브 텍스트를 생성할 수 있다.
또한 텍스트 편집 서버(300)는 경우에 따라서, 사용자 단말(110 ~ 130)에서 감정 표현이 포함되지 않은 전자 텍스트가 수신되는 경우에, 문장에 대해 자동 분석을 수행하여 전자 텍스트에 감정 표현을 포함시켜 라이브 텍스트로 변환할 수도 있다. 뿐만 아니라, 사용자 단말(110 ~ 130)이 텍스트 편집 서버(300)에 접속하여 온라인상에서 전자 텍스트를 편집하는 경우에도 텍스트 편집 서버(300)는 문장을 분석하여 자동으로 전자 텍스트에 포함할 감정 표현을 추가하거나, 사용자 단말(110 ~ 130)로 추천할 수도 있다.
또한 텍스트 편집 서버(300)는 라이브 보이스 변환 프로그램도 직접 구동하여 복수개의 사용자 단말(110 ~ 130)로부터 수신되는 라이브 텍스트를 라이브 텍스트에 포함된 감정 표현에 따라 음향 특성이 가변되는 라이브 보이스 신호로 변환하여 복수개의 사용자 단말(110 ~ 130)으로 전송할 수도 있다. 즉 복수개의 사용자 단말(110 ~ 130)로부터 라이브 텍스트를 수신하여 라이브 보이스 신호로 변환한 후 다시 복수개의 사용자 단말(110 ~ 130)로 전송하는 변환 장치로서 동작할 수 있다.
텍스트 전송 서버(400)는 복수개의 사용자 단말(110 ~ 130) 또는 텍스트 편집 서버(300)로부터 전자 텍스트를 수신하고, 임시로 저장한 후, 전자 텍스트 내에 포함된 다른 사용자에게 수신된 전자 텍스트를 전송하는 역할을 수행한다. 다만 본 발명에 따른 텍스트 전송 서버(400)는 단순히 전자 텍스트를 수신하여 전송하는 역할만을 수행하는 것이 아니라, 수신된 전자 텍스트에 감정 표현이 포함되어 있지 않으면, 즉 라이브 텍스트가 아니면, 텍스트 편집 서버(300)로 전자 텍스트를 전송하여 라이브 텍스트로 변환 요청하고, 변환된 라이브 텍스트를 수신하여 수신자의 사용자 단말로 전송할 수 있다. 전자 텍스트를 라이브 텍스트로의 자동 변환 여부는 전자 텍스트를 송신하는 사용자(즉 송신자)가 사용자 단말에서 설정할 수 있다. 그리고 텍스트를 송신하는 송신자와 수신하는 수신자는 동일하여도 무방하다.
그리고 텍스트 전송 서버(400)는 경우에 따라서 복수개의 사용자 단말(110 ~ 130) 또는 텍스트 편집 서버(300)로부터 전자 텍스트 또는 라이브 텍스트를 수신하여, 수신된 전자 텍스트 또는 라이브 텍스트를 텍스트 편집 서버(400)로 전송하여 라이브 보이스 신호로 변환 요청하고, 변환된 라이브 보이스 신호를 설정된 수신자의 사용자 단말로 전송할 수도 있다.
텍스트 전송 서버(400)가 전자 텍스트 또는 라이브 텍스트를 수신하여 라이브 보이스 신호를 전송하는 경우에도, 전자 텍스트와 마찬가지로, 라이브 텍스트를 수신하는 사용자 단말과 라이브 보이스를 전송하는 사용자 단말이 서로 동일하거나 다를 수 있다.
도1 에서는 설명의 편의를 위하여 텍스트 편집 서버(300)와 텍스트 전송 서버(400)를 별도의 장치로 도시하였으나, 텍스트 전송 서버(400)는 텍스트 편집 서버(300)에 포함되어 구현되어도 무방하며, 텍스트 전송 서버(400)가 감정 텍스트 편집 프로그램 및 라이브 보이스 변환 프로그램을 직접 구동하여 전자 텍스트를 라이브 텍스트로 변환하거나, 라이브 텍스트를 라이브 보이스로 변환하여도 무방하다.
도2 는 본 발명에 따른 라이브 텍스트의 실제 적용예를 나타낸다.
도2 에서 감정 편집도구(TE)는 감정 텍스트 편집 프로그램 상에 표시되어 상용자가 복수개의 감정 편집 아이콘 중 하나를 선택할 수 있도록 한다. 그리고 비록 도시되지 않았으나, 복수개의 감정 편집 아이콘 각각은 선택시 감정 표현의 강도를 설정하기 위한 화면을 추가로 제공할 수 있다. 감정 표현의 강도는 기설정된 범위의 숫자(예를 들면 1 ~ 5)로 제공될 수 있다. 도2 에서는 일예로서 감정 편집도구(TE)에 9개의 감정 편집 아이콘만이 도시되었으나, 감정 편집 아이콘의 개수 및 종류는 다양하게 설정될 수 있다.
도2 에서 (a)는 일반 전자 텍스트를 나타내며, (b) 및 (c)는 각각 감탄의 감정 편집 아이콘이 선택된 경우 및 불만의 감정 아이콘이 선택된 경우를 나타낸다.
상기한 바와 같이 (a)의 일반 전자 텍스트는 실제로 좋은 아이디어로 생각하여 감탄하는 경우와, 그다지 좋지 않는 아이디어라고 생각하면서 일종의 반어법 형태로 좋다고 표현하는 경우의 2가지 의미로 해석될 수 있으므로, 사람들의 오해를 불러일으킬 소지가 있었다.
그에 비해 어감에 의한 감정 표현이 포함된 라이브 텍스트인 (b) 및 (c)의 경우에는, 실제 사람이 말하는 것과 같이 감정이 포함되도록 어감에 대응하는 형태로 텍스트가 편집되어 함께 표시됨으로서, 전자 텍스트를 읽는 사람이 텍스트 작성자의 의도를 명확히 인지할 수 있도록 한다. 즉 (b)에서는 어감에 맞게 감탄사인 "참"을 짧고 높아지도록 표현한 반면, (c)에서는 "참"을 길고 점차 낮아지도록 표현하였다. 또한 도2 의 (b) 및 (c)에 도시한 바와 같이 텍스트의 색상 또한 긍정적인 경우에 밝고 채도가 높은 색상을, 부정적인 경우에 어둡고 채도가 낮은 색상으로 서로 다르게 조절하여 시각적으로 명확하게 인식할 수 있도록 할 수 있다.
상기한 바와 같이 기존의 텍스트 프로그램에서도 텍스트의 형태나 색상을 변형할 수는 있었으나, 이러한 텍스트의 변형이 감정 표현에 매칭되는 기준이 제시되어 있지 않으므로, 텍스트의 변형이 단순히 강조의 의미 이상은 없었다. 그러나 도2 에 도시된 바와 같이 본 발명에서는 각 감정에 따른 텍스트의 변형 형태를 어감에 따라 미리 설정하여 제공함으로서, 글을 읽는 사람들이 텍스트에 담긴 감정을 파악할 수 있도록 라이브 텍스트를 제공하면, 감정 텍스트 편집 프로그램의 보급화에 따라 다양한 단말에서 공통적으로 활용할 수 있는 텍스트 상의 감정 표현 기법의 기준을 제시할 수 있게 된다.
그리고 이러한 라이브 텍스트가 활성화되면, 전자 텍스트 문서를 단순히 표준화된 음성으로만 읽어 주어 쉽게 지루해지던 TTS(Text To Speech) 기술에 적용하여, 감정 표현이 포함된 라이브 텍스트를 라이브 보이스로 변환함으로서 더욱 사실적인 음성 표현이 가능한 TTS를 제공할 수도 있다. 라이브 텍스트를 라이브 보이스로 변환하는 기술은 기존의 전자 텍스트를 음성으로 표현하는 TTS 기술에서 라이브 텍스트에 감정 표현을 위해 포함된 문장의 악센트, 어조, 강세, 장음, 단음 등의 음향 특성을 반영함으로서 용이하게 구현할 수 있다.
도3 및 도4 는 본 발명의 일 실시예에 따른 감정 전달이 가능한 라이브 텍스트 및 라이브 보이스를 제공하기 위한 텍스트 편집 및 라이브 보이스 변환 방법을 나타낸다.
도3 및 도4 는 특히 사용자 단말에서 라이브 텍스트를 제공하기 위한 텍스트 편집 방법을 나타낸다.
도3 을 참조하면, 본 발명의 라이브 텍스트 편집 방법은 사용자 단말(110 ~ 130)은 텍스트 편집 명령이 인가되면, 감정 텍스트 편집 프로그램이 기설치되어 있는지 판별한다(S11). 만일 감정 텍스트 편집 프로그램이 기설치되어 있지 않다면, 사용자 단말(110 ~ 130)은 텍스트 편집 서버(300)으로부터 감정 텍스트 프로그램을 다운로드하여 설치한다(S12). 그러나 감정 텍스트 프로그램이 기설치되어 있다면, 이 단계는 생략한다. 이후 감정 텍스트 편집 프로그램을 구동하여 텍스트 편집화면을 디스플레이부에 표시한다(S13).
감정 텍스트 편집 프로그램이 구동되어 텍스트 편집 화면이 디스플레이부에 표시되면, 사용자는 텍스트를 편집하기 위해 명령을 인가하고, 사용자 단말(110 ~ 130)은 텍스트 편집 명령이 수신되는지 판별한다(S140). 여기서 텍스트 편집 명령은 전자 텍스트의 내용에 해당하는 문자 입력일 수도 있으며, 각 문자에 대한 기존의 텍스트 편집 명령 또는 감정 표현 편집 명령일 수도 있다.
이에 사용자 단말(110 ~ 130)은 텍스트 편집 명령이 감정 표현 편집 명령인지 판별한다(S15). 즉 도2 에 도시된 감정 편집도구(TE)의 복수개의 감정 편집 아이콘 중 하나의 아이콘이 선택되었는지 판별한다. 판별 결과 감정 표현 편집 명령이면, 기설정된 구간의 텍스트에 대한 분석을 수행한다(S16). 텍스트 분석은 선택된 구간의 텍스트의 문장 구조 및 각 단어의 품사를 분석하여 수행된다. 그리고 선택된 감정 편집 아이콘에 대응하여 분석된 문장에 도2 의 (b) 및 (c)와 같이 어감에 따른 감정 표현을 포함한다(S17). 여기서 텍스트에 감정 표현을 포함하는 구간은 사용자가 편집 명령 입력 시 직접 설정할 수 있다. 그리고 텍스트에 선택된 감정 표현 아이콘에 대응하는 감정 표현을 포함하는 것은 각각의 감정에 대한 문장 구조에 따른 어감을 기설정하여 저장함으로서 사용자의 추가 텍스트 편집 없이 자동으로 수행될 수 있다.
그리고 만일 텍스트 편집 명령이 감정 표현 편집 명령이 아니라면, 사용자 단말은 인가된 텍스트 편집 명령에 대응하여 텍스트를 편집한다(S18).
이후 사용자 단말(110 ~ 130)은 텍스트 편집 종료 명령이 인가되는지 판별한다(S19). 만일 텍스트 편집 종료 명령이 인가되면, 편집된 텍스트를 라이브 텍스트로서 저장한다(S20). 그러나 텍스트 편집 종료 명령이 인가되지 않으면, 다시 텍스트 편집 명령이 수신되는지 판별한다(S14). 여기서 라이브 텍스트로 저장 시에는 감정 텍스트 편집 프로그램을 다운로드할 수 있는 사이트의 인터넷 어드레스, 즉 텍스트 편집 서버(300)의 인터넷 어드레스를 함께 포함할 수 있다. 이렇게 라이브 텍스트에 감정 텍스트 편집 프로그램을 다운로드 할 수 있는 주소를 지정하는 경우, 감정 텍스트 편집 프로그램이 설치되지 않은 사용자 단말(110 ~ 130)이 라이브 텍스트를 열거나 편집하고자 하는 경우에 자동으로 감정 텍스트 편집 프로그램을 다운로드할 수 있는 사이트로 접속되어 라이브 텍스트의 보급을 활성화 할 수 있다.
그리고 저장된 라이브 텍스트에 대해 라이브 보이스 변환 명령이 인가되는지 판별한다(S21). 라이브 보이스 변환 명령은 라이브 보이스 변환 프로그램이 사용자 단말(110 ~ 130)이 설치되어 있는 경우에 수신 가능하며, 이를 위해서 사용자 단말은 감정 텍스트 편집 프로그램과 마찬가지로 라이브 보이스 변환 프로그램이 기설치되어 있는지 확인하고 설치되어 있지 않으면, 텍스트 편집 서버(300)로부터 수신하여 설치 및 구동할 수 있다. 또한 라이브 보이스 변환 프로그램이 감정 텍스트 편집 프로그램에 포함되어 구현되어 있어도 무방하다.
만일 라이브 보이스 변환 명령이 인가된 것으로 판별되면, 사용자 단말(110 ~ 130)은 라이브 텍스트를 라이브 보이스 신호로 변환하고, 변환된 라이브 보이스 신호를 음향 신호로서 출력한다(S22).
그리고 도4 의 라이브 텍스트 편집 방법은 도3 과 마찬가지로 사용자 단말(110 ~ 130)에서 수행되는 편집 방법으로서, 기저정된 라이브 텍스트를 호출하여 재편집하고자 하는 경우를 나타낸다.
도4 에서는 우선 사용자 단말(110 ~ 130)이 기저장된 텍스트를 호출한다(S31). 이때 호출되는 텍스트는 라이브 텍스트일 수도 있으며, 기존의 일반 텍스트일 수도 있다. 그리고 텍스트가 호출되면, 사용자 단말(110 ~ 130)에 가정 텍스트 편집 프로그램이 기 설치되어 있는지 판별한다(S32). 만일 감정 텍스트 편집 프로그램이 설치되어 있지 않으면, 텍스트 편집 서버(300)로 접속하여 감정 텍스트 편집 프로그램을 다운로드하여 설치한다(S33). 이때 라이브 텍스트가 호출된 경우라면, 라이브 텍스트에 포함된 인터넷 주소를 기초로 텍스트 편집 서버(300)로 접속로 자동 접속할 수 있다. 만일 사용자 단말(110 ~ 130)에 감정 텍스트 편집 프로그램이 설치되어 있으면, 이 단계를 생략한다.
그리고 텍스트에 감정 표현을 포함하여 표시할지, 단순 텍스트만 표시할지 여부와 감정 표현이 포함되어 있지 않은 텍스트에 자동으로 감정 표현을 추가할지 여부에 대한 텍스트 감정 표현 포함 설정창을 표시한다(S34). 사용자 단말(110 ~ 130)로 수신되는 설정 명령이 텍스트의 감정 표현을 포함하는 것이고, 호출된 텍스트가 라이브 텍스트이면, 텍스트에 감정 표현을 포함하여 디스플레이부에 디스플레이 한다(S35). 이때, 사용자 명령이 자동으로 텍스트 감정 표현을 추가하는 것으로 설정되어 있으면, 사용자의 이전 텍스트 편집에 의해 포함된 감정 표현 영역을 제외한 나머지 영역에 대해 감정 텍스트 편집 프로그램이 자동으로 텍스트를 분석하여 감정 표현을 추가할 수 있다. 그리고 호출된 텍스트가 라이브 텍스트가 아닌 경우에는 텍스트 전체 영역에 대해 자동으로 분석하여 감정 표현을 추가할 수 있다.
도5 는 본 발명에 따른 텍스트 감정 표현 포함 설정창의 일예를 나타낸다.
도5 에 도시된 바와 같이 본 발명의 라이브 텍스트 편집 방법은 텍스트에 감정 표현을 포함할지 여부를 사용자에게 설정하도록 할 수 있다.
이는 감정 표현이 포함된 라이브 텍스트에 거부감이 있는 사용자가 존재할 수 있기 때문에, 글을 읽는 사용자에게 라이브 텍스트를 적용할지 여부를 확인하는 것이다. 즉 기존과 같은 형태의 텍스트를 읽기 원하는 사용자에게는 라이브 텍스트일지라도 기본적인 텍스트를 표시할 수 있다. 추후 라이브 텍스트가 대중적으로 보급되면, 설정창 표시 단계는 생략될 수 있다.
이후 라이브 텍스트를 사용자 단말(110 ~ 130)은 라이브 텍스트를 추가로 편집할 수 있으며, 이에 사용자 단말(110 ~ 130)은 텍스트를 추가로 편집하고자 하는 텍스트 편집 명령이 인가되는지 판별한다(S37). 그리고 텍스트 편집 명령이 인가되면, 텍스트 명령에 응답하여 텍스트를 편집한다(S38). 이는 도3 의 텍스트 편집 명령 수신 단계(S14)부터 텍스트 편집 단계(S18)에 대응하는 구성으로 상세한 설명은 생략한다.
그리고 도3 과 마찬가지로 텍스트 편집 종료 명령이 인가되는지 판별하고(S39), 텍스트 종료 명령이 인가되면 라이브 텍스트를 저장한다(S40).
그리고 도시하지 않았으나, 도4 의 라이브 텍스트 편집 방법 또한 도3 과 같이 추가로 생성된 라이브 텍스트를 라이브 보이스로 변환하는 단계를 포함할 수 있다.
상기에서는 전자 텍스트를 호출하여 라이브 텍스트로 변환하고 변환된 라이브 텍스트를 라이브 보이스로 변환하는 방법을 설명하였으나, 경우에 따라서는 라이브 텍스트가 기저장되어 호출되고, 호출된 라이브 텍스트를 곧바로 라이브 보이스로 변환할 수도 있음은 자명하다.
도6 은 본 발명의 다른 실시예에 따른 감정 전달이 가능한 라이브 텍스트 및 라이브 보이스를 제공하기 위한 텍스트 편집 및 라이브 보이스 변환 방법을 나타낸다.
도6 은 도3 및 도4 와 달리 사용자 단말(110 ~ 130)이 텍스트 편집 서버(300)에 네트워크(200)을 통해 접속하고, 텍스트 편집 서버(300)에서 라이브 텍스트를 편집하는 방법을 나타낸다.
도6을 참조하면, 텍스트 편집 서버(300)는 우선 적어도 하나의 사용자 단말(110 ~ 130)이 네트워크(200)을 통해 접속하는지 판별한다(S51). 그리고 사용자 단말이 접속하면, 접속된 사용자 단말(110 ~ 130)로부터 라이브 텍스트 변집 요청이 수신되는지 판별한다(S52). 라이브 텍스트 편집 요청이 수신되면, 기저장된 감정 텍스트 편집 프로그램을 구동한다(S53).
그리고 사용자 단말(110 ~ 130)으로부터 텍스트 편집 서버(300)에 기저장된 텍스트 호출 명령이 인가되는지 판별한다(S54). 만일 텍스트 호출 명령이 인가되면, 텍스트 편집 서버(300)에 기저장된 텍스트를 열어 사용자 단말(110 ~ 130)에 표시한다(S55). 그러나 텍스트 호출 명령이 인가되지 않으면, 사용자 단말(110 ~ 130)에 저장된 텍스트가 전송되어 수신되는지 판별한다(S56). 만일 사용자 단말(110 ~ 130)에 저장된 텍스트가 수신되면, 수신된 텍스트를 열어 사용자 단말(110 ~ 130)에 표시한다(S57). 이때, 텍스트 편집 서버(300)의 감성 텍스트 편집 프로그램은 상기한 바와 같이, 텍스트 열기와 함께, 복수개의 감정 편집 아이콘이 포함된 감정 편집도구(TE)를 사용자 단말(110 ~ 130)에 표시한다.
그리고 도4 와 마찬가지로, 텍스트에 감정 표현을 포함하여 표시할지, 단순 텍스트만 표시할지 여부와 감정 표현이 포함되어 있지 않은 텍스트에 자동으로 감정 표현을 추가할지 여부에 대한 텍스트 감정 표현 포함 설정창을 표시한다(S58). 사용자 단말(110 ~ 130)로 수신되는 설정 명령이 텍스트의 감정 표현을 포함하는 것이고, 호출된 텍스트가 라이브 텍스트이면, 텍스트에 감정 표현을 포함하여 디스플레이부에 디스플레이 한다(S59).
만일 사용자 단말(110 ~ 130)에 저장된 텍스트도 수신되지 않는다면, 새로운 텍스트를 편집하고자 하는 것으로 판단하여 새로운 텍스트 화면을 연다(S60).
기저장된 텍스트나 수신된 텍스트 또는 새 텍스트가 열리면, 텍스트 편집 서버(300)는 사용자 단말(110 ~ 130)로부터 텍스트를 추가로 편집하고자 하는 텍스트 편집 명령이 인가되는지 판별한다(S61). 그리고 텍스트 편집 명령이 인가되면, 텍스트 명령에 응답하여 텍스트를 편집한다(S62). 이때도, 도3 및 도4 와 유사하게 텍스트를 단순 편집할 수도 있으나 감정 표현이 포함되도록 편집할 수도 있다.
그리고 사용자 단말(110 ~ 130)로부터 텍스트 편집 종료 명령이 인가되는지 판별한다(S63). 텍스트 편집 종료 명령이 인가되면, 텍스트 편집 서버(300)는 라이브 텍스트를 저장한다(S64). 이때 텍스트 편집 서버(300)는 라이브 텍스트를 사용자 단말(110 ~ 130)에서 지정하는 수신자의 메일 주소나, 전화 번호 및 SNS의 ID등을 이용하여 수신자의 사용자 단말로 곧바로 전송할 수도 있다.
한편 텍스트 편집 종료 명령이 인가되거나, 라이브 텍스트 편집 요청이 인가되지 않으면, 텍스트 편집 서버(300)는 라이브 보이스 변환 요청이 수신되는지 판별한다(S65). 만일 라이브 보이스 변환 요청이 사용자 단말(110 ~ 130)로부터 수신되면, 텍스트 편집 서버(300)는 기저장된 라이브 텍스트 또는 사용자 단말(110 ~ 130)에서 수신되는 라이브 텍스트를 라이브 텍스트에 포함된 악센트, 어조, 강세, 장음, 단음 등의 음향 특성을 반영하여 라이브 보이스 신호로 변환하여 저장한다(S66).
이때 텍스트 편집 서버(300)는 라이브 텍스트와 마찬가지로 변환된 라이브 보이스를 사용자 단말(110 ~ 130)에서 지정하는 수신자의 메일 주소나, 전화 번호 및 SNS의 ID등을 이용하여 수신자의 사용자 단말로 곧바로 전송할 수도 있다.
도7 은 본 발명의 또 다른 실시예에 따른 감정 전달이 가능한 라이브 텍스트 및 라이브 보이스를 제공하기 위한 텍스트 편집 및 라이브 보이스 변환 방법을 나타내며, 텍스트 전송 서버(400)에서 라이브 텍스트를 편집하거나, 라이브 보이스로 변환하는 방법을 나타낸다.
도7 을 참조하면, 텍스트 전송 서버(400)는 우선 사용자 단말(110 ~ 130)이 접속하는지 판별한다(S71). 그리고 사용자 단말(110 ~ 130)이 접속하면, 사용자 단말로부터 전송할 텍스트를 수신한다(S72). 텍스트 전송 서버(400)는 전송할 텍스트가 수신되면, 수신된 텍스트가 기존의 전자 텍스트인지, 감정 표현이 포함된 라이브 텍스트인지 판별한다(S73). 만일 감정 표현이 포함되어 있지 않은 전자 텍스트라면, 텍스트에 감정 표현을 포함하여 표시할지, 단순 텍스트만 표시할지 여부와 감정 표현이 포함되어 있지 않은 텍스트에 자동으로 감정 표현을 추가할지 여부에 대한 사용자 설정을 판별한다(S74). 여기서 사용자 설정은 사용자 단말(110 ~ 130) 또는 텍스트 전송 서버(400) 중 적어도 하나에 기설정되어 저장될 수 있다. 그러나 경우에 따라서는 도6 과 마찬가지로, 텍스트 감정 표현 포함 설정창을 사용자 단말(110 ~ 130)에 표시하여, 사용자 단말로부터 설정을 수신할 수도 있다. 그리고 기설정된 사용자 설정이 텍스트의 감정 표현을 포함하는 것이고, 호출된 텍스트가 라이브 텍스트이면, 텍스트에 감정 표현을 포함한다(S75). 그러나 만일 사용자 설정이 텍스트의 감정 표현을 포함하지 않도록 설정되어 있으면, 기존의 텍스트와 동일하게 텍스트에 감정 표현을 포함하지 않는다.
라이브 텍스트가 수신된 경우나, 전자 텍스트가 라이브 텍스트로 변환되면, 라이브 텍스트를 라이브 보이스로 변환할지 여부에 대한 사용자 설정을 판별한다(S76). 만일 라이브 보이스로의 변환 설정이 되어 있지 않다면, 텍스트 전송 서버(400)는 라이브 텍스트를 사용자 단말(110 ~ 130)에서 지정하는 수신자의 메일 주소나, 전화 번호 및 SNS의 ID등을 이용하여 수신자의 사용자 단말로 전송한다(S77).
그러나 사용자 설정이 라이브 텍스트를 라이브 보이스로 변환하는 것으로 설정되어 있으면, 텍스트 전송 서버(400)는 라이브 텍스트를 라이브 보이스 신호로 변환한다(S78). 이후 텍스트 전송 서버(400)는 변환된 라이브 보이스 신호를 사용자 단말(110 ~ 130)에서 지정하는 수신자의 메일 주소나, 전화 번호 및 SNS의 ID등을 이용하여 수신자의 사용자 단말로 전송한다(S79).
일반적으로 텍스트 전송 서버(400)는 기본적으로 텍스트를 편집하기 위한 장치가 아니라 단순히 텍스트를 하나의 사용자 단말에서 다른 사용자 단말로 전달하기 위한 전송 수단이지만, 본 발명에서는 텍스트 전송 서버(400)가 수신되는 텍스트에 자동으로 감정 표현을 포함하여 라이브 텍스트로 변환하여 전송하거나 라이브 텍스트를 라이브 보이스로 변환하여 전송할 수 있도록 한다. 이를 위해 텍스트 전송 서버(400)는 감정 텍스트 편집 프로그램 및 라이브 보이스 변환 프로그램이 저장되어 항시 구동되도록 설정될 수 있다.
상기에서는 사용자 단말(110 ~ 130), 텍스트 편집 서버(300) 및 텍스트 전송 서버(400)를 각각 분리하여 설명하였으나, 사용자 단말(110 ~ 130), 텍스트 편집 서버(300) 및 텍스트 전송 서버(400)는 모두 감성 텍스트 편집 장치로 일괄적으로 칭할 수 있다.
상기한 바와 같이 본 발명은 텍스트에 감정 표현을 위한 기준을 제시할 수 있으며, 이러한 기준이 어감을 기초로 하기 때문에 라이브 텍스트를 읽는 사람들이 직관적으로 텍스트를 읽는 동안 어감에 의해 글쓴이의 감정을 용이하게 파악할 수 있다. 따라서 전자 텍스트의 해석의 오해로 인한 사람들간의 분쟁이 발생하는 것을 줄일 수 있다. 또한 TTS에 적용하여 라이브 보이스로 변환 가능하므로 더욱 실감나는 읽기 기능을 제공할 수 있다.
본 발명에 따른 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.
따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (23)

  1. 적어도 하나의 사용자 단말을 이용한 텍스트 편집 및 보이스 변환 방법에 있어서, 상기 적어도 하나의 사용자 단말은,
    복수개의 문장 구조 및 복수개의 감정 표현의 조합 각각에 대응하여 텍스트의 형태를 변환하는 텍스트 변화 규칙이 기설정되어 저장된 감정 텍스트 편집 프로그램을 구동하는 단계;
    텍스트 편집 명령이 인가되면, 인가된 상기 텍스트 편집 명령이 감정 표현 편집 명령인지 판별하고, 상기 텍스트 편집 명령이 상기 감정 표현 편집 명령이면, 상기 텍스트의 상기 문장 구조를 분석하는 단계; 및
    상기 감정 표현 편집 명령에 의해 설정되는 감정 표현 및 상기 분석된 문장 구조에 대응하여 문장의 악센트, 어조, 강세, 장음, 단음의 변화가 반영되는 텍스트 변화 규칙을 상기 텍스트에 적용하여 상기 텍스트를 상기 감정 표현을 포함하는 라이브 텍스트로 변환하는 단계; 를 포함하는 텍스트 편집 및 보이스 변환 방법.
  2. 적어도 하나의 사용자 단말이 접속 가능한 텍스트 편집 서버를 이용한 텍스트 편집 및 보이스 변환 방법에 있어서, 상기 텍스트 편집 서버는,
    상기 적어도 하나의 사용자 단말이 접속되는지 판별하는 단계;
    상기 적어도 하나의 사용자 단말이 접속되면, 복수개의 문장 구조 및 복수개의 감정 표현의 조합 각각에 대응하여 텍스트의 형태를 변환하는 텍스트 변화 규칙이 기설정되어 저장된 감정 텍스트 편집 프로그램을 구동하는 단계;
    접속된 상기 사용자 단말로부터 텍스트 편집 명령이 인가되면, 인가된 상기 텍스트 편집 명령이 감정 표현 편집 명령인지 판별하고, 상기 텍스트 편집 명령이 상기 감정 표현 편집 명령이면, 상기 텍스트의 상기 문장 구조를 분석하는 단계; 및
    상기 감정 표현 편집 명령에 의해 설정되는 감정 표현 및 상기 분석된 문장 구조에 대응하여 문장의 악센트, 어조, 강세, 장음, 단음의 변화가 반영되는 텍스트 변화 규칙을 상기 텍스트에 적용하여 상기 텍스트를 상기 감정 표현을 포함하는 라이브 텍스트로 변환하는 단계; 를 포함하는 텍스트 편집 및 보이스 변환 방법.
  3. 적어도 하나의 사용자 단말이 접속 가능한 텍스트 전송 서버를 이용한 텍스트 편집 및 보이스 변환 방법에 있어서, 상기 텍스트 전송 서버는,
    상기 적어도 하나의 사용자 단말이 접속되어 다른 사용자 단말로 전송 요청되는 텍스트가 수신되는지 판별하는 단계;
    상기 텍스트가 수신되면, 상기 접속된 사용자 단말의 사용자 설정이 텍스트에 감정 표현을 포함하도록 설정되어 있는지 판별하는 단계;
    상기 텍스트에 감정 표현을 포함하도록 설정되어 있으면, 복수개의 문장 구조 및 복수개의 감정 표현의 조합 각각에 대응하여 텍스트의 형태를 변환하는 텍스트 변화 규칙이 기설정되어 저장된 감정 텍스트 편집 프로그램을 이용하여 상기 텍스트의 상기 문장 구조를 분석하는 단계;
    상기 감정 표현 편집 명령에 의해 설정되는 감정 표현 및 상기 분석된 문장 구조에 대응하여 문장의 악센트, 어조, 강세, 장음, 단음의 변화가 반영되는 텍스트 변화 규칙을 상기 텍스트에 적용하여 상기 텍스트를 상기 감정 표현을 포함하는 라이브 텍스트로 변환하는 단계; 및
    상기 라이브 텍스트를 상기 다른 사용자 단말로 전송하는 단계; 를 포함하는 텍스트 편집 및 보이스 변환 방법.
  4. 제1 항 내지 제2 항 중 어느 한 항에 있어서, 상기 텍스트 편집 및 보이스 변환 방법은
    라이브 보이스 변환 명령이 인가되면, 변환할 상기 라이브 텍스트를 선택하는 단계; 및
    선택된 상기 라이브 텍스트를 상기 라이브 텍스트에 적용된 텍스트 변화 규칙에 대응하여 상기 문장의 악센트, 어조, 강세, 장음, 단음의 변화가 포함된 음향 신호인 라이브 보이스 신호로 변환하는 단계를 더 포함하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 방법.
  5. 제3 항에 있어서, 상기 텍스트 편집 및 보이스 변환 방법은
    상기 텍스트가 수신되면, 상기 접속된 사용자 단말의 사용자 설정이 상기 라이브 텍스트를 라이브 보이스로 변환하도록 설정되어 있는지 판별하는 단계;
    상기 사용자 설정이 상기 라이브 보이스로 변환하도록 설정되어 있으면, 상기 변환할 상기 라이브 텍스트를 선택하는 단계; 및
    선택된 상기 라이브 텍스트를 상기 라이브 텍스트에 적용된 텍스트 변화 규칙에 대응하여 상기 문장의 악센트, 어조, 강세, 장음, 단음의 변화가 포함된 음향 신호인 라이브 보이스 신호로 변환하는 단계를 더 포함하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 방법.
  6. 제1 항 내지 제2 항 중 어느 한 항에 있어서, 상기 라이브 텍스트로 변환하는 단계는
    상기 감정 표현 편집 명령에 의해 지정되는 감정 표현에 대응하는 상기 텍스트 변화 규칙을 적용하여 상기 텍스트를 상기 라이브 텍스트로 변환하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 방법.
  7. 제1 항 내지 제3 항 중 어느 한 항에 있어서, 상기 라이브 텍스트로 변환하는 단계는
    상기 감정 텍스트 편집 프로그램이 상기 텍스트의 문맥을 분석하고, 분석된 문맥으로부터 기설정된 복수개의 감정표현 중 하나의 감정표현을 선택하여, 선택된 감정 표현에 감정 표현에 대응하는 상기 텍스트 변화 규칙을 적용하여 상기 텍스트를 자동으로 상기 라이브 텍스트로 변환하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 방법.
  8. 제1 항 또는 제2 항 중 어느 한 항에 있어서, 상기 라이브 텍스트로 변환하는 단계는
    상기 텍스트 편집 명령에 응답하여 기설정된 범위의 상기 텍스트에 대해 상기 라이브 텍스트로 변환하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 방법.
  9. 제1 항 내지 제3 항 중 어느 한 항에 있어서, 상기 라이브 텍스트로 변환하는 단계는
    상기 텍스트 전체를 라이브 텍스트로 변환하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 방법.
  10. 제1 항 내지 제3 항 중 어느 한 항에 있어서, 상기 라이브 텍스트로 변환하는 단계는
    상기 텍스트 변화 규칙에 따라 상기 복수개의 문장 구조 및 상기 복수개의 감정 표현의 조합 각각에 대해 기분석된 어감이 상기 텍스트에 시각적으로 표시되도록 상기 텍스트를 변환하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 방법.
  11. 제1 항 내지 제3 항 중 어느 한 항에 있어서, 상기 라이브 텍스트로 변환하는 단계는
    상기 텍스트 변화 규칙에 따라 상기 텍스트가 동적으로 가변되는 다이나믹 텍스트의 형태로 변환하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 방법.
  12. 제1 항 내지 제3 항 중 어느 한 항에 따른 감정 전달이 가능한 라이브 텍스트 및 라이브 보이스를 제공하기 위한 텍스트 편집 및 보이스 변환 방법을 구현하기 위한 프로그램 명령어가 기록된, 컴퓨터가 판독 가능한 기록매체.
  13. 복수개의 문장 구조 및 복수개의 감정 표현의 조합 각각에 대응하여 텍스트의 형태를 변환하는 텍스트 변화 규칙이 기설정되어 저장된 감정 텍스트 편집 프로그램이 저장된 텍스트 편집 서버; 및
    상기 텍스트 편집 서버로부터 상기 감정 텍스트 편집 프로그램을 수신하여 설치하며, 입력 수단을 통해 텍스트 편집 명령이 인가되면, 인가된 상기 텍스트 편집 명령이 감정 표현 편집 명령인지 판별하고, 상기 텍스트 편집 명령이 상기 감정 표현 편집 명령이면, 상기 텍스트의 상기 문장 구조를 분석하고, 상기 감정 표현 편집 명령에 의해 설정되는 감정 표현 및 상기 분석된 문장 구조에 대응하는 텍스트 변화 규칙을 상기 텍스트에 적용하여 상기 텍스트를 상기 감정 표현을 포함되는 라이브 텍스트로 변환하는 적어도 하나의 사용자 단말;을 포함하는 텍스트 편집 및 보이스 변환 시스템.
  14. 제13 항에 있어서, 상기 텍스트 편집 서버는
    상기 감정 텍스트 편집 프로그램을 직접 구동하여 상기 적어도 하나의 사용자 단말로부터 상기 텍스트 및 상기 텍스트 편집 명령을 수신하여, 상기 텍스트를 상기 라이브 텍스트로 변환하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 시스템.
  15. 제14 항에 있어서, 상기 적어도 하나의 사용자 단말 및 상기 텍스트 편집 서버 각각은
    상기 감정 표현 편집 명령에 의해 지정되는 감정 표현에 대응하는 상기 텍스트 변화 규칙을 적용하여 상기 텍스트를 상기 라이브 텍스트로 변환하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 시스템.
  16. 제15 항에 있어서, 상기 텍스트 서버는
    상기 감정 텍스트 프로그램에 의해 편집된 라이브 텍스트를 상기 텍스트 변화 규칙에 의해 표현되는 문장의 악센트, 어조, 강세, 장음, 단음의 변화를 반영하여 음향 신호인 라이브 보이스 신호로 변환하는 라이브 보이스 변환 프로그램이 추가로 저장하고, 상기 라이브 보이스 변환 프로그램을 구동하여, 상기 라이브 텍스트를 상기 라이브 텍스트에 적용된 텍스트 변화 규칙에 대응하는 음향 신호인 라이브 보이스 신호로 변환하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 시스템.
  17. 제15 항에 있어서, 상기 적어도 하나의 사용자 단말 각각은
    상기 감정 텍스트 프로그램에 의해 편집된 라이브 텍스트를 상기 텍스트 변화 규칙에 의해 표현되는 문장의 악센트, 어조, 강세, 장음, 단음의 변화를 반영하여 음향 신호인 라이브 보이스 신호로 변환하는 라이브 보이스 변환 프로그램을 상기 텍스트 편집 서버로부터 더 수신하여 설치하고, 상기 라이브 보이스 변환 프로그램을 구동하여, 상기 라이브 텍스트를 상기 라이브 텍스트에 적용된 텍스트 변화 규칙에 대응하는 음향 신호인 라이브 보이스 신호로 변환하여 출력하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 시스템.
  18. 제14 항에 있어서, 상기 텍스트 편집 및 보이스 변환 시스템은
    상기 감정 텍스트 편집 프로그램을 구동하여 상기 적어도 하나의 사용자 단말이 접속되어 다른 사용자 단말로 전송 요청되는 텍스트를 수신하고, 수신된 상기 텍스트를 상기 라이브 텍스트로 변환하여 상기 다른 사용자 단말로 전송하는 텍스트 전송 서버;를 더 포함하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 시스템.
  19. 제18 항에 있어서, 상기 텍스트 전송 서버는
    상기 감정 텍스트 프로그램에 의해 편집된 라이브 텍스트를 상기 텍스트 변화 규칙에 의해 표현되는 문장의 악센트, 어조, 강세, 장음, 단음의 변화를 반영하여 음향 신호인 라이브 보이스 신호로 변환하는 라이브 보이스 변환 프로그램을 구동하여 상기 라이브 보이스 변환 프로그램을 구동하여, 상기 라이브 텍스트를 상기 라이브 텍스트에 적용된 텍스트 변화 규칙에 대응하는 음향 신호인 라이브 보이스 신호로 변환하여 출력하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 시스템.
  20. 제18 항에 있어서, 상기 적어도 하나의 사용자 단말, 상기 텍스트 편집 서버 및 상기 텍스트 전송 서버 각각은
    상기 감정 텍스트 편집 프로그램이 상기 텍스트의 문맥을 분석하고, 분석된 문맥으로부터 기설정된 복수개의 감정표현 중 하나의 감정표현을 선택하여, 선택된 감정 표현에 감정 표현에 대응하는 상기 텍스트 변화 규칙을 적용하여 상기 텍스트를 자동으로 상기 라이브 텍스트로 변환하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 시스템.
  21. 제18 항에 있어서, 상기 적어도 하나의 사용자 단말, 상기 텍스트 편집 서버 및 상기 텍스트 전송 서버 각각은
    상기 텍스트 변화 규칙에 따라 상기 복수개의 문장 구조 및 상기 복수개의 감정 표현의 조합 각각에 대해 기분석된 어감이 상기 텍스트에 시각적으로 표시되도록 상기 텍스트를 변환하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 시스템.
  22. 제18 항에 있어서, 상기 적어도 하나의 사용자 단말, 상기 텍스트 편집 서버 및 상기 텍스트 전송 서버 각각은
    상기 텍스트 변화 규칙에 따라 상기 텍스트가 동적으로 가변되는 다이나믹 텍스트의 형태로 변환하는 것을 특징으로 하는 텍스트 편집 및 보이스 변환 시스템.
  23. 제16 항, 제17항 및 제19 항 중 어느 한 항에 있어서, 상기 감정 텍스트 편집 프로그램 및 상기 라이브 보이스 변환 프로그램 각각은
    상기 적어도 하나의 사용자 단말에 기설치된 텍스트 편집 프로그램에 추가로 설치 될 수 있는 애드온 타입의 프로그램인 것을 특징으로 하는 텍스트 편집 및 보이스 변환 시스템.
KR20130040878A 2013-04-15 2013-04-15 감정 전달이 가능한 라이브 텍스트 및 라이브 텍스트를 이용한 라이브 보이스를 제공하기 위한 텍스트 편집 및 보이스 변환 시스템 및 방법 KR101509196B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130040878A KR101509196B1 (ko) 2013-04-15 2013-04-15 감정 전달이 가능한 라이브 텍스트 및 라이브 텍스트를 이용한 라이브 보이스를 제공하기 위한 텍스트 편집 및 보이스 변환 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130040878A KR101509196B1 (ko) 2013-04-15 2013-04-15 감정 전달이 가능한 라이브 텍스트 및 라이브 텍스트를 이용한 라이브 보이스를 제공하기 위한 텍스트 편집 및 보이스 변환 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20140123715A true KR20140123715A (ko) 2014-10-23
KR101509196B1 KR101509196B1 (ko) 2015-04-10

Family

ID=51994254

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130040878A KR101509196B1 (ko) 2013-04-15 2013-04-15 감정 전달이 가능한 라이브 텍스트 및 라이브 텍스트를 이용한 라이브 보이스를 제공하기 위한 텍스트 편집 및 보이스 변환 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101509196B1 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180105005A (ko) * 2017-03-14 2018-09-27 이명철 감성 콘텐츠 적용이 가능한 텍스트 에디터 지원 시스템
CN110517689A (zh) * 2019-08-28 2019-11-29 腾讯科技(深圳)有限公司 一种语音数据处理方法、装置及存储介质
KR102053076B1 (ko) * 2018-07-09 2019-12-06 주식회사 한글과컴퓨터 감성 분석 기반의 스타일 적용이 가능한 문서 편집 장치 및 그 동작 방법
WO2020235712A1 (ko) * 2019-05-21 2020-11-26 엘지전자 주식회사 콘텐츠 기반의 스타일을 갖는 텍스트 또는 음성을 생성하는 인공 지능 장치 및 그 방법
CN112115686A (zh) * 2019-06-21 2020-12-22 珠海金山办公软件有限公司 一种文档编辑的方法、装置、计算机存储介质及终端
CN113591441A (zh) * 2021-07-30 2021-11-02 交互未来(北京)科技有限公司 语音编辑方法及装置、存储介质及电子设备
CN114745349A (zh) * 2021-01-08 2022-07-12 上海博泰悦臻网络技术服务有限公司 一种点评方法、电子设备及计算机可读存储介质
CN117275455A (zh) * 2023-11-22 2023-12-22 深圳市阳日电子有限公司 一种用于翻译耳机的声音克隆方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11715485B2 (en) 2019-05-17 2023-08-01 Lg Electronics Inc. Artificial intelligence apparatus for converting text and speech in consideration of style and method for the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002244688A (ja) * 2001-02-15 2002-08-30 Sony Computer Entertainment Inc 情報処理方法及び装置、情報伝送システム、情報処理プログラムを情報処理装置に実行させる媒体、情報処理プログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180105005A (ko) * 2017-03-14 2018-09-27 이명철 감성 콘텐츠 적용이 가능한 텍스트 에디터 지원 시스템
KR102053076B1 (ko) * 2018-07-09 2019-12-06 주식회사 한글과컴퓨터 감성 분석 기반의 스타일 적용이 가능한 문서 편집 장치 및 그 동작 방법
WO2020235712A1 (ko) * 2019-05-21 2020-11-26 엘지전자 주식회사 콘텐츠 기반의 스타일을 갖는 텍스트 또는 음성을 생성하는 인공 지능 장치 및 그 방법
US11488576B2 (en) 2019-05-21 2022-11-01 Lg Electronics Inc. Artificial intelligence apparatus for generating text or speech having content-based style and method for the same
CN112115686A (zh) * 2019-06-21 2020-12-22 珠海金山办公软件有限公司 一种文档编辑的方法、装置、计算机存储介质及终端
CN112115686B (zh) * 2019-06-21 2024-05-07 珠海金山办公软件有限公司 一种文档编辑的方法、装置、计算机存储介质及终端
CN110517689B (zh) * 2019-08-28 2023-11-24 腾讯科技(深圳)有限公司 一种语音数据处理方法、装置及存储介质
CN110517689A (zh) * 2019-08-28 2019-11-29 腾讯科技(深圳)有限公司 一种语音数据处理方法、装置及存储介质
CN114745349A (zh) * 2021-01-08 2022-07-12 上海博泰悦臻网络技术服务有限公司 一种点评方法、电子设备及计算机可读存储介质
CN114745349B (zh) * 2021-01-08 2023-12-26 上海博泰悦臻网络技术服务有限公司 一种点评方法、电子设备及计算机可读存储介质
CN113591441A (zh) * 2021-07-30 2021-11-02 交互未来(北京)科技有限公司 语音编辑方法及装置、存储介质及电子设备
CN117275455A (zh) * 2023-11-22 2023-12-22 深圳市阳日电子有限公司 一种用于翻译耳机的声音克隆方法
CN117275455B (zh) * 2023-11-22 2024-02-13 深圳市阳日电子有限公司 一种用于翻译耳机的声音克隆方法

Also Published As

Publication number Publication date
KR101509196B1 (ko) 2015-04-10

Similar Documents

Publication Publication Date Title
KR101509196B1 (ko) 감정 전달이 가능한 라이브 텍스트 및 라이브 텍스트를 이용한 라이브 보이스를 제공하기 위한 텍스트 편집 및 보이스 변환 시스템 및 방법
US7062437B2 (en) Audio renderings for expressing non-audio nuances
US20220230374A1 (en) User interface for generating expressive content
KR102582291B1 (ko) 감정 정보 기반의 음성 합성 방법 및 장치
CN101030368B (zh) 在保持情感的同时跨通道进行通信的方法和系统
CN102117614B (zh) 个性化文本语音合成和个性化语音特征提取
JP4651613B2 (ja) マルチメディアおよびテキストエディタを用いた音声起動メッセージ入力方法および装置
KR102305992B1 (ko) 음성 플레이 방법 및 장치
US20060069567A1 (en) Methods, systems, and products for translating text to speech
KR20090085376A (ko) 문자 메시지의 음성 합성을 이용한 서비스 방법 및 장치
KR101628050B1 (ko) 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템
CN109801648B (zh) 消息弹窗语音编辑方法、装置、计算机设备及存储介质
KR20140105673A (ko) 번역 기반 통신 서비스 지원 방법 및 시스템과, 이를 지원하는 단말기
RU2692051C1 (ru) Способ и система для синтеза речи из текста
TW201214413A (en) Modification of speech quality in conversations over voice channels
CN111142667A (zh) 一种基于文本标记生成语音的系统和方法
JP4072900B2 (ja) 端末装置
JP2005065252A (ja) 携帯電話機
KR102020773B1 (ko) 음성합성엔진을 이용한 멀티미디어 음성인식 자동 평가시스템
KR20090075397A (ko) 이모티콘을 포함한 통신 메시지의 송수신 방법
KR20000024318A (ko) 인터넷을 이용한 tts 시스템 및 tts 서비스 방법
KR20200113675A (ko) 대사를 캐릭터별 상이한 목소리로 변환하여 전달하는 웹툰 동영상 생성 방법
JP4586063B2 (ja) 端末装置
KR100487446B1 (ko) 이동 통신 단말의 오디오 장치를 이용한 감정 표현 방법및 이를 위한 이동 통신 단말
KR102583986B1 (ko) 목소리에 기반한 감정 분류가 반영된 음성 메시지의 말풍선 표현 방법 및 시스템

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20180226

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee