JP2017531197A - 文字データの内容を文字データ送信者の音声で出力する方法 - Google Patents

文字データの内容を文字データ送信者の音声で出力する方法 Download PDF

Info

Publication number
JP2017531197A
JP2017531197A JP2016562268A JP2016562268A JP2017531197A JP 2017531197 A JP2017531197 A JP 2017531197A JP 2016562268 A JP2016562268 A JP 2016562268A JP 2016562268 A JP2016562268 A JP 2016562268A JP 2017531197 A JP2017531197 A JP 2017531197A
Authority
JP
Japan
Prior art keywords
voice
data
character data
database
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016562268A
Other languages
English (en)
Other versions
JP6459080B2 (ja
Inventor
キム、ドン−ミュン
クウォン、ユン−スー
Original Assignee
エルジー・ケム・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エルジー・ケム・リミテッド filed Critical エルジー・ケム・リミテッド
Publication of JP2017531197A publication Critical patent/JP2017531197A/ja
Application granted granted Critical
Publication of JP6459080B2 publication Critical patent/JP6459080B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/04Protocols specially adapted for terminals or networks with limited capabilities; specially adapted for terminal portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72475User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users
    • H04M1/72481User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users for visually impaired users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本発明は、文字データの内容を文字データ送信者の音声で出力する方法を開示する。

Description

本発明は、文字データを出力する技術に関し、より詳しくは、端末機に伝送される文字データの内容を、文字データを送信した送信者の音声で出力する方法に関する。
本出願は、2014年8月6日出願の韓国特許出願第10−2014−0101232号及び2015年8月4日出願の韓国特許出願第10−2015−0110072号に基づく優先権を主張し、該当出願の明細書及び図面に開示された内容は、すべて本出願に援用される。
最近、移動通信技術の発達により音声通話のみならず文字メッセージが広く用いられている。このような音声通話及び文字メッセージの送受信は、携帯電話またはスマートフォンなどのような移動通信端末機を通じて行われている。
ところが、前記文字メッセージは、視覚的に認識可能な文字で出力されることが一般的である。即ち、文字メッセージの受信した端末は、文字メッセージを単に文字形式で出力するようになる。文字メッセージが単に文字形式で出力される場合、視覚障害者は文字メッセージの内容を把握することができず、視覚障害者のみならず、非障害者も業務、運動、運転などのような活動中には、文字メッセージの内容を把握しにくい場合がある。また、文字形式のメッセージはその自体の限界から感情や親しみを伝達しにくい。最近、移動通信端末機が広く用いられ、その活用度が高くなるにつれ、移動通信端末機を用いて端末機使用者の感性を刺激する技術が求められている。
本発明は、上記問題点に鑑みてなされたものであり、文字データの内容を文字データ送信者の音声で出力可能にすることを目的とする。
また、本発明は、文字メッセージ送信者との音声通話中に送受信した音声信号を用いて文字メッセージ送信者についての音声情報を持続的にアップデートすることで、通話量が増加するほど実際の送信者の声に近接した音声を出力可能にすることを他の目的とする。
本発明の他の目的及び長所は、下記する説明によって理解でき、本発明の実施例によってより明らかに分かるであろう。また、本発明の目的及び長所は、特許請求の範囲に示される手段及びその組合せによって実現することができる。
上記の課題を達成するため、本発明の一面による文字を音声で出力する方法は、通信端末を介して音声を出力する方法であって、送信端末が、文字データを受信端末へ伝送する段階と、前記受信端末が、前記送信端末が伝送した文字データの内容を前記文字データ送信者の音声で出力する段階と、を含む。
前記方法は、前記文字データ受信段階の前に、前記文字データ送信者の音声データについての音声データベースを構築する段階をさらに含むことができる。
前記音声データベースを構築する段階は、前記文字データ送信者の音声データと前記音声データに相応する文字データとをマッチした状態で保存する段階であり得る。
前記音声データベースを構築する段階は、前記文字データ送信者の音声データ及び前記音声データに相応する文字データを文章別、文節別及び音節別に区分して保存する段階であり得る。
前記音声データベースを構築する段階は、前記送信端末と前記受信端末を用いた音声通話中に送受信した音声データを用いて、前記文字データ送信者の音声データについての音声データベースを構築する段階であり得る。
前記音声データベースを構築する段階は、前記送信端末と前記受信端末による音声通話が反復されることによって構築される段階であり得る。
前記音声データベースを構築する段階は、前記送信端末と前記受信端末による音声通話を構成する音声データに相応する文字データのうち、既に構築された音声データベースに存在しない文字データを、前記音声データベースに存在しない文字データに相応する音声データと、文章別、文節別及び音節別に区分してマッチした状態でさらに保存することができる。
前記音声データベースを構築する段階は、前記送信端末と前記受信端末による音声通話を構成する音声データに相応する文字データのうち、既に構築された音声データベースに存在する文字データを、前記音声データベースに存在しない文字データに相応する音声データと、文章別、文節別及び音節別に区分してマッチした状態で更新保存することができる。
前記音声データベースを構築する段階の後、前記送信端末と前記受信端末による音声通話から構築した音声データベースの構築程度を定量化する段階をさらに含むことができる。
前記定量化する段階の後、前記定量化する段階で定量化した値に応じて音声データベースの構築程度を所定等級にグレーディングする段階をさらに含むことができる。
前記グレーディングする段階の後、前記受信端末が、前記グレーディングする段階でグレーディングした等級を表示部に出力する段階をさらに含むことができる。
前記グレーディングした等級を出力する段階は、前記所定等級によって異なる視覚情報を出力することができる。
前記定量化する段階は、前記音声データベースに区分して保存された音声データと文字データの文章別、文節別及び音節別個数を合算することで音声データベースの構築程度を文字データ送信者別に定量化する段階であり得る。
前記定量化する段階は、前記音声データベースに区分して保存された音声データと文字データの文章別、文節別及び音節別個数にそれぞれ加重値を付与し、文章別、文節別及び音節別個数にそれぞれ加重値を付与した値を合算することで音声データベースの構築程度を文字データ送信者別に定量化する段階であり得る。
前記文章別個数に付与される加重値は、前記文節別個数に付与される加重値よりも大きいか同一であり、前記文節別個数に付与される加重値は、前記音節別個数に付与される加重値よりも大きいか同一であり得る。
前記方法は、前記音声で出力する段階の前に、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在するかを照会する段階と、前記照会する段階の照会結果に基づき、前記送信端末が伝送した文字データに相応する音声データを音声データベースから抽出する段階と、前記抽出する段階で抽出した音声データを受信端末に伝送する段階と、をさらに含むことができる。
前記照会する段階の照会結果、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在する場合、前記音声データを抽出する段階は、前記音声データベースに保存された前記文字データ送信者の音声データを抽出する段階であり得る。
前記照会する段階の照会結果、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在しない場合、前記音声データを抽出する段階は、前記音声データベースに保存された機械音声を抽出する段階であり得る。
前記方法は、前記音声で出力する段階の前に、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在するかを照会する段階と、前記照会する段階の照会結果に基づき、前記送信端末が伝送した文字データに相応する音声データを音声データベースから抽出する段階と、前記抽出する段階で抽出した音声データを受信端末に伝送する段階と、をさらに含み、前記音声データを抽出する段階は、前記送信端末が伝送した文字データに含まれた文章に相応する文章とマッチされる音声データを音声データベースから抽出する文章抽出段階と、前記送信端末が伝送した文字データに含まれた文節に相応する文節とマッチされる音声データを音声データベースから抽出する文節抽出段階と、前記送信端末が伝送した文字データに含まれた音節に相応する音節とマッチされる音声データを音声データベースから抽出する音節抽出段階と、を含むことができる。
前記文節抽出段階は、前記文章抽出段階の後に行われ、前記文章抽出段階において、所定文章に対する音声データの抽出が成功的に行われれば、前記所定文章に対する文節抽出段階は行われず、前記音節抽出段階は、前記文節抽出段階の後に行われ、前記文節抽出段階において、所定文節に対する音声データの抽出が成功的に行われれば、前記所定文節に対する音節抽出段階は行われなくてもよい。
前記文章抽出段階、前記文節抽出段階及び前記音節抽出段階は、前記送信端末が伝送した文字データに含まれた二つ以上の文章に対して反復的に行われ得る。
上記の課題を達成するため、本発明の他面による文字を音声で出力するシステムは、通信網と、前記通信網を介して文字データを受信端末に伝送する送信端末と、前記通信網を介して前記送信端末が伝送した文字データに相応する音声データとして、前記文字データを伝送した文字データ送信者の音声データを出力する受信端末と、を含む。
前記通信網は、前記文字データ送信者の音声データに対する音声データベースを構築する音声サーバーを備えることができる。
前記音声サーバーは、前記文字データ送信者の音声データと前記音声データに相応する文字データとをマッチして前記音声データベースに保存できる。
前記音声サーバーは、前記文字データ送信者の音声データ及び前記音声データに相応する文字データを、文章別、文節別及び音節別に区分して保存できる。
前記音声サーバーは、前記送信端末と前記受信端末を用いた音声通話中に送受信した音声データを用いて、前記文字データ送信者の音声データに対する音声データベースを構築することができる。
前記音声サーバーは、前記送信端末と前記受信端末による音声通話が反復される度に、前記音声データベースを構築することができる。
前記音声サーバーは、前記送信端末と前記受信端末による音声通話を構成する音声データに相応する文字データのうち、既に構築された音声データベースに存在しない文字データを、前記音声データベースに存在しない文字データに相応する音声データと、文章別、文節別及び音節別に区分してマッチした状態でさらに保存可能である。
前記音声サーバーは、前記送信端末と前記受信端末による音声通話を構成する音声データに相応する文字データのうち、既に構築された音声データベースに存在する文字データを、前記音声データベースに存在しない文字データに相応する音声データと、文章別、文節別及び音節別に区分してマッチした状態で更新保存できる。
前記音声サーバーは、前記送信端末と前記受信端末による音声通話から構築した音声データベースの構築程度を定量化できる。
前記音声サーバーは、前記定量化した値に応じて音声データベースの構築程度を所定等級にグレーディングできる。
前記受信端末は、前記所定等級にグレーディングした等級を表示部に出力できる。
前記受信端末は、前記所定等級によって異なる視覚情報を出力することができる。
前記音声サーバーは、前記音声データベースに区分して保存された音声データと文字データの文章別、文節別及び音節別個数を合算することで音声データベースの構築程度を文字データ送信者別に定量化できる。
前記音声サーバーは、前記音声データベースに区分して保存された音声データと文字データの文章別、文節別及び音節別個数にそれぞれ加重値を付与し、文章別、文節別及び音節別個数にそれぞれ加重値を付与した値を合算することで音声データベースの構築程度を文字データ送信者別に定量化できる。
前記文章別個数に付与される加重値は、前記文節別個数に付与される加重値よりも大きいか同一であり、前記文節別個数に付与される加重値は、前記音節別個数に付与される加重値よりも大きいか同一であり得る。
前記音声サーバーは、前記送信端末が伝送した文字データを受信し、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在するかを照会した後、照会結果に基づき、前記送信端末が伝送した文字データに相応する音声データを前記音声データベースから抽出し、抽出した前記音声データを前記受信端末に伝送できる。
前記照会結果、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在する場合、前記音声サーバーは、前記音声データベースに保存された前記文字データ送信者の音声データを抽出することができる。
前記照会結果、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在しない場合、前記音声サーバーは、前記音声データベースに保存された機械音声の抽出が可能である。
前記音声サーバーは、前記送信端末が伝送した文字データを受信し、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在するかを照会した後、照会結果に基づき、前記送信端末が伝送した文字データに相応する音声データを前記音声データベースから抽出し、抽出した前記音声データを前記受信端末に伝送し、前記音声サーバーは、前記照会結果に基づき、前記送信端末が伝送した文字データに相応する音声データを前記音声データベースから抽出するに際し、前記送信端末が伝送した文字データに含まれた文字内容を前記音声データベースから照会し、前記送信端末が伝送した文字データに含まれた文章に相応する文章とマッチされる音声データ、前記送信端末が伝送した文字データに含まれた文節に相応する文節とマッチされる音声データ及び前記送信端末が伝送した文字データに含まれた音節に相応する音節とマッチされる音声データのうち少なくとも一つを抽出することができる。
前記音声サーバーは、前記送信端末が伝送した文字データに含まれた所定文章に相応する文章とマッチされる音声データが前記音声データベースに存在する場合、前記所定文章に対しては前記所定文章に相応する文章とマッチされる音声データのみを抽出し、前記送信端末が伝送した文字データに含まれた所定文節に相応する文節とマッチされる音声データが前記音声データベースに存在する場合、前記所定文節に対しては前記所定文節に相応する文節とマッチされる音声データのみを抽出することができる。
前記音声サーバーは、前記送信端末が伝送した文字データに含まれた二つ以上の文章に対して音声データを抽出することができる。
本発明によれば、送信端末が文字データを伝送するとき、受信端末は前記送信端末が伝送した文字データの内容を文字に加え、音声としても出力することができる。特に、本発明によれば、文字データを送信した送信者の音声で文字データの内容を出力することができる。
本発明の一面によれば、通信端末を用いた音声通話時、言い交わした音声データに基づいて通話者の音声をデータベース化するので、通話が反復するほど文字メッセージ送信者の実際の音声に近接した音声を出力することができる。
本発明の他面によれば、送信者が伝送した文字メッセージだけではなく、端末を用いて出力できる文字信号を送信者の音声で出力することができる。
本明細書に添付される次の図面は、本発明の望ましい実施例を例示するものであり、発明の詳細な説明とともに本発明の技術的な思想をさらに理解させる役割をするため、本発明は図面に記載された事項だけに限定されて解釈されてはならない。
本発明の一実施例による文字を音声で出力するシステムを示した図である。 本発明の一実施例による音声データベースを概略的に示した図である。 本発明の一実施例による音声データの抽出過程を示したフローチャートである。 本発明の一実施例による文字を音声に変換するシステムを用いて送信端末が送信した文字メッセージの一文章を、受信端末が音声で出力する過程を例示的に示した図である。 本発明の一実施例による文字を音声で出力する方法を概略的に示したフローチャートである。
以下、添付された図面を参照して本発明の望ましい実施例を詳しく説明する。これに先立ち、本明細書及び特許請求の範囲に使われた用語や単語は通常的や辞書的な意味に限定して解釈されてはならず、発明者自らは発明を最善の方法で説明するために用語の概念を適切に定義できるという原則に則して本発明の技術的な思想に応ずる意味及び概念で解釈されねばならない。
したがって、本明細書に記載された実施例及び図面に示された構成は、本発明のもっとも望ましい一実施例に過ぎず、本発明の技術的な思想のすべてを代弁するものではないため、本出願の時点においてこれらに代替できる多様な均等物及び変形例があり得ることを理解せねばならない。
なお、本発明の説明にあたり、本発明に関連する公知技術ついての具体的な説明が、不要に本発明の要旨をぼやかすと判断される場合、その詳細な説明を略する。
図1は、本発明の一実施例による文字を音声で出力するシステムを示した図である。
図1を参照すれば、本発明の一実施例による文字を音声で出力するシステムは、送信端末10、受信端末20及び移動通信網30を含む。
前記送信端末10及び受信端末20は、文字データを送受信できる通信端末であって、音声通話が可能な通信端末である。一例で、前記通信端末は、スマートフォンまたはタブレットPCなどであってもよい。図面においては送信端末10と受信端末20をスマートフォンとして示したが、スマートフォンは一例であり、本発明の送信端末10と受信端末20はスマートフォンに限定されない。
前記送信端末10が伝送する文字データは、受信端末20の表示部に文字で表示可能なデータである。より具体的に、前記送信端末10が伝送する文字データは、送信端末10で変調されて受信端末20に伝送されるデータであって、前記データは、受信端末20に伝送された後、受信端末20で復調されて表示部に文字で示されるデータである。一例で、前記文字データは、ビット(bit)の集合であり得る。
一実施例によれば、送信端末10の使用者、即ち、送信者が送信端末10に文字を入力して伝送すれば、前記文字は文字データに変調された後、移動通信網30を介して受信端末20に伝送される。
前記受信端末20は、伝送を受けた文字データを視覚的に認識可能な文字に復調して表示部に示すことができる。また、前記受信端末20は、伝送を受けた文字データだけではなく多様な視覚情報を前記表示部に出力することができる。
本発明の一実施例による受信端末20は、送信端末10が伝送した文字データの内容を文字で出力できるだけでなく、送信端末10が伝送した文字データの内容を音声で出力することができる。
より具体的に、前記受信端末20は、前記文字データの内容を、文字データを送信した送信者の音声で出力することができる。即ち、前記受信端末20は、文字データの内容を送信端末10の使用者の音声で出力することができる。
前記受信端末20は、音声出力のためにスピーカーを備えることができる。また、前記受信端末20は、送信端末10が伝送した文字データの内容を音声で出力するために、前記文字データに相応する音声データを外部から伝送を受けることができる。前記受信端末20は、外部から伝送された音声データをスピーカーを介して出力することができる。前記音声データは、受信端末20で復調されてスピーカーを介して出力可能なデータであって、ビットの集合であり得る。
前記受信端末20は、移動通信網30から伝送された文字データを復調した後、その内容を表示部に出力することもでき、移動通信網30から伝送された音声データを復調した後、音声信号をスピーカーを介して出力することもできる。
前記移動通信網30は、文字サーバー200及び音声サーバー100を備えることができる。前記移動通信網30は、文字サーバー200及び音声サーバー100を用いて、文字データ及び音声データを送受信することができる。
前記文字サーバー200は、送信端末10から文字データを受信し、受信端末20に文字データを伝送できる。また、前記文字サーバー200は、送信端末10から受信した文字データを保存する文字データベース210を備えることができる。
前記音声サーバー100は、文字データと前記文字データに相応する音声データとがマッチされた状態で保存された音声データベース110を含む。前記音声データベース110は、話者別に文字データと音声データとがマッチされた状態で保存された資料である。
また、一実施例によれば、前記音声データベース110には、文字データと音声データとが、文章別、文節別及び/または音節別に互いにマッチされた状態で保存可能である。例えば、前記音声データベース110には、「こんにちは。今日は寒いですね。」という文字データとこれに相応する音声データとがマッチされた状態で保存可能である。ここで、前記音声データベース110には、「こんにちは。」、「今日は寒いですね。」という二つの文章をそれぞれ文字データとこれに相応する音声データとがマッチされた状態で保存でき、「こんにちは」、「今日は」、「寒い」、「ですね」という文節に区切り、それぞれの文節に対する文字データとこれに相応する音声データとがマッチされた状態で保存でき、「こん」、「に」、「ち」、「は」、「きょう」、「は」、「さ」、「む」、「い」、「で」、「す」、「ね」という音節に区切り、それぞれの音節に対する文字データとこれに相応する音声データとがマッチされた状態で保存できる。そして、このような情報はそれぞれの話者別に音声データベース110に保存できる。
図2は、本発明の一実施例による音声データベース110を概略的に示した図である。
図2を参照すれば、本発明の一実施例による音声データベース110には、話者別に、文字データと音声データとがマッチされた状態で保存されている。即ち、本発明の一実施例による音声データベース110には、文字データと音声データとがマッチされた状態で保存されており、この際、話者別に区分された状態で文字データと音声データとが保存される。
さらには、本発明の一実施例による音声データベース110には、文字データ及びこれに相応する音声データが話者別に区分して保存されるだけでなく、各話者について、文章別、文節別及び音節別に区分して文字データと音声データが保存される。
一実施例によれば、前記音声データベース110は、送信端末10と受信端末20によって行われた通話から構築可能である。即ち、送信端末10と受信端末20により行われた通話から抽出した音声データを用いて音声データベース110を構築することができる。
一実施例によれば、前記音声サーバー100は、送信端末10と受信端末20によって行われた通話を構成する音声データを抽出することができる。この際、前記音声サーバー100は、通話を構成する音声データをリアルタイムで抽出するか、通話が終了した後に抽出することができる。前記音声サーバー100は、通話を構成する音声データを話者別に文章別、文節別、音節別にそれぞれ保存することができる。そして、前記音声サーバー100は、前記音声データから前記音声データに相応する文字データを抽出することができる。例えば、前述の例のように、前記音声サーバー100は、AとBとの通話で言われたAの挨拶である「こんにちは。今日は寒いですね。」という音声データから文章別、文節別、音節別に文字データを抽出することができる。この際、音声データからの文字抽出は、公知の音声認識技術などを用いて行うことができる。一実施例によれば、前記音声データからの文字抽出は、音節単位の音声認識に通じて音声データの全ての音節に対する文字抽出によって行うことができる。全ての音節に対する文字データの抽出が行われれば、音節別に音声データと文字データとをマッチした後、文節別に音声データと文字データとをマッチした後、文章別に音声データと文字データとをマッチする方式によって音節別、文節別、文章別に文字データと音声データとがマッチされた音声データベース110を構築することができる。
また、前記音声サーバー100は、送信端末10と受信端末20による音声通話が反復される度に音声データベース110を構築することができる。即ち、前記音声サーバー100は、送信端末10と受信端末20による音声通話が反復される度に音声データベース110をアップデートすることができる。前記音声サーバー100は、通話を構成する音声データが、既に構築された音声データベース110に存在するかを検索した後、通話を構成する音声データが、既に構築された音声データベース110に存在しない場合、前記音声データを前記音声データに相応する文字データとマッチして保存することができる。この際、音声データは、文字データと音節別、文節別、文章別にマッチされた状態で保存可能である。通話を構成する音声データが、既に構築された音声データベース110に存在する場合は、前記音声サーバー100は、既に構築された音声データベース110に存在する音声データを維持することもでき、既に構築された音声データベース110に存在する音声データを、最近データに更新することもできる。望ましくは、前記音声サーバー100は、既に構築された音声データベース110を更新する方式で前記音声データベース110をアップデートすることができる。
前記音声データベース110は、送信端末10と受信端末20による通話が多くなるほどアップデートされ、送信端末10の話者についての音声情報を漸進的に補完することができる。即ち、送信端末10と受信端末20による通話量が増加するほど音声データは話者の実際音声に近くなる。なぜなら、音節についての音声データが多くなるほど多様な文字を音声で表現することができ、文節または文章についての音声データが多くなるほど実際の音声に近い音声を出力することができるためである。
一実施例によれば、前記音声サーバー100は、送信端末10と受信端末20による音声通話から構築した音声データベース110の構築程度を定量化することができる。即ち、音声データベース110が構築された程度は、所定基準によって定量的に評価可能である。ここで、定量的に評価された値は所定等級に区分可能である。即ち、音声サーバー100は、音声データベース110の構築程度を定量化した値に応じて音声データベース110の構築程度を所定等級にグレーディングすることができる。
音声サーバー100が定量化した値及び/または定量化した値による等級は、音声データベース110または別途の保存媒体に保存することができ、受信端末20に伝送することができる。受信端末20は、前記定量化した値及び/または定量化した値による等級を音声サーバー100から伝送を受けて所定等級別に他の視覚情報を出力することができる。例えば、音声データベース110の構築程度が5つの等級に分けられる場合と仮定するとき、受信端末20は、1等級の場合、5つの星印(☆)を表示部に出力することができ、2等級の場合は4つの星印を出力することができ、3等級の場合は3つの星印、4等級は2つの星印、5等級の場合は一つの星印を出力することができる。ここで、星印(☆)で示される視覚情報は一例に過ぎず、多様な視覚情報を通じて音声データベース110の構築程度を表示部に示すこともできる。
なお、音声データベース110の構築程度を定量的に評価する方法は、多様に設定可能である。一実施例によれば、前記音声サーバー100は、音声データベース110に区分して保存された文章別、文節別及び音節別個数を合算することで音声データベース110の構築程度を文字データの送信者別に定量化することができる。例えば、音声データベース110に区分して保存された音声データと文字データの文章数が1,000個であり、文節数が10,000個であり、音節数が100,000個であると仮定すれば、音声データベースの構築程度は111,000(=1,000+10,000+100,000)と定量化することができる。他の実施例によれば、前記音声サーバー100は、音声データベース110に区分して保存された文章別、文節別及び音節別個数にそれぞれ加重値を付与し、文章別、文節別及び音節別個数にそれぞれ加重値を付与した値を合算することで音声データベース110の構築程度を定量化することができる。前記の例示のように、音声データベース110に区分して保存された音声データと文字データの文章数が1,000個であり、文節数が10,000個であり、音節数が100,000個であると仮定すれば、文章数にはaの加重値が付与され、文節数にはbの加重値が付与され、音節数にはcの加重値が付与され得る。したがって、音声データベース110の構築程度は、1,000×a+10,000×b+100,000×cと定量化することができる。望ましくは、文章別個数、文節別個数及び音節別個数にそれぞれ付与される加重値は、文章の完成度を考慮して次のように付与可能である。即ち、文章別個数に付与される加重値は、文節別個数に付与される加重値よりも大きいか同一であり、文節別個数に付与された加重値は、音節別個数に付与される加重値よりも大きいか同一となるように設定することが望ましい(即ち、前記例示においては、a≧b≧c)。
また、前記音声サーバー100は、外部から受信した文字データに相応する音声データを、前記音声データベース110から照会することができる。この際、前記音声サーバー100は、外部から受信した文字データに相応する音声データを話者別に照会することができる。そして、前記音声サーバー100は、文字データに相応する音声データを音声データベース110から抽出し、抽出した音声データを受信端末20に伝送することができる。例えば、Aという人が送信端末10を用いて文字データを受信端末20に伝送した場合、前記音声サーバー100は、Aという話者についての情報を音声データベース110から照会し、A話者についての音声データを抽出することができ、抽出したAの音声データを受信端末20に伝送することができる。
また、前記音声サーバー100は、外部から受信した文字データに相応する音声データを文章別、文節別、音節別に照会することができる。望ましくは、前記音声サーバー100は、文字データを文章、文節、音節の順に照会することができる。
図3は、本発明の一実施例による音声データの抽出過程を示したフローチャートである。
図3を参照すれば、本発明の一実施例による音声サーバー100は、次のような過程によって音声データベース110から音声データを抽出する。
先ず、音声サーバー100は、外部から文字データを受信する(S301)。例えば、図1に示したように、音声サーバー100は、文字サーバー200から文字データを受信することができる。続いて、音声サーバー100は、受信した文字データを送信した者についての情報が音声データベース110に存在するかを照会する(S303)。音声サーバー100の照会結果、音声データベース110に文字データ送信者についての情報が保存されていれば、文字データに相応する送信者の音声データを抽出する過程を行い、そうでなければ、文字データを機械音声に変換する過程を行う(S315)。
より具体的に、音声サーバー100の照会結果、音声データベース110に文字データ送信者についての情報が保存されている場合、音声サーバー100は、文字データの文章に相応する文章が音声データベース110に存在するかを照会する(S305)。文字データの文章に相応する文章が音声データベース110に存在する場合、音声サーバー100は、文字データの文章とマッチされる音声データ(文章)を音声データベース110から抽出する(S307)。一方、文字データの文章に相応する文章が音声データベース110に存在しない場合、音声サーバー100は、文字データの文節に相応する文節が音声データベース110に存在するかを照会する(S309)。文字データの文節に相応する文節が音声データベース110に存在する場合、音声サーバー100は、音声データベース110から文字データの文節とマッチされる音声データ(文節)を抽出する(S311)。一方、文字データの文節に相応する文節が音声データベース110に存在しない場合、音声サーバー100は、文字データの音節とマッチされる音声データ(音節)を抽出する(S313)。
音声データベース110に送信者の情報が存在する場合、音声サーバー100は、文字データの文章別に前述の過程(S305〜S313)を反復して文字データの全部についての音声データを抽出することができる。音声サーバー100は、抽出した音声データを受信端末20に伝送し、受信端末20が送信者の音声で文字を出力するようにする。
一方、文字データの音節とマッチされる音声データが音声データベース110に存在しない場合、音声サーバー100は、音声資料が不足で音声変換が不可能というメッセージを受信端末20に伝送するか、文字データを既に保存されていた機械音声に変換し、これを受信端末20に伝送することができる。文字データを機械音声に変換するに際し、音声サーバー100は音声資料が不足な音節に対してのみ機械音声に変換することもでき、文章全体を機械音声に変換することもでき、不足な音節に対しては音声変換を行わないこともできる。前記機械音声は、送信者別の音声データと同様に音声データベース110に保存可能であり、知られた多様な音節、文節、文章についての音声データが文字データとマッチされた状態で音声データベース110に保存可能である。
また、音声データベース110に送信者の情報が存在するかを判断した結果、音声データベース110に送信者の情報が存在しない場合は、文字データを既に保存された機械音声に変換することができる。前記機械音声は、音声データベース110に予め保存可能である。
図4は、本発明の一実施例による文字を音声に変換するシステムを用いて送信端末10が送信した文字メッセージの一文章を受信端末20が音声で出力する過程を例示的に示した図である。
図4を参照すれば、本発明の一実施例による文字を音声に変換するシステムは、送信端末10、受信端末20、移動通信網30を含む。前記移動通信網30は、文字サーバー200、音声サーバー100を含み、前記音声サーバー100には音声データベース110が備えられる。図4の例示において音声サーバー100に備えられた音声データベース110は、話者別に文字データが音声データとマッチされた状態で構築されているだけでなく、文字データと音声データとが、文章別、文節別、音節別にそれぞれ音声データとマッチされた状態で構築されている。また、図4の例示において、話者Aに係わる音声データベース110は、「こんにちは」という文章または文節と、「今日は」、「寒い」という文節と、「こん」、「に」、「ち」、「は」、「きょう」、「は」、「さ」、「む」、「い」、「で」、「す」、「ね」という音節とそれぞれマッチされる音声データを、各文章、文節、音節とマッチした状態で保存している。
先ず、送信端末10が「こんにちは。今日は寒いですね。」という文字メッセージを受信端末20に伝送すれば、文字データは文字サーバー200に伝送され、文字サーバー200は受信した文字データを受信端末20と音声サーバー100に伝送する。音声サーバー100は、受信した文字データを伝送した送信者であるAの情報がデータベースに存在するかを照会する。前提したように、Aの情報がデータベースに存在するため、音声サーバー100は、文章のマッチングを行う。即ち、音声サーバー100は、受信した文字データに含まれた文章が音声データベース110に存在するかを照会する。前提したように、最初の文章である「こんにちは」が音声データベース110に存在するため、音声サーバー100は、「こんにちは」とマッチされる音声データ(A音声_文章1)を抽出する。続いて、音声サーバー100は、二番目の文章である「今日は寒いですね」が音声データベース110に存在するかを照会する。前提したように、音声データベース110には、「今日は寒いですね」という文章に相応する情報が存在しないため、音声サーバー100は、文節マッチングを行う。即ち、音声サーバー100は、受信した文字データに含まれた文節が音声データベース110に存在するかを照会する。前提したように二番目の文章である「今日は寒いですね」のうち、一番目の文節と二番目の文節が音声データベース110に存在するため、音声サーバー100は、「今日は」とマッチされる音声データ(A音声_文節1)と、「寒い」とマッチされる音声データ(A音声_文節2)を抽出する。しかし、「ですね」とマッチされる音声データが音声データベース110に存在しないため、音声サーバー100は二番目の文章の三番目の文節に対しては音節マッチングを行う。即ち、音声サーバー100は、三番目の文節である「ですね」を構成する音節である「で」「す」「ね」とそれぞれマッチされる音声データであるA音声_音節9、A音声_音節10、A音声_音節11を抽出する。
以下、本発明の一実施例による文字を音声で出力する方法について説明する。本発明の一実施例による文字を音声で出力する方法は上述の文字を音声で出力するシステムを用いた方法であり得る。即ち、本発明の一実施例による文字を音声で出力する方法の主体は、前述のシステムを構成する構成要素のうちの少なくとも一つであり得る。
図5は、本発明の一実施例による、文字を音声で出力する方法を概略的に示したフローチャートである。
図5を参照すれば、本発明の一実施例による文字を音声で出力する方法は、図示した各段階によって行うことができる。
先ず、前記方法は、話者別に文字データと音声データとがマッチされた音声データベース110を構築する段階を行う(S510)。ここで、前記音声データは各話者に対して、文章別、文節別及び音節別に文字データとマッチされた状態で保存することができる。前記音声データベース110は、多様な方法によって構築することができる。望ましくは、前記音声データベース110は、受信端末20と送信端末10によって行われる音声通話中に伝送される音声データを用いて構築することができる。
続いて、送信端末10が文字データを受信端末20へ伝送する(S520)。この際、送信端末10が伝送した文字データは、文字サーバー200を介して受信端末20に伝送可能であり、文字サーバー200を介して音声サーバー100に送信することができる。次に、音声サーバー100は、送信端末10が伝送した文字データを伝送した送信者ないし送信端末10についての情報が音声データベース110に存在するかを照会する。音声サーバー100は、文字データを伝送した送信者についての情報が音声データベース110に存在する場合、音声データベース110から前記文字データとマッチされる音声データを抽出する(S530)。望ましくは、前記音声サーバー100は、文字データとマッチされる音声データを、文章別、文節別、音節別に順次照会して実際の話者の音声に近接した音声データを抽出する。その次に、音声サーバー100は、文字データとマッチされる音声データを受信端末20に伝送する。その後、受信端末20は、文字データとマッチされる音声データをスピーカーを介して出力する(S540)。これによって、受信端末20は文字データを伝送した者の音声で文字データに相応する音声を出力することができる。選択的に、受信端末20は、文字を表示部に出力するとともに、音声をスピーカーを介して出力することができる。この際、受信端末20には音声出力の要否を選択できるボタンまたはアイコンなどが存在し、ボタンが押されるかアイコンが選択されたとき、受信端末20が音声を出力するように構成することができる。また、受信端末20は、音声データベース110の構築程度を示す等級に相応する視覚情報を表示部に出力し、音声データベース110の構築程度を受信端末20の使用者に見せることができる。受信端末20の使用者は、音声データベース110の構築程度を示す視覚情報を通じ、音声データベース110の構築程度を直ちに把握することができる。また、受信端末20の使用者は、音声データベース110の構築程度を通じて送信端末10の使用者との音声通話による交流程度を間接的に把握することができる。したがって、受信端末20の使用者と送信端末10の使用者との音声通話を誘導することができる。
一方、前記方法によってデータベース化した送信端末10の話者の音声情報は、送信端末10から伝送された文字データのみならず、他の如何なる文字データの変換にも用いることができる。一例で、受信端末20は、受信端末20に保存された本、文書などを、データベース化した送信端末10の話者の音声で出力することもできる。他の例で、受信端末20は、データベース化した送信端末10の話者の音声で歌を出力することもできる。さらに他の例で、質問に答弁するアプリケーションにおいて、出力される声を、データベース化した送信端末10の話者の音声に変更することもできる。例えば、iOS用アプリケーションであるシリ(siri)の応答を送信端末10の話者の音声に変更することができる。
これによって、受信端末20の使用者は、送信端末10の話者と実際に話し合うように感じることができ、通信端末を、伴侶動物のように伴侶器機化することができる。
なお、上述の方法は、プログラム化してコンピューターで判読可能な記録媒体に保存される形態に具現することもできる。
なお、上述の例示において、音声変換及びデータベース化の作業は、移動通信網30で行われることと記載したが、本発明はこれに限定されない。即ち、前記作業は、送信端末10または受信端末20で行うこともでき、一部は移動通信網30のサーバー上で行ってもよく、残りの一部は、送信端末10または受信端末20で行ってもよい。
以上のように、本発明を限定された実施例と図面によって説明したが、本発明はこれに限定されるものではなく、本発明の属する技術分野で通常の知識を持つ者によって本発明の技術思想と特許請求の範囲の均等範囲内で多様な修正及び変形が可能であることは言うまでもない。

Claims (42)

  1. 通信端末を介して音声を出力する方法であって、
    送信端末が、文字データを受信端末へ伝送する段階と、
    前記受信端末が、前記送信端末が伝送した文字データの内容を文字データ送信者の音声で出力する段階と、
    を含む文字を音声で出力する方法。
  2. 文字データ受信段階の前に、
    前記文字データ送信者の音声データについての音声データベースを構築する段階をさらに含む請求項1に記載の文字を音声で出力する方法。
  3. 前記音声データベースを構築する段階は、前記文字データ送信者の音声データと前記音声データに相応する文字データとをマッチした状態で保存する段階である請求項2に記載の文字を音声で出力する方法。
  4. 前記音声データベースを構築する段階は、前記文字データ送信者の音声データ及び前記音声データに相応する文字データを、文章別、文節別及び音節別に区分して保存する段階である請求項3に記載の文字を音声で出力する方法。
  5. 前記音声データベースを構築する段階は、前記送信端末と前記受信端末を用いた音声通話中に送受信した音声データを用いて、前記文字データ送信者の音声データについての音声データベースを構築する段階である請求項4に記載の文字を音声で出力する方法。
  6. 前記音声データベースを構築する段階は、前記送信端末と前記受信端末による音声通話が反復されることによって構築される段階である請求項5に記載の文字を音声で出力する方法。
  7. 前記音声データベースを構築する段階は、前記送信端末と前記受信端末による音声通話を構成する音声データに相応する文字データのうち、既に構築された音声データベースに存在しない文字データを、前記音声データベースに存在しない文字データに相応する音声データと、文章別、文節別及び音節別に区分してマッチした状態でさらに保存する請求項6に記載の文字を音声で出力する方法。
  8. 前記音声データベースを構築する段階は、前記送信端末と前記受信端末による音声通話を構成する音声データに相応する文字データのうち、既に構築された音声データベースに存在する文字データを、前記音声データベースに存在しない文字データに相応する音声データと、文章別、文節別及び音節別に区分してマッチした状態で更新保存する請求項7に記載の文字を音声で出力する方法。
  9. 前記音声データベースを構築する段階の後、前記送信端末と前記受信端末による音声通話から構築した音声データベースの構築程度を定量化する段階をさらに含む請求項8に記載の文字を音声で出力する方法。
  10. 前記定量化する段階の後、前記定量化する段階で定量化した値に応じて音声データベースの構築程度を所定等級にグレーディングする段階をさらに含む請求項9に記載の文字を音声で出力する方法。
  11. 前記グレーディングする段階の後、前記受信端末が、前記グレーディングする段階でグレーディングした等級を表示部に出力する段階をさらに含む請求項10に記載の文字を音声で出力する方法。
  12. 前記グレーディングした等級を出力する段階は、前記所定等級によって異なる視覚情報を出力する請求項11に記載の文字を音声で出力する方法。
  13. 前記定量化する段階は、前記音声データベースに区分して保存された音声データと文字データの文章別、文節別及び音節別個数を合算することで音声データベースの構築程度を文字データ送信者別に定量化する段階である請求項9に記載の文字を音声で出力する方法。
  14. 前記定量化する段階は、前記音声データベースに区分して保存された音声データと文字データの文章別個数、文節別個数及び音節別個数にそれぞれ加重値を付与し、文章別個数、文節別個数及び音節別個数にそれぞれ加重値を付与した値を合算することで音声データベースの構築程度を文字データ送信者別に定量化する段階である請求項9に記載の文字を音声で出力する方法。
  15. 前記文章別個数に付与される加重値は、前記文節別個数に付与される加重値よりも大きいか同一であり、前記文節別個数に付与される加重値は、前記音節別個数に付与される加重値よりも大きいか同一である請求項14に記載の文字を音声で出力する方法。
  16. 前記音声で出力する段階の前に、
    前記音声データベースに前記文字データ送信者の情報と一致する情報が存在するかを照会する段階と、
    前記照会する段階の照会結果に基づき、前記送信端末が伝送した文字データに相応する音声データを音声データベースから抽出する段階と、
    前記抽出する段階で抽出した音声データを受信端末に伝送する段階と、をさらに含む請求項2から請求項4のうちいずれか一項に記載の文字を音声で出力する方法。
  17. 前記照会する段階の照会結果、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在する場合、前記音声データを抽出する段階は、前記音声データベースに保存された前記文字データ送信者の音声データを抽出する段階である請求項16に記載の文字を音声で出力する方法。
  18. 前記照会する段階の照会結果、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在しない場合、前記音声データを抽出する段階は、前記音声データベースに保存された機械音声を抽出する段階である請求項16に記載の文字を音声で出力する方法。
  19. 前記音声で出力する段階の前に、
    前記音声データベースに前記文字データ送信者の情報と一致する情報が存在するかを照会する段階と、
    前記照会する段階の照会結果に基づき、前記送信端末が伝送した文字データに相応する音声データを音声データベースから抽出する段階と、
    前記抽出する段階で抽出した音声データを受信端末に伝送する段階と、をさらに含み、
    前記音声データを抽出する段階は、
    前記送信端末が伝送した文字データに含まれた文章に相応する文章とマッチされる音声データを音声データベースから抽出する文章抽出段階と、
    前記送信端末が伝送した文字データに含まれた文節に相応する文節とマッチされる音声データを音声データベースから抽出する文節抽出段階と、
    前記送信端末が伝送した文字データに含まれた音節に相応する音節とマッチされる音声データを音声データベースから抽出する音節抽出段階と、
    を含む請求項4に記載の文字を音声で出力する方法。
  20. 前記文節抽出段階は、前記文章抽出段階の後に行われ、
    前記文章抽出段階において、所定文章に対する音声データの抽出が成功的に行われれば、前記所定文章に対する文節抽出段階は行われず、
    前記音節抽出段階は、前記文節抽出段階の後に行われ、
    前記文節抽出段階において、所定文節に対する音声データの抽出が成功的に行われれば、前記所定文節に対する音節抽出段階は行われない請求項19に記載の文字を音声で出力する方法。
  21. 前記文章抽出段階、前記文節抽出段階及び前記音節抽出段階は、前記送信端末が伝送した文字データに含まれた二つ以上の文章に対して反復的に行われる請求項20に記載の文字を音声で出力する方法。
  22. 通信網と、
    前記通信網を介して文字データを受信端末に伝送する送信端末と、
    前記通信網を介して前記送信端末が伝送した文字データに相応する音声データとして、前記文字データを伝送した文字データ送信者の音声データを出力する受信端末と、を含む文字を音声で出力するシステム。
  23. 前記通信網は、前記文字データ送信者の音声データに対する音声データベースを構築する音声サーバーを備える請求項22に記載の文字を音声で出力するシステム。
  24. 前記音声サーバーは、前記文字データ送信者の音声データと前記音声データに相応する文字データとをマッチして前記音声データベースに保存する請求項23に記載の文字を音声で出力するシステム。
  25. 前記音声サーバーは、前記文字データ送信者の音声データ及び前記音声データに相応する文字データを、文章別、文節別及び音節別に区分して保存する請求項24に記載の文字を音声で出力するシステム。
  26. 前記音声サーバーは、前記送信端末と前記受信端末を用いた音声通話中に送受信した音声データを用いて、前記文字データ送信者の音声データに対する音声データベースを構築する請求項25に記載の文字を音声で出力するシステム。
  27. 前記音声サーバーは、前記送信端末と前記受信端末による音声通話が反復される度に、前記音声データベースを構築する請求項26に記載の文字を音声で出力するシステム。
  28. 前記音声サーバーは、前記送信端末と前記受信端末による音声通話を構成する音声データに相応する文字データのうち、既に構築された音声データベースに存在しない文字データを、前記音声データベースに存在しない文字データに相応する音声データと、文章別、文節別及び音節別に区分してマッチした状態でさらに保存する請求項27に記載の文字を音声で出力するシステム。
  29. 前記音声サーバーは、前記送信端末と前記受信端末による音声通話を構成する音声データに相応する文字データのうち、既に構築された音声データベースに存在する文字データを、前記音声データベースに存在しない文字データに相応する音声データと、文章別、文節別及び音節別に区分してマッチした状態で更新保存する請求項28に記載の文字を音声で出力するシステム。
  30. 前記音声サーバーは、前記送信端末と前記受信端末による音声通話から構築した音声データベースの構築程度を定量化する請求項29に記載の文字を音声で出力するシステム。
  31. 前記音声サーバーは、前記定量化した値に応じて音声データベースの構築程度を所定等級にグレーディングする請求項30に記載の文字を音声で出力するシステム。
  32. 前記受信端末は、前記所定等級にグレーディングした等級を表示部に出力する請求項31に記載の文字を音声で出力するシステム。
  33. 前記受信端末は、前記所定等級によって異なる視覚情報を出力する請求項32に記載の文字を音声で出力するシステム。
  34. 前記音声サーバーは、前記音声データベースに区分して保存された音声データと文字データの文章別、文節別及び音節別個数を合算することで音声データベースの構築程度を文字データ送信者別に定量化する請求項30に記載の文字を音声で出力するシステム。
  35. 前記音声サーバーは、前記音声データベースに区分して保存された音声データと文字データの文章別個数、文節別個数及び音節別個数にそれぞれ加重値を付与し、文章別個数、文節別個数及び音節別個数にそれぞれ加重値を付与した値を合算することで音声データベースの構築程度を文字データ送信者別に定量化する請求項30に記載の文字を音声で出力するシステム。
  36. 前記文章別個数に付与される加重値は、前記文節別個数に付与される加重値よりも大きいか同一であり、前記文節別個数に付与される加重値は、前記音節別個数に付与される加重値よりも大きいか同一である請求項35に記載の文字を音声で出力するシステム。
  37. 前記音声サーバーは、前記送信端末が伝送した文字データを受信し、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在するかを照会した後、照会結果に基づき、前記送信端末が伝送した文字データに相応する音声データを前記音声データベースから抽出し、抽出した前記音声データを前記受信端末に伝送する請求項23から請求項25のうちいずれか一項に記載の文字を音声で出力するシステム。
  38. 前記照会結果、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在する場合、前記音声サーバーは、前記音声データベースに保存された前記文字データ送信者の音声データを抽出する請求項37に記載の文字を音声で出力するシステム。
  39. 前記照会結果、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在しない場合、前記音声サーバーは、前記音声データベースに保存された機械音声を抽出する請求項37に記載の文字を音声で出力するシステム。
  40. 前記音声サーバーは、前記送信端末が伝送した文字データを受信し、前記音声データベースに前記文字データ送信者の情報と一致する情報が存在するかを照会した後、照会結果に基づき、前記送信端末が伝送した文字データに相応する音声データを前記音声データベースから抽出し、抽出した前記音声データを前記受信端末に伝送し、
    前記音声サーバーは、前記照会結果に基づき、前記送信端末が伝送した文字データに相応する音声データを前記音声データベースから抽出するに際し、前記送信端末が伝送した文字データに含まれた文字内容を前記音声データベースから照会し、前記送信端末が伝送した文字データに含まれた文章に相応する文章とマッチされる音声データ、前記送信端末が伝送した文字データに含まれた文節に相応する文節とマッチされる音声データ、及び前記送信端末が伝送した文字データに含まれた音節に相応する音節とマッチされる音声データのうち少なくとも一つを抽出する請求項36に記載の文字を音声で出力するシステム。
  41. 前記音声サーバーは、前記送信端末が伝送した文字データに含まれた所定文章に相応する文章とマッチされる音声データが前記音声データベースに存在する場合、前記所定文章に対しては前記所定文章に相応する文章とマッチされる音声データのみを抽出し、前記送信端末が伝送した文字データに含まれた所定文節に相応する文節とマッチされる音声データが前記音声データベースに存在する場合、前記所定文節に対しては前記所定文節に相応する文節とマッチされる音声データのみを抽出する請求項40に記載の文字を音声で出力するシステム。
  42. 前記音声サーバーは、前記送信端末が伝送した文字データに含まれた二つ以上の文章に対して音声データの抽出を行う請求項41に記載の文字を音声で出力するシステム。
JP2016562268A 2014-08-06 2015-08-05 文字データの内容を文字データ送信者の音声で出力する方法 Active JP6459080B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2014-0101232 2014-08-06
KR20140101232 2014-08-06
KR1020150110072A KR101703214B1 (ko) 2014-08-06 2015-08-04 문자 데이터의 내용을 문자 데이터 송신자의 음성으로 출력하는 방법
KR10-2015-0110072 2015-08-04
PCT/KR2015/008210 WO2016021937A1 (ko) 2014-08-06 2015-08-05 문자 데이터의 내용을 문자 데이터 송신자의 음성으로 출력하는 방법

Publications (2)

Publication Number Publication Date
JP2017531197A true JP2017531197A (ja) 2017-10-19
JP6459080B2 JP6459080B2 (ja) 2019-01-30

Family

ID=55448064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016562268A Active JP6459080B2 (ja) 2014-08-06 2015-08-05 文字データの内容を文字データ送信者の音声で出力する方法

Country Status (7)

Country Link
US (1) US9812121B2 (ja)
EP (1) EP3035718B1 (ja)
JP (1) JP6459080B2 (ja)
KR (1) KR101703214B1 (ja)
CN (1) CN105556999A (ja)
TW (1) TWI613641B (ja)
WO (1) WO2016021937A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017537562A (ja) * 2014-12-11 2017-12-14 ビットディフェンダー アイピーアール マネジメント リミテッド 自動的なデバイス検出、デバイス管理およびリモート援助のためのシステムおよび方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101834546B1 (ko) * 2013-08-28 2018-04-13 한국전자통신연구원 핸즈프리 자동 통역 서비스를 위한 단말 장치 및 핸즈프리 장치와, 핸즈프리 자동 통역 서비스 방법
CN105096934B (zh) * 2015-06-30 2019-02-12 百度在线网络技术(北京)有限公司 构建语音特征库的方法、语音合成方法、装置及设备
CN105868419A (zh) * 2016-06-02 2016-08-17 泉港区奇妙工业设计服务中心 一种童伴机器人搜索学习装置
CN106603573A (zh) * 2017-01-17 2017-04-26 国家电网公司 一种对非智能话机终端推送文本消息的装置和方法
US10147415B2 (en) * 2017-02-02 2018-12-04 Microsoft Technology Licensing, Llc Artificially generated speech for a communication session
TWI690814B (zh) * 2017-12-15 2020-04-11 鴻海精密工業股份有限公司 文字資訊處理裝置及方法、電腦存儲介質及移動終端
US10726843B2 (en) * 2017-12-20 2020-07-28 Facebook, Inc. Methods and systems for responding to inquiries based on social graph information
US11398218B1 (en) * 2018-04-26 2022-07-26 United Services Automobile Association (Usaa) Dynamic speech output configuration
CN110634466B (zh) * 2018-05-31 2024-03-15 微软技术许可有限责任公司 具有高感染力的tts处理技术
WO2020145428A1 (ko) * 2019-01-08 2020-07-16 엘지전자 주식회사 단말기
CN109979440B (zh) * 2019-03-13 2021-05-11 广州市网星信息技术有限公司 关键词样本确定方法、语音识别方法、装置、设备和介质
CN113096645A (zh) * 2021-03-31 2021-07-09 闽江学院 电话语音的处理方法
CN113268981B (zh) * 2021-05-27 2023-04-28 咪咕音乐有限公司 一种信息处理方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001350490A (ja) * 2000-06-09 2001-12-21 Fujitsu Ltd テキスト音声変換装置及び方法
JP2003202885A (ja) * 2001-12-28 2003-07-18 Canon Electronics Inc 情報処理装置及び方法
JP2006501509A (ja) * 2002-10-04 2006-01-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 個人適応音声セグメントを備える音声合成装置
JP2008129434A (ja) * 2006-11-22 2008-06-05 Oki Electric Ind Co Ltd 音声合成サーバシステム
JP2011155354A (ja) * 2010-01-26 2011-08-11 Nec Corp 音声メール実現システム、音声メール実現サーバ、その方法及びそのプログラム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US706510A (en) * 1901-11-27 1902-08-12 Augustus Beitney Art of manufacturing plate-ice.
KR100259918B1 (ko) * 1998-03-05 2000-06-15 윤종용 핸즈프리키트의 쇼트메시지 음성합성 장치 및 방법
FI115868B (fi) * 2000-06-30 2005-07-29 Nokia Corp Puhesynteesi
KR20010035173A (ko) 2001-01-10 2001-05-07 백종관 음성 합성 훈련 툴킷을 이용한 개인용 음성 합성기 및 그방법
KR20020091920A (ko) * 2001-06-01 2002-12-11 엘지전자 주식회사 이동통신 단말기에서의 음성 및 문자 통화 장치
US7177801B2 (en) 2001-12-21 2007-02-13 Texas Instruments Incorporated Speech transfer over packet networks using very low digital data bandwidths
US20040267531A1 (en) * 2003-06-30 2004-12-30 Whynot Stephen R. Method and system for providing text-to-speech instant messaging
US8666746B2 (en) * 2004-05-13 2014-03-04 At&T Intellectual Property Ii, L.P. System and method for generating customized text-to-speech voices
KR20060061612A (ko) * 2004-12-02 2006-06-08 주식회사 팬택 문자 메시지의 음성 안내 방법 및 그에 따른 저장매체 및그에 따른 통신 단말기
US7706510B2 (en) * 2005-03-16 2010-04-27 Research In Motion System and method for personalized text-to-voice synthesis
US7716052B2 (en) * 2005-04-07 2010-05-11 Nuance Communications, Inc. Method, apparatus and computer program providing a multi-speaker database for concatenative text-to-speech synthesis
KR20070010360A (ko) 2005-07-18 2007-01-24 주식회사 팬택앤큐리텔 이동 통신 단말기의 음성 서비스 방법
US8224647B2 (en) * 2005-10-03 2012-07-17 Nuance Communications, Inc. Text-to-speech user's voice cooperative server for instant messaging clients
KR20070049730A (ko) * 2005-11-09 2007-05-14 엘지전자 주식회사 무선 통신망을 통한 음성 정보 서비스 방법
US7584104B2 (en) * 2006-09-08 2009-09-01 At&T Intellectual Property Ii, L.P. Method and system for training a text-to-speech synthesis system using a domain-specific speech database
US8886537B2 (en) * 2007-03-20 2014-11-11 Nuance Communications, Inc. Method and system for text-to-speech synthesis with personalized voice
US8107978B2 (en) 2007-04-25 2012-01-31 Kirusa Inc. Addressing voice SMS messages
JP2009025658A (ja) * 2007-07-20 2009-02-05 Oki Electric Ind Co Ltd 音声合成装置、音声合成システム
US7996473B2 (en) * 2007-07-30 2011-08-09 International Business Machines Corporation Profile-based conversion and delivery of electronic messages
CN101378530A (zh) * 2007-08-30 2009-03-04 乐金电子(中国)研究开发中心有限公司 一种短信收发方法、系统及短信服务器
CN101593516B (zh) 2008-05-28 2011-08-24 国际商业机器公司 语音合成的方法和系统
CN101605307A (zh) * 2008-06-12 2009-12-16 深圳富泰宏精密工业有限公司 文本短信语音播放系统及方法
JP2010020166A (ja) * 2008-07-11 2010-01-28 Ntt Docomo Inc 音声合成モデル生成装置、音声合成モデル生成システム、通信端末、及び音声合成モデル生成方法
EP2205010A1 (en) * 2009-01-06 2010-07-07 BRITISH TELECOMMUNICATIONS public limited company Messaging
TWI415110B (zh) 2009-03-02 2013-11-11 Ibm 用於語音合成之方法及系統
KR20110051580A (ko) * 2009-11-10 2011-05-18 엘지전자 주식회사 음성 프로파일을 이용한 맞춤형 tts 서비스 제공 방법 및 그 단말
CN102117614B (zh) * 2010-01-05 2013-01-02 索尼爱立信移动通讯有限公司 个性化文本语音合成和个性化语音特征提取
CN102655544A (zh) 2011-03-01 2012-09-05 联想(北京)有限公司 一种发起通信的方法及通信终端
CN102740244A (zh) 2011-04-13 2012-10-17 深圳市汉讯通科技有限公司 一种语音短信系统及其实现方法
TWI574254B (zh) 2012-01-20 2017-03-11 華碩電腦股份有限公司 用於電子系統的語音合成方法及裝置
CN103856626A (zh) * 2012-11-29 2014-06-11 北京千橡网景科技发展有限公司 个性声音的定制方法和装置
CN103281683B (zh) 2013-06-08 2016-08-17 网易(杭州)网络有限公司 一种发送语音消息的方法及装置
CN103794206B (zh) * 2014-02-24 2017-04-19 联想(北京)有限公司 将文本数据转换为语音数据的方法以及终端设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001350490A (ja) * 2000-06-09 2001-12-21 Fujitsu Ltd テキスト音声変換装置及び方法
JP2003202885A (ja) * 2001-12-28 2003-07-18 Canon Electronics Inc 情報処理装置及び方法
JP2006501509A (ja) * 2002-10-04 2006-01-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 個人適応音声セグメントを備える音声合成装置
JP2008129434A (ja) * 2006-11-22 2008-06-05 Oki Electric Ind Co Ltd 音声合成サーバシステム
JP2011155354A (ja) * 2010-01-26 2011-08-11 Nec Corp 音声メール実現システム、音声メール実現サーバ、その方法及びそのプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017537562A (ja) * 2014-12-11 2017-12-14 ビットディフェンダー アイピーアール マネジメント リミテッド 自動的なデバイス検出、デバイス管理およびリモート援助のためのシステムおよび方法
US11706051B2 (en) 2014-12-11 2023-07-18 Bitdefender IPR Management Ltd. Systems and methods for automatic device detection, device management, and remote assistance

Also Published As

Publication number Publication date
US9812121B2 (en) 2017-11-07
TW201633289A (zh) 2016-09-16
EP3035718B1 (en) 2018-03-21
JP6459080B2 (ja) 2019-01-30
EP3035718A4 (en) 2017-04-05
KR20160017625A (ko) 2016-02-16
WO2016021937A1 (ko) 2016-02-11
EP3035718A1 (en) 2016-06-22
KR101703214B1 (ko) 2017-02-06
US20160210960A1 (en) 2016-07-21
TWI613641B (zh) 2018-02-01
CN105556999A (zh) 2016-05-04

Similar Documents

Publication Publication Date Title
JP6459080B2 (ja) 文字データの内容を文字データ送信者の音声で出力する方法
CN104488027B (zh) 声音处理系统
US9047868B1 (en) Language model data collection
KR20090085376A (ko) 문자 메시지의 음성 합성을 이용한 서비스 방법 및 장치
US20100211389A1 (en) System of communication employing both voice and text
WO2016203805A1 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN106713111B (zh) 一种添加好友的处理方法、终端及服务器
CN103546623A (zh) 用于发送语音信息及其文本描述信息的方法、装置与设备
Landicho VOISEE COMMUNICATOR: An Android Mobile Application for Hearing-impaired and Blind Communications.
CN105721292A (zh) 一种信息读取方法、装置及终端
CN114064943A (zh) 会议管理方法、装置、存储介质及电子设备
CN107767862B (zh) 语音数据处理方法、系统及存储介质
EP3679570A1 (en) Named entity pronunciation generation for speech synthesis and speech recognition
CN105376143B (zh) 一种识别发送者身份的方法及装置
WO2015156443A1 (ko) 카툰형 모바일 개인 비서 서비스 시스템
CN110728992B (zh) 音频数据的处理方法、装置、服务器及存储介质
CN111968630B (zh) 信息处理方法、装置和电子设备
CN105989832A (zh) 一种用于在计算机设备中生成个性化语音的方法和装置
CN108073804B (zh) 一种风险识别方法和装置
JP6434799B2 (ja) メッセージ処理装置、端末装置、及びコンピュータプログラム
KR102238973B1 (ko) 대화 데이터베이스를 이용한 대화문장 추천 방법 및 그것이 적용된 음성대화장치
CN107092696B (zh) 一种主动发起会话的方法
ZHANG et al. AidServer: Design and Research of a Communication Accessibility Service System for Hearing Impaired Servers in Silent Restaurants
KR20080053817A (ko) 음성 출력 방법 및 시스템
CN113763929A (zh) 一种语音评测方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181213

R150 Certificate of patent or registration of utility model

Ref document number: 6459080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250