JP2006339965A - Mobile terminal device and speech synthesizing method - Google Patents

Mobile terminal device and speech synthesizing method Download PDF

Info

Publication number
JP2006339965A
JP2006339965A JP2005161280A JP2005161280A JP2006339965A JP 2006339965 A JP2006339965 A JP 2006339965A JP 2005161280 A JP2005161280 A JP 2005161280A JP 2005161280 A JP2005161280 A JP 2005161280A JP 2006339965 A JP2006339965 A JP 2006339965A
Authority
JP
Japan
Prior art keywords
unit
word
character string
display
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005161280A
Other languages
Japanese (ja)
Inventor
Koji Saijo
晃司 西條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2005161280A priority Critical patent/JP2006339965A/en
Publication of JP2006339965A publication Critical patent/JP2006339965A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile terminal device and a speech synthesizing method that make it possible to simply and easily know meanings of many words. <P>SOLUTION: When a user operates a key operation part 15 to specify a portion of a character string displayed at a display part 18, a text selection part 25 selects the specified character string. When the character string that the text selection part 26 selects includes a word, a text conversion part 27 acquires a reading and a meaning of the word by retrieval from a dictionary stored in a storage part 14, converts the word into the reading, and outputs it to a speech synthesis part 17, which pronounces the word. When the word is not registered in the dictionary in the storage part 14, a dictionary acquisition part 28 communicates with an unillustrated server device where a dictionary is held as a database through a communication part 12 to acquire the reading and meaning of the word. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、各種情報を表示する表示部及び各種情報を音声でユーザに報知する機能を備える携帯端末装置、及び音声合成方法に関する。   The present invention relates to a display unit for displaying various types of information, a mobile terminal device having a function for notifying a user of various types of information by voice, and a speech synthesis method.

携帯電話機、簡易型携帯電話機(PHS(登録商標))、PDA(Personal Digital Assistants)等の携帯端末装置は、高機能化に伴ってユーザによる操作キーの操作内容、メールの内容、その他の各種情報を表示する表示装置を備えてるものが一般的になっている。この表示装置としては一般的には液晶表示装置が用いられており、近年においては有機EL装置も用いられる機会が増えている。   Mobile terminal devices such as mobile phones, simple mobile phones (PHS (registered trademark)), PDA (Personal Digital Assistants), etc., have become more sophisticated, so that the operation contents of operation keys by users, mail contents, and various other information In general, a display device that includes a display device is displayed. As this display device, a liquid crystal display device is generally used, and in recent years, an opportunity to use an organic EL device is increasing.

また、近年においては、上記の各種情報を音声データに変換する音声処理部を備えるものも開発されている。この音声処理部により、例えばメールの内容、発着信履歴、着信相手を示す情報等の各種情報が音声で読み上げられ、これによりユーザの利便性が向上する。また、以下の特許文献1には、着信時に相手先が予め登録されている場合には、予め記憶されている応答メッセージに相手先の名前の音声データを挿入したものを応答メッセージとして相手先に送出するようにした技術が開示されている。
特開2001−103147号公報
In recent years, those equipped with an audio processing unit that converts the above-described various types of information into audio data have been developed. By this voice processing unit, for example, various information such as mail contents, outgoing / incoming history, and information indicating the other party are read out by voice, thereby improving the convenience for the user. Further, in Patent Document 1 below, when a destination is registered in advance at the time of an incoming call, a response message in which voice data of the name of the destination is inserted into a response message stored in advance is sent to the destination as a response message. A technique for sending is disclosed.
JP 2001-103147 A

ところで、ユーザが携帯電話機を使用しているときに、表示装置に表示されている内容の一部の意味を調べたい場合等が生ずる。例えば、受信したメールにユーザの知らない単語が含まれている場合である。近年の携帯電話機は高機能化が進んで辞書機能を備えているものも開発されており、この辞書機能を使用すればユーザが知らない単語の読みや意味を調べることができるとも考えられる。   By the way, when a user uses a mobile phone, there is a case where it is desired to check the meaning of a part of the contents displayed on the display device. For example, it is a case where the received mail contains a word that the user does not know. In recent years, mobile phones have been developed to have advanced functions and have a dictionary function. If this dictionary function is used, it may be possible to check the reading and meaning of words unknown to the user.

ここで、上記の音声処理部により一度メールを読み上げれば、その単語の読みを知ることはできるが、文章の先頭から読み上げるのみであり、暫く聞き続けねばならず時間を要した。また、上記の辞書機能を用いて意味検索する場合には、検索する単語の読みを入力する必要があるため、単語の読みを知らなければ意味を検索することはできないということもある。   Here, once the e-mail is read aloud by the voice processing unit, the reading of the word can be known, but it is only read from the beginning of the sentence, and it takes time to listen to it for a while. In the case of performing a semantic search using the above dictionary function, it is necessary to input a reading of a word to be searched. Therefore, it is sometimes impossible to search for a meaning without knowing the reading of the word.

本発明は、上記事情に鑑みてなされたものであり、簡便且つ容易に多くの単語の意味を知ることができる携帯端末装置、及び音声合成方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a mobile terminal device and a speech synthesis method that can easily and easily know the meanings of many words.

上記課題を解決するために、本発明の携帯端末装置は、ユーザにより操作される操作部と、単語を含む文字列を表示する表示部とを備える携帯端末装置において、前記単語と前記単語の読みとを対応づけて記憶する記憶部と、文字列に前記記憶部に記憶する単語が含まれる場合には、前記単語に対応づけられた前記読みに変換した上で前記文字列を音声に変換する音声変換部と、前記操作部の操作内容に応じて前記表示部に表示される前記文字列のうちの一部が選択された場合に、選択された文字列のみを前記音声変換部により変換させる制御を行う制御部とを備えることを特徴としている。
また、本発明の携帯端末装置は、前記記憶部が、前記単語と対応させて前記単語の意味を示す意味情報を記憶し、前記制御部は、前記選択された文字列を前記音声変換部に変換させる際に、前記意味情報も併せて音声に変換させる制御を行うことを特徴としている。
また、本発明の携帯端末装置は、前記表示部に表示される文字列を形態素解析して複数の単語に分解する解析部を備え、前記制御部は、前記複数の単語のうちの何れか1つを前記操作部に選択可能にする制御を行うことを特徴としている。
更に、本発明の携帯端末装置は、前記操作部が、複数の操作キーを備えており、前記制御部は、前記解析部によって分解された前記複数の単語の各々に対して所定の表示形態で前記表示部に表示させるとともに、前記複数の単語と前記操作部の各々の操作キーとの対応付けを行って前記操作キーの何れか1つの操作により前記複数の単語のうちの何れか1つの選択を可能にする制御を行うことを特徴としている。
ここで、本発明の携帯端末装置は、前記表示形態が、前記複数の単語の表示色を変えるものであり、前記制御部は、前記表示色と前記操作キーとの対応関係を示す情報を前記表示部に表示する制御を行うことを特徴としている。
或いは、本発明の携帯端末装置は、前記表示形態が、前記複数の単語に対して前記操作キーに対応づけた番号を付して表示するものであり、前記制御部は、前記番号と前記操作キーとの対応関係を示す情報を前記表示部に表示する制御を行い、操作キーが操作されると対応する番号の付される単語を選択することを特徴としている。
更に、本発明の携帯端末装置は、有線又は無線により前記単語の辞書を記憶するサーバ装置と通信を行う通信部と、前記操作部により選択された文字列に含まれる単語が前記記憶部に記憶されていない場合には、前記通信部を介して当該単語に関する情報を取得する取得部とを備えることを特徴としている。
ここで、本発明の携帯端末装置は、前記制御部が、前記取得部により取得した単語に関する情報を前記記憶部に記憶させる制御を行うことを特徴としている。
上記課題を解決するために、本発明の音声合成方法は、ユーザにより操作される操作部と、単語を含む文字列を表示する表示部とを備える携帯端末装置における音声合成方法であって、前記ユーザによる前記操作部の操作内容に応じて、前記表示部に表示された前記文字列の内の一部を選択する選択ステップと、前記選択ステップで選択された文字列に単語が含まれる場合には、当該単語を単語の読みに変換した上で前記選択された文字列を音声に変換する変換ステップとを含むことを特徴としている。
In order to solve the above problems, a mobile terminal device according to the present invention is a mobile terminal device including an operation unit operated by a user and a display unit that displays a character string including a word. If the word stored in the storage unit is included in the character string, the character string is converted into speech after being converted into the reading associated with the word. When a part of the character string displayed on the display unit according to the operation content of the voice conversion unit and the operation unit is selected, only the selected character string is converted by the voice conversion unit. And a control unit that performs control.
In the mobile terminal device of the present invention, the storage unit stores semantic information indicating the meaning of the word in association with the word, and the control unit stores the selected character string in the voice conversion unit. When converting, the semantic information is also controlled to be converted into speech.
In addition, the mobile terminal device of the present invention includes an analysis unit that morphologically analyzes a character string displayed on the display unit and breaks it into a plurality of words, and the control unit is any one of the plurality of words. It is characterized in that control is performed so that one can be selected by the operation unit.
Furthermore, in the mobile terminal device of the present invention, the operation unit includes a plurality of operation keys, and the control unit displays a predetermined display form for each of the plurality of words decomposed by the analysis unit. In addition to displaying on the display unit, associating the plurality of words with each operation key of the operation unit, and selecting any one of the plurality of words by operating any one of the operation keys It is characterized by performing control that makes possible.
Here, in the mobile terminal device of the present invention, the display form changes a display color of the plurality of words, and the control unit receives information indicating a correspondence relationship between the display color and the operation key. It is characterized by performing control to display on the display unit.
Alternatively, in the mobile terminal device of the present invention, the display form displays the plurality of words with numbers associated with the operation keys, and the control unit displays the numbers and the operations. Control is performed to display information indicating a correspondence relationship with a key on the display unit, and when an operation key is operated, a corresponding numbered word is selected.
Furthermore, the mobile terminal device of the present invention stores a word included in a character string selected by the operation unit and a communication unit that communicates with the server device that stores the word dictionary by wire or wireless in the storage unit. If not, an acquisition unit that acquires information related to the word via the communication unit is provided.
Here, the mobile terminal device of the present invention is characterized in that the control unit performs control to store information on the word acquired by the acquisition unit in the storage unit.
In order to solve the above problems, a speech synthesis method of the present invention is a speech synthesis method in a portable terminal device including an operation unit operated by a user and a display unit that displays a character string including a word, A selection step of selecting a part of the character string displayed on the display unit according to the operation content of the operation unit by a user, and a case where a word is included in the character string selected in the selection step Includes a conversion step of converting the word into a reading of the word and converting the selected character string into speech.

本発明によれば、ユーザによる操作内容に応じて、表示部に表示された文字列の内の一部が選択され、選択された文字列に単語が含まれる場合には、この単語を単語の読みに変換した上で選択された文字列が音声に変換されるため、このため、簡便且つ容易に単語の意味を知ることができるという効果がある。   According to the present invention, when a part of the character string displayed on the display unit is selected according to the operation content by the user, and the word is included in the selected character string, the word is Since the character string selected after conversion into reading is converted into speech, this has the effect that the meaning of the word can be easily and easily known.

以下、図面を参照して本発明の一実施形態による携帯端末装置及び音声合成方法について詳細に説明する。図1は、本発明の一実施形態による携帯端末装置としての携帯電話機の外観を示す図である。図1に示す通り、携帯電話機1は、第1の筐体2と第2の筐体3とをヒンジ部4により互いに折り畳み自在に連結してなるものである。   Hereinafter, a mobile terminal device and a speech synthesis method according to an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram illustrating an appearance of a mobile phone as a mobile terminal device according to an embodiment of the present invention. As shown in FIG. 1, the mobile phone 1 is formed by connecting a first housing 2 and a second housing 3 so as to be foldable with a hinge portion 4.

第1の筐体2の内部には通話キー、終話キー、テンキー、ソフトキー等の各種の操作キー5及びマイクロフォン6が設けられており、これらは、折り畳んだ際に第2の筐体3と対向する第1の筐体2の対向面7側に露出している。第2の筐体3の内部には、液晶表示装置、有機EL表示装置等の表示装置8及びスピーカー9が設けられており、表示装置8の表示面8a及びスピーカー9は、折り畳んだ際に第1の筐体2と対向する第2の筐体3の対向面10側に配されている。   Various operation keys 5 such as a call key, a call end key, a numeric keypad, and a soft key and a microphone 6 are provided inside the first casing 2, and these are arranged when the second casing 3 is folded. It is exposed on the facing surface 7 side of the first housing 2 facing the. A display device 8 such as a liquid crystal display device or an organic EL display device and a speaker 9 are provided inside the second housing 3, and the display surface 8 a and the speaker 9 of the display device 8 are first folded when folded. It is arranged on the facing surface 10 side of the second housing 3 facing the one housing 2.

表示装置8は、不図示の基地局と携帯電話機1との通信状態、ユーザによる操作キー5の操作内容を示す操作情報、メールの内容等の各種情報を表示するためのものであり、平面視略矩形状に形成されている。また、マイクロフォン6及びスピーカー9は、第1の筐体2と第2の筐体3とを相互に開いた状態にてアンテナ(図2参照)を介して、無線通話を行ったり、音楽再生や音声録音時に使用するものである。尚、図示は省略しているが、第1の筐体2の側面には、マイクロフォン、スピーカー、及び操作キーを備えるイヤホンマイク(図2参照)を接続するためのコネクタが設けられている。   The display device 8 is for displaying various information such as a communication state between a base station (not shown) and the mobile phone 1, operation information indicating operation contents of the operation keys 5 by the user, contents of mail, etc. It is formed in a substantially rectangular shape. In addition, the microphone 6 and the speaker 9 perform a wireless call, music playback, or the like via the antenna (see FIG. 2) with the first housing 2 and the second housing 3 opened to each other. Used when recording audio. Although not shown, a connector for connecting an earphone microphone (see FIG. 2) including a microphone, a speaker, and operation keys is provided on the side surface of the first housing 2.

図2は、携帯電話機1の要部構成を示すブロック図である。尚、図2においては、携帯電話機1に接続されるイヤホンマイクの構成も併せて図示している。図2に示す通り、携帯電話機1は、アンテナ11、通信部12、CPU13、記憶部14、キー操作部15、音声処理部16、音声合成部17、表示部18、マイクロフォン部19、スピーカー部20、及びコネクタ21を含んで構成される。また、イヤホンマイク30は、マイクロフォン31、スピーカ32、及びキー操作部33を含んで構成され、コネクタ21を介して携帯電話機1と電気的に接続される。尚、イヤホンマイク30は携帯電話機1と着脱可能である。   FIG. 2 is a block diagram showing a main configuration of the mobile phone 1. In FIG. 2, the configuration of the earphone microphone connected to the mobile phone 1 is also illustrated. As shown in FIG. 2, the mobile phone 1 includes an antenna 11, a communication unit 12, a CPU 13, a storage unit 14, a key operation unit 15, a voice processing unit 16, a voice synthesis unit 17, a display unit 18, a microphone unit 19, and a speaker unit 20. And the connector 21. The earphone microphone 30 includes a microphone 31, a speaker 32, and a key operation unit 33, and is electrically connected to the mobile phone 1 via the connector 21. The earphone microphone 30 can be attached to and detached from the mobile phone 1.

アンテナ11は、不図示の基地局からの電波を受信するとともに、基地局に向けて電波を送信する。通信部12はアンテナ11で受信された信号の検波、復調、周波数変換等を行って受信信号をCPU13に出力するとともに、CPU13から出力される送信信号の変調、周波数変換等を行い、この信号をアンテナ11に出力する。尚、通信部12から出力される受信信号、及びCPU13から出力される送信信号は、音声を示す音声信号又はメールの内容、後述する単語に関する情報等を表すデータ信号を含むものである。また、通信部は、不図示の基地局を介して後述する辞書がデータベース化してある不図示のサーバ装置に接続して通信を行う。   The antenna 11 receives a radio wave from a base station (not shown) and transmits the radio wave toward the base station. The communication unit 12 performs detection, demodulation, frequency conversion, etc. of the signal received by the antenna 11 and outputs the received signal to the CPU 13, and also performs modulation, frequency conversion, etc. of the transmission signal output from the CPU 13, Output to the antenna 11. Note that the reception signal output from the communication unit 12 and the transmission signal output from the CPU 13 include a voice signal indicating voice or a content of a mail, a data signal representing information about a word to be described later, and the like. Further, the communication unit communicates by connecting to a server device (not shown) in which a later-described dictionary forms a database via a base station (not shown).

CPU13は、携帯電話機1の動作を制御する。具体的には、通信部12から出力される受信信号に含まれる音声信号に対して所定の処理を施して音声合成部17に出力するとともに、音声処理部16から出力される音声信号に対して所定の処理を施して送信信号として通信部12に出力する。また、図示は省略しているが、携帯電話機1は、メーラー、ブラウザ等のアプリケーションプログラムが実装されており、CPU13がこのアプリケーションプログラムを実行することで、メールの送受信、ブラウジング(インターネットに接続されたサイトの閲覧)が実現される。   The CPU 13 controls the operation of the mobile phone 1. Specifically, the audio signal included in the reception signal output from the communication unit 12 is subjected to predetermined processing and output to the audio synthesis unit 17, and the audio signal output from the audio processing unit 16 is output. Predetermined processing is performed and output to the communication unit 12 as a transmission signal. Although not shown, the mobile phone 1 is installed with application programs such as a mailer and a browser, and the CPU 13 executes this application program to send and receive mail and to browse (connect to the Internet). Site browsing) is realized.

また、本実施形態1の携帯電話機1は、表示部18に表示される文字列(テキスト)の形態素解析を行う解析プログラム、及びユーザにより指定された単語の読み及び意味を音声により通知する補助プログラムが実装されている。これらのプログラムをCPU13が実行することで、図2に示すテキスト選択部25、テキスト解析部26、テキスト変換部27、及び辞書取得部28が実現される。   The cellular phone 1 according to the first embodiment also includes an analysis program that performs morphological analysis of a character string (text) displayed on the display unit 18 and an auxiliary program that notifies the reading and meaning of a word specified by the user by voice. Has been implemented. When the CPU 13 executes these programs, the text selection unit 25, the text analysis unit 26, the text conversion unit 27, and the dictionary acquisition unit 28 shown in FIG. 2 are realized.

テキスト選択部25は、表示部18に表示された文字列のうち、ユーザによるキー操作部15の操作内容に応じた一部の文字列を選択する。テキスト解析部26は、表示部18に表示された文字列の形態素解析を行い、表示部18に表示された文字列を単語を含む文字列群に分解する。テキスト変換部27は、テキスト選択部25によって選択された文字列に単語(表示部18には漢字で表示されている)が含まれる場合には、記憶部14に記憶された辞書を検索してその単語をその読みに変換する。   The text selection unit 25 selects a part of the character strings displayed on the display unit 18 according to the operation content of the key operation unit 15 by the user. The text analysis unit 26 performs morphological analysis of the character string displayed on the display unit 18 and decomposes the character string displayed on the display unit 18 into a character string group including words. When the character string selected by the text selection unit 25 includes a word (displayed in kanji on the display unit 18), the text conversion unit 27 searches the dictionary stored in the storage unit 14. Convert the word into its reading.

辞書取得部28は、テキスト変換部27が記憶部14に記憶された辞書を検索した場合に検索対象の単語が見つからないときには、通信部12を介して辞書がデータベース化してある不図示のサーバ装置に接続し、その単語の読み及び意味を示す情報を取得する。また、辞書取得部28は、記憶部14の記憶容量に余裕がある場合、又はユーザから指示を受けた場合には、その単語を記憶部14に記憶された辞書に追加登録する処理を行う。   When the text conversion unit 27 searches the dictionary stored in the storage unit 14 and the search target word is not found, the dictionary acquisition unit 28 is a server device (not shown) in which the dictionary is converted into a database via the communication unit 12. To obtain information indicating the reading and meaning of the word. Further, when the storage capacity of the storage unit 14 is sufficient or when an instruction is received from the user, the dictionary acquisition unit 28 performs a process of additionally registering the word in the dictionary stored in the storage unit 14.

また、CPU13は、表示部18の表示内容を制御する。具体的には、基地局と携帯電話機1との通信状態及びユーザによるキー操作部15の操作内容を示す操作情報の表示制御を行うとともに、前述したメーラー又はブラウザが起動されている場合には、これらを実現するアプリケーションプログラムから出力されるデータ(表示部18に表示させるためのデータ)の表示制御を行う。   Further, the CPU 13 controls the display content of the display unit 18. Specifically, while performing display control of operation information indicating the communication state between the base station and the mobile phone 1 and the operation content of the key operation unit 15 by the user, and when the mailer or browser described above is activated, Display control of data (data to be displayed on the display unit 18) output from an application program that realizes these is performed.

記憶部14は、受信したメール、通信相手の電話番号又はメールアドレスからなるアドレス帳、単語とその読み及びその意味とが対応づけられた辞書を記憶する。尚、記憶部14の記憶容量が制限される場合には、単語とその読みのみとが対応づけられた辞書を記憶させても良い。尚、この記憶部14は、取り外し不可能なメインメモリと取り外し可能な外部メモリとから構成されるのが望ましい。かかる構成とすることで、例えば取り外し可能な外部メモリに辞書を記憶させることで辞書の交換が可能となる。   The storage unit 14 stores a received mail, an address book made up of a communication partner's telephone number or mail address, and a dictionary in which words are associated with their readings and their meanings. If the storage capacity of the storage unit 14 is limited, a dictionary in which only words and their readings are associated may be stored. The storage unit 14 is preferably composed of a non-removable main memory and a removable external memory. With this configuration, it is possible to exchange dictionaries by storing the dictionaries in a removable external memory, for example.

キー操作部15は、図1に示す操作キー5を含んで構成され、ユーザによる操作内容に応じた信号をCPU13に出力する。音声処理部16は、マイクロフォン部19から出力される音声信号をディジタル信号に変換するとともに、この信号に対する圧縮処理を行ってCPU13に出力する。音声合成部17は、CPU13から出力される音声データの伸長処理を行うとともに、アナログ信号に変換してスピーカー部20に出力する。   The key operation unit 15 includes the operation keys 5 shown in FIG. 1, and outputs a signal corresponding to the operation content by the user to the CPU 13. The audio processing unit 16 converts the audio signal output from the microphone unit 19 into a digital signal, performs compression processing on the signal, and outputs the signal to the CPU 13. The voice synthesizer 17 performs a decompression process on the voice data output from the CPU 13, converts it into an analog signal, and outputs it to the speaker unit 20.

表示部18は、図1に示す表示装置8を含んで構成され、CPU13から出力される信号に基づいた表示を行う。マイクロフォン部19は、ユーザにより発せられた音声を音声信号に変換して音声処理部16に出力する。スピーカ部20は、音声合成部17から出力される音声信号を音声に変換する。尚、マイクロフォン部19には図1に示すマイクロフォン6が設けられており、スピーカ部20には図1に示すスピーカー9が設けられている。   The display unit 18 includes the display device 8 shown in FIG. 1 and performs display based on a signal output from the CPU 13. The microphone unit 19 converts voice uttered by the user into a voice signal and outputs the voice signal to the voice processing unit 16. The speaker unit 20 converts the audio signal output from the audio synthesis unit 17 into audio. The microphone unit 19 is provided with the microphone 6 shown in FIG. 1, and the speaker unit 20 is provided with the speaker 9 shown in FIG.

イヤホンマイク30は、携帯電話機1と接続され、マイクロフォン31がユーザの口元、スピーカー32がユーザの耳元、キー操作部33が手元又は胸元に配置された状態で使用されるものである。イヤホンマイク30を携帯電話機1のコネクタ21に接続すると、携帯電話機1に設けられたマイクロフォン部19及びスピーカ部20が無効となり、イヤホンマイク30に設けられたマイクロフォン31及びスピーカー32が有効となる。尚、イヤホンマイク30に設けられたキー操作部33は携帯電話機1に設けられたキー操作部15と併用して使用することが可能である。   The earphone microphone 30 is connected to the mobile phone 1 and is used in a state where the microphone 31 is placed at the user's mouth, the speaker 32 is placed at the user's ear, and the key operation unit 33 is placed at the hand or chest. When the earphone microphone 30 is connected to the connector 21 of the mobile phone 1, the microphone unit 19 and the speaker unit 20 provided in the mobile phone 1 are disabled, and the microphone 31 and the speaker 32 provided in the earphone microphone 30 are enabled. The key operation unit 33 provided on the earphone microphone 30 can be used in combination with the key operation unit 15 provided on the mobile phone 1.

次に、上記構成における携帯電話機1の動作について説明する。尚、以下の説明では、携帯電話機1の表示部18(表示装置8)にメールの内容を表示させ、この表示内容の一部に携帯電話機1のユーザにとって読みの分からない単語が少なくとも1つ含まれている場合の動作を例に挙げて説明する。尚、以下の説明では、“五月雨”(読み:さみだれ)がユーザの読みの分からない単語であるとする。   Next, the operation of the mobile phone 1 having the above configuration will be described. In the following description, the content of the mail is displayed on the display unit 18 (display device 8) of the mobile phone 1, and at least one word that the user of the mobile phone 1 cannot understand is included in a part of the display content. An example of the operation in this case will be described. In the following description, it is assumed that “May rain” (reading: samidare) is a word that the user does not understand.

まず、携帯電話機1にメールが受信されると、携帯電話機1のCPU13は表示部18にその旨を表示させ、音声合成部17を介してスピーカー部20から着信音を出力させ、又は不図示のバイブレータ機能により携帯電話機1を振動させて、メールが受信された旨をユーザに知らせる。ユーザがキー操作部15に対して所定の操作を行うと、受信したメールの内容が表示部18に表示される。メールの内容が表示部18に表示されると、CPU13の制御の下で表示部18に表示されている文字列に対して形態素解析により単語を抽出する処理が行われ、その解析結果を反映させた表示が行われる。   First, when a mail is received by the mobile phone 1, the CPU 13 of the mobile phone 1 displays a message to that effect on the display unit 18 and outputs a ring tone from the speaker unit 20 via the voice synthesis unit 17, or not shown. The mobile phone 1 is vibrated by the vibrator function to notify the user that mail has been received. When the user performs a predetermined operation on the key operation unit 15, the content of the received mail is displayed on the display unit 18. When the content of the mail is displayed on the display unit 18, a process of extracting words by morphological analysis is performed on the character string displayed on the display unit 18 under the control of the CPU 13, and the analysis result is reflected. Displayed.

図3は、単語抽出シーケンスを示すフローチャートである。このシーケンスが開始されると、テキスト解析部26は、不図示のメーラーからメールの内容を示す文字列を取得する(ステップS11)。次に、テキスト解析部26は、ステップS11で取得した文字列のうち、表示部18の表示領域に表示されている或いは表示すべき文字列を取得する(ステップS12)。そして、この文字列を単語に分割する処理を行う(ステップS13)。   FIG. 3 is a flowchart showing a word extraction sequence. When this sequence is started, the text analysis unit 26 acquires a character string indicating the content of the mail from a mailer (not shown) (step S11). Next, the text analysis unit 26 acquires a character string displayed or to be displayed in the display area of the display unit 18 among the character strings acquired in step S11 (step S12). And the process which divides this character string into a word is performed (step S13).

つまり、テキスト解析部26は、表示部18に表示されている文字列に対して少なくとも形態素解析を行う。メールの内容を示す文字列が長くて表示部18に表示されていない部分については形態素解析を行わなくとも良い。ここで、表示部18の表示領域に表示されている文字列に対してのみステップS13の処理を行うと、文字列が長い場合に形態素解析に要する時間が長くなることを防ぐこともできる。   That is, the text analysis unit 26 performs at least morphological analysis on the character string displayed on the display unit 18. It is not necessary to perform morphological analysis on the part of the character string indicating the content of the mail that is long and is not displayed on the display unit 18. Here, if the process of step S13 is performed only on the character string displayed in the display area of the display unit 18, it is possible to prevent the time required for the morphological analysis from increasing when the character string is long.

図4は、図3中のステップS13で行われる単語分割シーケンス(形態素解析)を示すフローチャートである。尚、図4に示すフローチャートは、ユーザが意味情報を必要とすることが多い名詞と動詞とを主な対象としたものである。また、図4において、符号R1を付した部分は熟語を抽出するルーチンを示し、符号R2を付した部分は熟語以外を抽出するルーチンである。尚、以下の説明では、理解の容易のために、分割対象の文字列が“五月雨が降る。”である場合を例に挙げて説明する。   FIG. 4 is a flowchart showing the word division sequence (morpheme analysis) performed in step S13 in FIG. Note that the flowchart shown in FIG. 4 is mainly for nouns and verbs that often require semantic information. In FIG. 4, the part denoted by reference symbol R <b> 1 represents a routine for extracting idioms, and the part denoted by reference symbol R <b> 2 is a routine for extracting items other than idioms. In the following description, for ease of understanding, a case where the character string to be divided is “May rain” will be described as an example.

テキスト解析部26は、分割対象の文字列から1文字を抽出する抽出位置を示す変数(以下、「抽出文字位置」という)と、分割対象の文字列の内の処理済みである文字の位置を示す変数(以下、「処理済み文字位置」という)と、抽出した文字を一時的に記憶する領域(以下、「テンポラリ領域」という)とを用いて図4に示すフローチャートを実行する。単語分割シーケンスが開始されると、テキスト解析部26は、処理済み文字位置及び抽出文字位置の値を初期化(値を「0」に設定)し(ステップS21)、次いでテンポラリ領域を初期化する(ステップS22)。そして、処理済み文字位置に値「1」を加算(インクリメント)した値を抽出文字位置の値に設定する(ステップS23)。   The text analysis unit 26 calculates a variable indicating the extraction position for extracting one character from the character string to be divided (hereinafter referred to as “extracted character position”) and the position of the processed character in the character string to be divided. The flowchart shown in FIG. 4 is executed using the variable shown (hereinafter referred to as “processed character position”) and the area for temporarily storing the extracted character (hereinafter referred to as “temporary area”). When the word division sequence is started, the text analysis unit 26 initializes the values of the processed character position and the extracted character position (sets the values to “0”) (step S21), and then initializes the temporary area. (Step S22). Then, a value obtained by adding (incrementing) the value “1” to the processed character position is set as the value of the extracted character position (step S23).

以上の初期化処理が終了すると、テキスト解析部26は、文字列の抽出文字位置で示される位置にある1文字を抽出する(ステップS24)。ここでは、抽出文字位置の値が「1」であるため、文字列“五月雨が降る。”の最初の文字である‘五’が抽出される。次に、抽出した文字が漢字であるか否かを判断する(ステップS25)。ここで、抽出した文字‘五’は漢字であるため、ステップS25の判断結果は「YES」となり、テキスト解析部26は、この文字をテンポラリ領域に追加し(ステップS26)、次いで抽出文字位置の値をインクリメントする(ステップS27)。   When the above initialization process is completed, the text analysis unit 26 extracts one character at the position indicated by the extracted character position in the character string (step S24). Here, since the value of the extracted character position is “1”, “5” that is the first character of the character string “May rain falls” is extracted. Next, it is determined whether or not the extracted character is a Chinese character (step S25). Here, since the extracted character '5' is a Chinese character, the determination result in step S25 is "YES", and the text analysis unit 26 adds this character to the temporary area (step S26), and then the extracted character position. The value is incremented (step S27).

ステップS27の処理を終えると、テキスト解析部26は、再度文字列の抽出文字位置で示される位置にある1文字を抽出する(ステップS24)。ここでは、抽出文字位置の値が「2」であるため、文字列“五月雨が降る。”の2番目の文字である‘月’が抽出される。この文字は漢字であるため、ステップS25の判断結果が「YES」となり、テキスト解析部26は、この文字をテンポラリ領域に追加し(ステップS26)、次いで抽出文字位置の値をインクリメントする(ステップS27)。以下同様に、ステップS25の判断結果が「YES」である間はステップS24〜S27の処理が繰り返される。   When the process of step S27 is completed, the text analysis unit 26 again extracts one character at the position indicated by the extracted character position of the character string (step S24). Here, since the value of the extracted character position is “2”, “Month”, which is the second character of the character string “May rain”, is extracted. Since this character is a Chinese character, the determination result in step S25 is “YES”, and the text analysis unit 26 adds this character to the temporary area (step S26), and then increments the value of the extracted character position (step S27). ). Similarly, while the determination result in step S25 is “YES”, the processes in steps S24 to S27 are repeated.

抽出文字位置の値が「4」となって、文字列“五月雨が降る。”の4番目の文字である‘が’が抽出されると、この文字はひらがなであるため、ステップS25の判断結果は「NO」となる。ステップS25の判断結果が「NO」になると、テキスト解析部26はテンポラリ領域の文字数が2文字以上であるか否かを判断する(ステップS28)。ここで、テンポラリ領域には文字列“五月雨”が格納されているため、ステップS28の判断結果は「YES」になり、テキスト解析部26は、テンポラリ領域の文字列を単語と認識する(ステップS29)。そして、テキスト解析部26は、抽出文字位置の値から「1」を減算(デクリメント)した値を処理済み文字位置の値に設定する(ステップS30)。ここで、抽出文字位置の値が「4」であるため、処理済み文字位置の値は「3」に設定される。   When the value of the extracted character position is “4”, and the fourth character “ga” is extracted from the character string “May rain”, this character is a hiragana character, so the determination result of step S25 Becomes “NO”. When the determination result in step S25 is “NO”, the text analysis unit 26 determines whether or not the number of characters in the temporary area is two or more (step S28). Here, since the character string “May rain” is stored in the temporary area, the determination result in step S28 is “YES”, and the text analysis unit 26 recognizes the character string in the temporary area as a word (step S29). ). Then, the text analysis unit 26 sets a value obtained by subtracting (decrementing) “1” from the value of the extracted character position as the value of the processed character position (step S30). Here, since the value of the extracted character position is “4”, the value of the processed character position is set to “3”.

以上の処理が終了すると、テキスト解析部26はテンポラリ領域を初期化し(ステップS22)、処理済み文字位置をインクリメントした値を抽出文字位置の値に設定する(ステップS23)。ここで、処理済み文字位置の値は「3」であるため、抽出文字位置の値が「4」に設定される。テキスト解析部26が、文字列の抽出文字位置で示される位置にある1文字(ここでは、文字‘が’)を抽出すると(ステップS24)、この文字は漢字ではないためステップS25の判断結果が「NO」になり、ステップS28に進む。ここでは、テンポラリ領域に格納されている文字はないため判断結果が「NO」となる。   When the above processing ends, the text analysis unit 26 initializes the temporary area (step S22), and sets the value obtained by incrementing the processed character position as the value of the extracted character position (step S23). Here, since the value of the processed character position is “3”, the value of the extracted character position is set to “4”. When the text analysis unit 26 extracts one character (here, the character 'is') at the position indicated by the extracted character position in the character string (step S24), the determination result in step S25 is that this character is not a Chinese character. "NO" is determined, and the process proceeds to step S28. Here, since there is no character stored in the temporary area, the determination result is “NO”.

ステップS28の判断結果が「NO」になると、テキスト解析部26はステップS24で抽出された文字(ここでは、文字‘が’)をテンポラリ領域に追加する(ステップS31)。次いで、テキスト解析部26は、記憶部14を検索してテンポラリ領域に格納されている文字列(文字)から始まる単語が登録されているか否かを判断する(ステップS32)。ここでは、テンポラリ領域に格納されている文字列(文字)は、文字‘が’のみであるためステップS32の判断結果は「NO」になる。   When the determination result in step S28 is “NO”, the text analysis unit 26 adds the character extracted in step S24 (here, the character ‘=’) to the temporary area (step S31). Next, the text analysis unit 26 searches the storage unit 14 to determine whether or not a word starting from a character string (character) stored in the temporary area is registered (step S32). Here, since the character string (character) stored in the temporary area is only the character ',' the determination result in step S32 is "NO".

次に、テキスト解析部26は、最後に抽出した1文字(ここでは、文字‘が’)をテンポラリ領域から削除する(ステップS36)。次いで、テキスト解析部26は、記憶部14を検索してテンポラリ領域に格納されている文字列に完全一致する単語が登録されているか否かを判断する(ステップS37)。ここでは、テンポラリ領域に格納されている文字はないため、判断結果は「NO」となる。そして、テキスト解析部26は、処理済み文字位置の値をインクリメントする(ステップS38)。ここでは、処理済み文字位置の値は「3」であるため、値が「4」に設定される。   Next, the text analysis unit 26 deletes the last extracted character (here, the character 'is') from the temporary area (step S36). Next, the text analysis unit 26 searches the storage unit 14 to determine whether or not a word that completely matches the character string stored in the temporary area is registered (step S37). Here, since there are no characters stored in the temporary area, the determination result is “NO”. Then, the text analysis unit 26 increments the value of the processed character position (step S38). Here, since the value of the processed character position is “3”, the value is set to “4”.

以上の処理が終了すると、テキスト解析部26はテンポラリ領域を初期化し(ステップS22)、処理済み文字位置をインクリメントした値を抽出文字位置の値に設定する(ステップS23)。ここで、処理済み文字位置の値は「4」であるため、抽出文字位置の値が「5」に設定される。テキスト解析部26が文字列の抽出文字位置で示される位置にある1文字(ここでは、文字‘降’)を抽出すると(ステップS24)、この文字は漢字であるためステップS25の判断結果が「YES」になり、テキスト解析部26は抽出した文字をテンポラリ領域に追加し(ステップS26)、次いで抽出文字位置の値をインクリメントする(ステップS27)。   When the above processing ends, the text analysis unit 26 initializes the temporary area (step S22), and sets the value obtained by incrementing the processed character position as the value of the extracted character position (step S23). Here, since the value of the processed character position is “4”, the value of the extracted character position is set to “5”. When the text analysis unit 26 extracts one character (here, the character “falling”) at the position indicated by the extracted character position in the character string (step S24), since this character is a Chinese character, the determination result in step S25 is “ The text analysis unit 26 adds the extracted character to the temporary area (step S26), and then increments the value of the extracted character position (step S27).

次に、テキスト解析部26は、再度文字列の抽出文字位置で示される位置にある1文字(ここでは、文字‘る’)を抽出する(ステップS24)。この文字はひらがなであるため、ステップS25の判断結果は「NO」となる。ステップS25の判断結果が「NO」になると、テキスト解析部26はテンポラリ領域の文字数が2文字以上であるか否かを判断する(ステップS28)。ここで、テンポラリ領域には文字‘降’のみが格納されているため、ステップS28の判断結果は「NO」になり、テキスト解析部26は、抽出した文字(ここでは、文字‘る’)をテンポラリ領域に追加する。   Next, the text analysis unit 26 again extracts one character (here, the character 'ru') at the position indicated by the extracted character position in the character string (step S24). Since this character is hiragana, the determination result in step S25 is “NO”. When the determination result in step S25 is “NO”, the text analysis unit 26 determines whether or not the number of characters in the temporary area is two or more (step S28). Here, since only the character “falling” is stored in the temporary area, the determination result in step S28 is “NO”, and the text analysis unit 26 uses the extracted character (here, the character “ru”). Add to the temporary area.

次いで、テキスト解析部26は、記憶部14を検索してテンポラリ領域に格納されている文字列(文字)から始まる単語が登録されているか否かを判断する(ステップS32)。ここでは、テンポラリ領域に格納されている文字列(文字)は、文字‘降’であるためステップS32の判断結果は「YES」になる。次に、テキスト解析部26は、抽出文字位置の値をインクリメントする(ステップS33)。ここで、抽出文字位置の値は「6」であるため、抽出文字位置の値が「7」に設定される。そして、テキスト解析部26は、抽出文字位置で示される位置にある1文字(ここでは、文字‘。’)を抽出し(ステップS34)、テンポラリ領域に追加する(ステップS35)。   Next, the text analysis unit 26 searches the storage unit 14 to determine whether or not a word starting from a character string (character) stored in the temporary area is registered (step S32). Here, since the character string (character) stored in the temporary area is the character “falling”, the determination result in step S32 is “YES”. Next, the text analysis unit 26 increments the value of the extracted character position (step S33). Here, since the value of the extracted character position is “6”, the value of the extracted character position is set to “7”. Then, the text analysis unit 26 extracts one character (here, character '.') At the position indicated by the extracted character position (step S34) and adds it to the temporary area (step S35).

ここで、テンポラリ領域に格納されている文字列は“降る。”であるため、ステップS32の判断結果は「NO」になる。ステップS32の判断結果が「NO」になると、最後に抽出した1文字(ここでは、文字‘。’)がテンポラリ領域から削除され(ステップS36)、テンポラリ領域に格納されている文字列(ここでは、文字列“降る”)に完全一致する単語が登録されているか否かが判断される(ステップS37)。   Here, since the character string stored in the temporary area is “falling down”, the determination result in step S32 is “NO”. When the determination result in step S32 is “NO”, the last extracted character (here, the character “.”) Is deleted from the temporary area (step S36), and the character string (here, the character string) is stored in the temporary area. It is determined whether or not a word that completely matches the character string “falling”) is registered (step S37).

上記の文字列“降る”が登録されているとステップS37の判断結果は「YES」となり、テキスト解析部26はテンポラリ領域の文字列(ここでは、文字列“降る”)を単語と認識する(ステップS39)。そして、テキスト解析部26は、抽出文字位置の値をデクリメントした値(ここでは、値「6」)を処理済み文字位置の値に設定する(ステップS40)。そして、ステップS22の処理に戻る。   If the character string “falling” is registered, the determination result in step S37 is “YES”, and the text analysis unit 26 recognizes the character string in the temporary area (here, the character string “falling”) as a word ( Step S39). Then, the text analysis unit 26 sets the value obtained by decrementing the value of the extracted character position (here, the value “6”) as the value of the processed character position (step S40). Then, the process returns to step S22.

尚、図4に示すフローチャートで、ステップS37の処理にて分割対象の文字列のうちのテンポラリ領域の文字列に前後する文字又は文字列との関係から助詞又は助動詞を検出するようにすれば、より高い精度で単語の検出を行うことができる。以上の処理により、文字列“五月雨が降る。”に含まれる文字列’“五月雨”,“降る”が単語として分割(認識)される。尚、図4に示すフローチャートは、抽出文字位置の値が分割対象の文字列の文字数よりも大きくなったときに終了する。   In the flowchart shown in FIG. 4, if the particle or auxiliary verb is detected from the relationship with the character or the character string preceding and following the character string in the temporary area of the character string to be divided in the process of step S37, Word detection can be performed with higher accuracy. Through the above processing, the character string ““ May rain ”and“ fall ”included in the character string“ May rain ”is divided (recognized) as words. The flowchart shown in FIG. 4 ends when the value of the extracted character position becomes larger than the number of characters in the character string to be divided.

図4に示すフローチャートが終了すると、CPU13は、表示部18に表示されている単語に対する操作キーの割り当てを行う(ステップS14)。具体的には、表示部18に表示されている文字列のうち、ステップS13の単語分割シーケンスにて単語と認識された文字列の各々に対して操作キー(例えば、テンキー)を1対1で割り当てる。次いで、CPU13は、ステップS14で割り当てを行った操作キーと表示部18における背景色とを割り当てる(ステップS15)。この割り当てににより、単語と背景色とが1対1で対応することになる。以上の処理が終了すると、CPU13は、表示部18の表示領域に表示されている文字列のうちの単語と認識された文字列が表示されている部分の背景を、上記ステップS14,S15の割り当てにより対応づけられた背景色に表示する制御を行う(ステップS16)。   When the flowchart shown in FIG. 4 ends, the CPU 13 assigns operation keys to the words displayed on the display unit 18 (step S14). Specifically, among the character strings displayed on the display unit 18, operation keys (for example, numeric keys) are assigned one-on-one to each character string recognized as a word in the word division sequence in step S <b> 13. assign. Next, the CPU 13 assigns the operation key assigned in step S14 and the background color in the display unit 18 (step S15). With this assignment, the word and the background color have a one-to-one correspondence. When the above processing is completed, the CPU 13 assigns the background of the portion of the character string displayed in the display area of the display unit 18 where the character string recognized as a word is displayed in the assignments of steps S14 and S15. Control is performed to display the background color associated with (Step S16).

尚、図3に示すフローチャートは、スクロール等によって表示部18の表示領域の表示内容が変更される度に実行される。このとき、単語の分割に要する時間を省くため、ステップS12において変更された部分(新たに表示対象となった部分)の文字列が取得され、先に単語分割シーケンスにて処理された文字列に対しては、同じ処理が繰り返されない。 Note that the flowchart shown in FIG. 3 is executed each time the display content of the display area of the display unit 18 is changed by scrolling or the like. At this time, in order to save the time required for dividing the word, the character string of the portion changed in step S12 (the portion newly displayed) is acquired, and the character string previously processed in the word dividing sequence is obtained. On the other hand, the same processing is not repeated.

図5は、単語抽出シーケンスが実行された後に携帯電話機に表示される内容の一例を示す図である。図5に示す通り、携帯電話機1の表示装置8の表示面8aは2つの表示領域D1,D2に分割される。表示領域D1にはメールの内容を示す文字列“今日は天気が良い。昨日は五月雨で寒かったよ。”が表示される。また、この文字列のうちの単語分割シーケンスで分割された単語には、図3のステップS14で割り当てられた操作キーを特定する記号N1〜N6が付される。即ち、それぞれの単語毎に割り振った番号が近くに付される。更に、単語分割シーケンスで分割された単語の背景は、図3中のステップS15で割り当てられたそれぞれ異なる背景色になっている。   FIG. 5 is a diagram illustrating an example of contents displayed on the mobile phone after the word extraction sequence is executed. As shown in FIG. 5, the display surface 8a of the display device 8 of the mobile phone 1 is divided into two display areas D1 and D2. In the display area D1, a character string “The weather is good today. It was cold due to rain in May yesterday” is displayed. Further, symbols N1 to N6 for identifying the operation keys assigned in step S14 of FIG. 3 are attached to the words divided in the word division sequence in the character string. That is, a number assigned to each word is assigned nearby. Furthermore, the backgrounds of the words divided in the word division sequence have different background colors assigned in step S15 in FIG.

また、表示領域D2には、表示領域D1に表示されている単語と操作キーとの対応関係を示す情報や、表示領域D1の背景色と記号N1〜N6と操作キーとの対応関係を示す情報が表示される。以上の表示により、ユーザが表示領域D1に表示されている文字列に含まれる単語を容易に認識することができるとともに、単語と操作キーとの対応関係を容易に把握することができる。また、単語に対して割り当てられた操作キーを操作することで、単語を簡便且つ容易に選択可能になる。   In the display area D2, information indicating the correspondence between the words displayed in the display area D1 and the operation keys, and information indicating the correspondence between the background color of the display area D1, the symbols N1 to N6, and the operation keys. Is displayed. With the above display, the user can easily recognize the word included in the character string displayed in the display area D1, and can easily grasp the correspondence between the word and the operation key. Further, by operating the operation keys assigned to the words, the words can be selected easily and easily.

図5に示す表示がなされている状態で、ユーザが単語に割り当てられた操作キーを押圧すると、記憶部14に記憶された辞書が検索されて選択された単語の読み及び意味を読み上げる辞書検索処理が行われる。図6は、辞書検索処理を示すフローチャートである。ユーザが単語に対して割り当てられた操作キーを操作することで、図6に示すフローチャートが実行される。   In the state shown in FIG. 5, when the user presses the operation key assigned to the word, the dictionary stored in the storage unit 14 is searched, and the dictionary search process for reading the selected word and reading the meaning. Is done. FIG. 6 is a flowchart showing dictionary search processing. When the user operates the operation keys assigned to the words, the flowchart shown in FIG. 6 is executed.

処理が開始されると、テキスト選択部25は、ユーザの操作内容に応じて、図5に示す表示領域に表示されている単語の何れかを選択する(ステップS51)。尚、ここでは、ユーザが操作キーを操作して単語を選択する場合を例に挙げて説明するが、単語に付された記号(図5中の記号N1〜N6)又は背景色をユーザが発音することで単語を選択してもよい。   When the process is started, the text selection unit 25 selects any of the words displayed in the display area shown in FIG. 5 in accordance with the user operation content (step S51). Here, a case where the user selects a word by operating the operation key will be described as an example. However, the user pronounces a symbol (symbol N1 to N6 in FIG. 5) or a background color attached to the word. You may select a word.

テキスト選択部25により単語が選択されると、テキスト変換部27は、記憶部14に記憶された辞書を検索し、その辞書内に選択された単語があるか否かを判断する(ステップS52)。この判断結果が「YES」の場合には、テキスト変換部27は、記憶部14からその単語の読み及び意味を取得する(ステップS53)。そして、選択された単語のうちの漢字をその読みに変換する。例えば、上記のステップS51で単語“五月雨”が選択された場合には、“さみだれ”に変換する。   When a word is selected by the text selection unit 25, the text conversion unit 27 searches the dictionary stored in the storage unit 14 and determines whether there is a selected word in the dictionary (step S52). . If the determination result is “YES”, the text conversion unit 27 acquires the reading and meaning of the word from the storage unit 14 (step S53). Then, the kanji in the selected word is converted into the reading. For example, when the word “May rain” is selected in the above step S51, it is converted to “Samidare”.

以上の処理が終了すると、テキスト変換部27は、単語“五月雨”の読みを示す情報、及びその意味を示す情報を順に音声合成部17に出力し、単語の読みを示す情報及び意味を示す情報から音声合成する(ステップS54)。音声合成部17で合成された音声信号は順次スピーカー部20又はイヤホンマイク30のスピーカー32に出力され、これによりユーザが選択した単語の読み及び意味が発音される(ステップS55)。   When the above processing is completed, the text conversion unit 27 sequentially outputs information indicating the reading of the word “May rain” and information indicating the meaning thereof to the speech synthesizer 17, and information indicating the reading of the word and information indicating the meaning Is synthesized (step S54). The voice signal synthesized by the voice synthesizing unit 17 is sequentially output to the speaker unit 20 or the speaker 32 of the earphone microphone 30, and thereby the reading and meaning of the word selected by the user are pronounced (step S55).

一方、ステップS52の判断結果が「NO」である場合には、辞書取得部28は、通信部12を介して辞書がデータベース化してある不図示のサーバ装置に接続する(ステップS56)。サーバ装置との接続が完了すると、辞書取得部28はテキスト選択部25で選択された単語の検索要求をサーバ装置に送信し(ステップS57)、その単語の意味及び読みを取得する(ステップS58)。そして、辞書取得部28は、記憶部14に記憶されている辞書に取得した単語の意味及び読みを追加して辞書をアップデートする(ステップS59)。   On the other hand, if the determination result in step S52 is “NO”, the dictionary acquisition unit 28 connects to a server device (not shown) in which the dictionary is databased via the communication unit 12 (step S56). When the connection with the server device is completed, the dictionary acquisition unit 28 transmits a search request for the word selected by the text selection unit 25 to the server device (step S57), and acquires the meaning and reading of the word (step S58). . Then, the dictionary acquisition unit 28 updates the dictionary by adding the meaning and reading of the acquired word to the dictionary stored in the storage unit 14 (step S59).

その後、テキスト変換部27は、辞書取得部28が取得した単語“五月雨”の読みを示す情報、及びその意味を示す情報を順に音声合成部17に出力し、単語の読みを示す情報及び意味を示す情報から音声合成する(ステップS54)。音声合成部17で合成された音声信号は順次スピーカー部20又はイヤホンマイク30のスピーカー32に出力され、これによりユーザが選択した単語の読み及び意味が発音される(ステップS55)。   Thereafter, the text conversion unit 27 sequentially outputs the information indicating the reading of the word “May rain” acquired by the dictionary acquisition unit 28 and the information indicating the meaning thereof to the speech synthesis unit 17, and the information and the meaning indicating the reading of the word are displayed. Speech synthesis is performed from the indicated information (step S54). The voice signal synthesized by the voice synthesizing unit 17 is sequentially output to the speaker unit 20 or the speaker 32 of the earphone microphone 30, and thereby the reading and meaning of the word selected by the user are pronounced (step S55).

以上説明した通り、本実施形態によれば、表示領域D1に表示された単語と操作キーとが対応づけられ、ユーザが操作キーを操作して単語を選択するだけでその単語の読み及び意味が発音されるため、簡便且つ容易に単語の意味を知ることができる。また、近年の携帯電話機は記憶容量の増大が図られているが、小型・軽量化の観点から記憶容量の増大にもある程度限界があり、辞書機能に登録されている単語もある程度制限され、携帯電話機1の記憶部14に記憶された辞書に単語が登録されていない場合には、サーバ装置からその単語の意味及び読みが取得されるため、多くの単語の意味を知ることができる。尚、サーバ装置にも対応する単語が無かった、若しくは単語の意味が無かったならば、読みだけでも発音させる。   As described above, according to the present embodiment, the word displayed in the display area D1 and the operation key are associated with each other, and the user can select the word by operating the operation key, and the reading and meaning of the word can be determined. Because it is pronounced, the meaning of the word can be easily and easily known. In recent years, the capacity of mobile phones has been increased, but there is a certain limit to the increase in storage capacity from the viewpoint of miniaturization and weight reduction, and the words registered in the dictionary function are also limited to some extent. When a word is not registered in the dictionary stored in the storage unit 14 of the telephone 1, the meaning and reading of the word are acquired from the server device, so that the meaning of many words can be known. If there is no corresponding word in the server device, or if there is no meaning of the word, the server device is caused to pronounce even by reading.

以上、本発明の一実施形態による携帯端末装置及び音声合成方法について説明したが、本発明は上記実施形態に制限されることなく、本発明の範囲内で自由に変更が可能である。例えば、上記実施形態では図5に示す通り、文字列中の単語に記号を付すとともに背景色を表示させていたが、何れか一方の表示のみを行っても良い。また、上記実施形態では、ユーザによって選択された単語の読みと意味との両方を発音させるようにしていたが、ユーザの選択により何れか一方のみを発音させるようにしても良い。   The mobile terminal device and the speech synthesis method according to an embodiment of the present invention have been described above. However, the present invention is not limited to the above-described embodiment, and can be freely changed within the scope of the present invention. For example, in the above embodiment, as shown in FIG. 5, the symbols are attached to the words in the character string and the background color is displayed. However, only one of them may be displayed. In the above embodiment, both the reading and meaning of the word selected by the user are pronounced, but only one of them may be pronounced by the user's selection.

また、上記実施形態では形態素解析を行って文字列を単語に分解していたが、かかる処理を行わずに、表示部18に表示された文字列の任意の一部をユーザの操作により選択可能とし、この選択された文字列に単語が含まれている場合に、その単語の読み及び意味を発音させるようにしても良い。また、文字間のスペースを検索しながらアルファベット文字列を抽出することにより、英単語等の外国語にも読み及び意味を発音させるようにすることもできる。   In the above embodiment, the character string is decomposed into words by performing morphological analysis. However, any part of the character string displayed on the display unit 18 can be selected by a user operation without performing such processing. If a word is included in the selected character string, the reading and meaning of the word may be pronounced. In addition, by extracting an alphabetic character string while searching for a space between characters, it is possible to cause a foreign language such as an English word to be read and pronounced.

また、上記実施形態では、2つの筐体が互いに折り畳み自在に連結された携帯電話機1を電子機器の一例として挙げたが、折り畳み式ではない1つの筐体からなる携帯電話機にも本発明を適用することができる。更に、また、本発明は携帯電話機に限られることなく、簡易型携帯電話機(PHS(登録商標))、PDA(Personal Digital Assistants)、更にはノートパソコン等の携帯端末装置にも適用することができる。   In the above-described embodiment, the mobile phone 1 in which two casings are foldably connected to each other is given as an example of an electronic device. However, the present invention is also applied to a mobile phone including a single casing that is not foldable. can do. Furthermore, the present invention is not limited to a mobile phone, but can be applied to a simple mobile phone (PHS (registered trademark)), a PDA (Personal Digital Assistants), and a portable terminal device such as a notebook computer. .

本発明の一実施形態による携帯端末装置としての携帯電話機の外観を示す図である。It is a figure which shows the external appearance of the mobile telephone as a portable terminal device by one Embodiment of this invention. 携帯電話機1の要部構成を示すブロック図である。2 is a block diagram showing a main configuration of the mobile phone 1. FIG. 単語抽出シーケンスを示すフローチャートである。It is a flowchart which shows a word extraction sequence. 図3中のステップS13で行われる単語分割シーケンスを示すフローチャートである。It is a flowchart which shows the word division | segmentation sequence performed by step S13 in FIG. 単語抽出シーケンスが実行された後に携帯電話機に表示される内容の一例を示す図である。It is a figure which shows an example of the content displayed on a mobile telephone after a word extraction sequence is performed. 辞書検索処理を示すフローチャートである。It is a flowchart which shows a dictionary search process.

符号の説明Explanation of symbols

5 操作キー
12 通信部
13 CPU(制御部)
14 記憶部
15 キー操作部(操作部)
17 音声合成部(音声変換部)
18 表示部
26 テキスト解析部(解析部)
27 テキスト変換部(音声変換部)
28 辞書取得部(取得部)
5 Operation keys 12 Communication unit 13 CPU (control unit)
14 storage unit 15 key operation unit (operation unit)
17 Speech synthesis unit (speech conversion unit)
18 Display Unit 26 Text Analysis Unit (Analysis Unit)
27 Text converter (speech converter)
28 Dictionary acquisition unit (acquisition unit)

Claims (9)

ユーザにより操作される操作部と、単語を含む文字列を表示する表示部とを備える携帯端末装置において、
前記単語と前記単語の読みとを対応づけて記憶する記憶部と、
文字列に前記記憶部に記憶する単語が含まれる場合には、前記単語に対応づけられた前記読みに変換した上で前記文字列を音声に変換する音声変換部と、
前記操作部の操作内容に応じて前記表示部に表示される前記文字列のうちの一部が選択された場合に、選択された文字列のみを前記音声変換部により変換させる制御を行う制御部と
を備えることを特徴とする携帯端末装置。
In a mobile terminal device including an operation unit operated by a user and a display unit that displays a character string including a word,
A storage unit for storing the word and the reading of the word in association with each other;
When a word to be stored in the storage unit is included in the character string, a voice conversion unit that converts the character string into speech after converting the word to the reading associated with the word;
A control unit that performs control to convert only the selected character string by the voice conversion unit when a part of the character string displayed on the display unit is selected according to the operation content of the operation unit And a portable terminal device.
前記記憶部は、前記単語と対応させて前記単語の意味を示す意味情報を記憶し、
前記制御部は、前記選択された文字列を前記音声変換部に変換させる際に、前記意味情報も併せて音声に変換させる制御を行う
ことを特徴とする請求項1記載の携帯端末装置。
The storage unit stores semantic information indicating the meaning of the word in association with the word,
The portable terminal device according to claim 1, wherein the control unit performs control to convert the semantic information together with voice when the selected character string is converted to the voice conversion unit.
前記表示部に表示される文字列を形態素解析して複数の単語に分解する解析部を備え、
前記制御部は、前記複数の単語のうちの何れか1つを前記操作部に選択可能にする制御を行う
ことを特徴とする請求項1又は請求項2記載の携帯端末装置。
An analysis unit that decomposes a character string displayed on the display unit into a plurality of words by morphological analysis,
The mobile terminal device according to claim 1, wherein the control unit performs control to enable the operation unit to select any one of the plurality of words.
前記操作部は、複数の操作キーを備えており、
前記制御部は、前記解析部によって分解された前記複数の単語の各々に対して所定の表示形態で前記表示部に表示させるとともに、前記複数の単語と前記操作部の各々の操作キーとの対応付けを行って前記操作キーの何れか1つの操作により前記複数の単語のうちの何れか1つの選択を可能にする制御を行う
ことを特徴とする請求項3記載の携帯端末装置。
The operation unit includes a plurality of operation keys,
The control unit causes each of the plurality of words decomposed by the analysis unit to be displayed on the display unit in a predetermined display form, and corresponds to the plurality of words and each operation key of the operation unit 4. The portable terminal device according to claim 3, wherein control is performed so that any one of the plurality of words can be selected by an operation of any one of the operation keys.
前記表示形態は、前記複数の単語の表示色を変えるものであり、
前記制御部は、前記表示色と前記操作キーとの対応関係を示す情報を前記表示部に表示する制御を行う
ことを特徴とする請求項4記載の携帯端末装置。
The display form is to change the display color of the plurality of words,
The mobile terminal device according to claim 4, wherein the control unit performs control to display information indicating a correspondence relationship between the display color and the operation key on the display unit.
前記表示形態は、前記複数の単語に対して前記操作キーに対応づけた番号を付して表示するものであり、
前記制御部は、前記番号と前記操作キーとの対応関係を示す情報を前記表示部に表示する制御を行い、操作キーが操作されると対応する番号の付される単語を選択する
ことを特徴とする請求項4記載の携帯端末装置。
In the display mode, the plurality of words are displayed with numbers associated with the operation keys.
The control unit performs control to display information indicating a correspondence relationship between the number and the operation key on the display unit, and selects a word with a corresponding number when the operation key is operated. The portable terminal device according to claim 4.
有線又は無線により前記単語の辞書を記憶するサーバ装置と通信を行う通信部と、
前記操作部により選択された文字列に含まれる単語が前記記憶部に記憶されていない場合には、前記通信部を介して当該単語に関する情報を取得する取得部と
を備えることを特徴とする請求項1から請求項6の何れか一項に記載の携帯端末装置。
A communication unit that communicates with a server device that stores the dictionary of words by wire or wireless;
An acquisition unit that acquires information about the word via the communication unit when a word included in the character string selected by the operation unit is not stored in the storage unit. The portable terminal device as described in any one of Claims 1-6.
前記制御部は、前記取得部により取得した単語に関する情報を前記記憶部に記憶させる制御を行うことを特徴とする請求項7記載の携帯端末装置。   The mobile terminal device according to claim 7, wherein the control unit performs control to store information on the word acquired by the acquisition unit in the storage unit. ユーザにより操作される操作部と、単語を含む文字列を表示する表示部とを備える携帯端末装置における音声合成方法であって、
前記ユーザによる前記操作部の操作内容に応じて、前記表示部に表示された前記文字列の内の一部を選択する選択ステップと、
前記選択ステップで選択された文字列に単語が含まれる場合には、当該単語を単語の読みに変換した上で前記選択された文字列を音声に変換する変換ステップと
を含むことを特徴とする音声合成方法。
A speech synthesis method in a mobile terminal device comprising an operation unit operated by a user and a display unit for displaying a character string including a word,
A selection step of selecting a part of the character string displayed on the display unit according to the operation content of the operation unit by the user;
A conversion step of converting the selected character string into speech after converting the word into a reading of a word when the character string selected in the selection step includes a word. Speech synthesis method.
JP2005161280A 2005-06-01 2005-06-01 Mobile terminal device and speech synthesizing method Pending JP2006339965A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005161280A JP2006339965A (en) 2005-06-01 2005-06-01 Mobile terminal device and speech synthesizing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005161280A JP2006339965A (en) 2005-06-01 2005-06-01 Mobile terminal device and speech synthesizing method

Publications (1)

Publication Number Publication Date
JP2006339965A true JP2006339965A (en) 2006-12-14

Family

ID=37560114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005161280A Pending JP2006339965A (en) 2005-06-01 2005-06-01 Mobile terminal device and speech synthesizing method

Country Status (1)

Country Link
JP (1) JP2006339965A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101105788B1 (en) * 2011-03-29 2012-01-17 (주)범우티앤씨 System for providing service of transform text message into voice message in mobile communication terminal and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101105788B1 (en) * 2011-03-29 2012-01-17 (주)범우티앤씨 System for providing service of transform text message into voice message in mobile communication terminal and method thereof

Similar Documents

Publication Publication Date Title
JP2008529101A (en) Method and apparatus for automatically expanding the speech vocabulary of a mobile communication device
JP2006510989A (en) Predictive text input and data compression method for mobile communication terminal
JP2006060768A (en) Mobile phone and mobile information terminal
US7840406B2 (en) Method for providing an electronic dictionary in wireless terminal and wireless terminal implementing the same
US8798237B2 (en) Voice dialing method and apparatus for mobile phone
JP2008129687A (en) Special character input support device and electronic equipment with the same
CN101682662A (en) Terminal, function starting-up method and program for terminal
JP2011049885A (en) Portable electronic apparatus
US9928084B2 (en) Electronic device and method for activating application
JP2006344039A (en) Electronic mail apparatus and program
JP2009075815A (en) Mobile terminal device
JP2004112274A (en) Mobile terminal, information processing method thereof, and information processing program thereof
JP2006339965A (en) Mobile terminal device and speech synthesizing method
JP4889803B2 (en) mobile phone
KR20040026716A (en) Searching method for phone number of mobile communication terminal
JP5233357B2 (en) Character input device
US7664498B2 (en) Apparatus, method, and program for read out information registration, and portable terminal device
JP5137541B2 (en) Terminal device, server, communication system, and program
JP5583915B2 (en) Portable information terminal, information processing method, and information processing program
KR100620001B1 (en) Phone book management apparatus and method of mobile communication station
JP5559472B2 (en) Dictionary search device
KR100716610B1 (en) Predictive text entry and data compression method for a mobile communication terminal
KR20070080309A (en) Device and method for inputting character
KR100514686B1 (en) Method of searching address using hashing in wireless terminal
JP2004179838A (en) Mobile communication terminal and translation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090519

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090924