JP5713391B2 - Electronic device, conversion method and program - Google Patents

Electronic device, conversion method and program Download PDF

Info

Publication number
JP5713391B2
JP5713391B2 JP2011043867A JP2011043867A JP5713391B2 JP 5713391 B2 JP5713391 B2 JP 5713391B2 JP 2011043867 A JP2011043867 A JP 2011043867A JP 2011043867 A JP2011043867 A JP 2011043867A JP 5713391 B2 JP5713391 B2 JP 5713391B2
Authority
JP
Japan
Prior art keywords
information
unit
sound
image
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011043867A
Other languages
Japanese (ja)
Other versions
JP2012182637A (en
Inventor
芳寛 大谷
芳寛 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2011043867A priority Critical patent/JP5713391B2/en
Publication of JP2012182637A publication Critical patent/JP2012182637A/en
Application granted granted Critical
Publication of JP5713391B2 publication Critical patent/JP5713391B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、電子機器、音出力方法、送信方法、変換方法およびプログラムに関する。   The present invention relates to an electronic device, a sound output method, a transmission method, a conversion method, and a program.

特許文献1には、受信した画像情報が表す画像内の話者の唇の動きおよび形状を解析し、その解析の結果に応じた音を出力する携帯電話機が記載されている。   Patent Document 1 describes a mobile phone that analyzes the movement and shape of a speaker's lips in an image represented by received image information and outputs a sound corresponding to the result of the analysis.

また、特許文献1には、受信した画像情報が表す画像内の話者の手話パタンを解析し、その解析の結果に応じた音を出力する携帯電話機、および、受信した画像情報が表す画像内の手書き文字パタンを解析し、その解析の結果に応じた音を出力する携帯電話機も記載されている。   Patent Document 1 discloses a cellular phone that analyzes a speaker's sign language pattern in an image represented by received image information and outputs a sound according to the result of the analysis, and an image in which the received image information represents A mobile phone that analyzes the handwritten character pattern and outputs a sound corresponding to the result of the analysis is also described.

さらに、特許文献1には、唇の動きや形状、手話または手書き文字等の画像解析に必要なユーザの各パタン(手話パタンや手書き文字パタン)を携帯電話機に予め登録しておく点も記載されている。   Furthermore, Patent Document 1 also describes that user patterns (sign language patterns and handwritten character patterns) necessary for image analysis such as lip movement and shape, sign language, or handwritten characters are registered in advance in the mobile phone. ing.

特開2004−15250号公報JP 2004-15250 A

特許文献1には、画像解析に必要なユーザの各パタン、つまり、画像から音を生成するために必要な変換情報を、携帯電話機に予め登録しておく点は記載されているが、変換情報を携帯電話機に予め登録するための具体的な手法は記載されていない。   Patent Document 1 describes that the user's patterns necessary for image analysis, that is, conversion information necessary for generating sound from an image is registered in advance in the mobile phone. There is no description of a specific method for pre-registering the mobile phone with the mobile phone.

このため、例えば、特許文献1に記載の携帯電話機の所有者以外の者(以下「関係者」と称する)が、携帯電話機が存在する場所まで行き、携帯電話機を操作して変換情報を作成し、その変換情報を携帯電話機に登録する状況が考えられる。この場合、関係者は、携帯電話機を操作して変換情報を作成し、その変換情報を携帯電話機に登録するという煩わしい動作を行う必要があるという課題があった。   For this reason, for example, a person other than the owner of the mobile phone described in Patent Document 1 (hereinafter referred to as “related party”) goes to a place where the mobile phone is present and operates the mobile phone to create conversion information. A situation where the conversion information is registered in the mobile phone can be considered. In this case, there is a problem that the related person needs to perform a troublesome operation of operating the mobile phone to create conversion information and registering the conversion information in the mobile phone.

本発明の目的は、上述した課題を解決可能な電子機器、音出力方法、送信方法、変換方法およびプログラムを提供することである。   The objective of this invention is providing the electronic device, the sound output method, the transmission method, the conversion method, and program which can solve the subject mentioned above.

本発明の電子機器は、互いに異なる音を表す音情報ごとに当該音情報と当該音情報に対応づけられた画像とを含む変換情報を、外部装置から受け取る第1受取手段と、画像情報を端末装置から受け取る第2受取手段と、前記変換情報を参照して、前記画像情報が表す画像に対応づけられた音情報を検索する検索手段と、前記検索手段が検索した音情報を、前記外部装置に送信する送信手段と、を含む。   The electronic device according to the present invention includes a first receiving unit that receives, from an external device, conversion information including the sound information and an image associated with the sound information for each sound information representing different sounds, and the image information is transmitted to the terminal. A second receiving means for receiving from the apparatus; a search means for searching for sound information associated with an image represented by the image information with reference to the conversion information; and a sound information searched by the search means for the external device. And transmitting means for transmitting to.

本発明の変換方法は、電子機器が行う変換方法であって、互いに異なる音を表す音情報ごとに当該音情報と当該音情報に対応づけられた画像とを含む変換情報を、外部装置から受け取る第1受取ステップと、画像情報を端末装置から受け取る第2受取ステップと、前記変換情報を参照して、前記画像情報が表す画像に対応づけられた音情報を検索する検索ステップと、前記検索ステップで検索された音情報を、前記外部装置に送信する送信ステップと、を含む。   The conversion method of the present invention is a conversion method performed by an electronic device, and receives, from an external device, conversion information including sound information and an image associated with the sound information for each sound information representing different sounds. A first receiving step; a second receiving step for receiving image information from a terminal device; a search step for searching for sound information associated with an image represented by the image information with reference to the conversion information; and the searching step Transmitting the sound information retrieved in step (1) to the external device.

本発明のプログラムは、コンピュータに、互いに異なる音を表す音情報ごとに当該音情報と当該音情報に対応づけられた画像とを含む変換情報を、外部装置から受け取る第1受取手順と、画像情報を端末装置から受け取る第2受取手順と、前記変換情報を参照して、前記画像情報が表す画像に対応づけられた音情報を検索する検索手順と、前記検索手順で検索された音情報を、前記外部装置に送信する送信手順と、を実行させる。   The program of the present invention includes a first receiving procedure for receiving, from an external device, conversion information including sound information and an image associated with the sound information for each sound information representing different sounds, and image information. A second receiving procedure for receiving sound from the terminal device, a search procedure for referring to the conversion information, searching for sound information associated with the image represented by the image information, and the sound information searched for by the search procedure, And a transmission procedure for transmitting to the external device.

本発明によれば、画像から音を生成する電子機器の所有者以外の者(関係者)が、その電子機器を操作して変換情報を作成し、その電子機器に変換情報を登録する必要性を低くすることが可能になる。   According to the present invention, there is a need for a person (related party) other than the owner of an electronic device that generates sound from an image to operate the electronic device to create conversion information and register the conversion information in the electronic device. Can be lowered.

本発明の第1実施形態の通信システムを示した図である。It is the figure which showed the communication system of 1st Embodiment of this invention. 携帯端末3を示したブロック図である。3 is a block diagram showing a mobile terminal 3. FIG. 辞書データX1を作成する動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement which produces the dictionary data X1. 辞書データX1を他の携帯端末に送信する動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement which transmits the dictionary data X1 to another portable terminal. 辞書データX1を他の携帯端末から受け取る動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement which receives dictionary data X1 from another portable terminal. テレビ電話通信を行う動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement which performs videophone communication. 音出力動作を説明するためのフローチャートである。It is a flowchart for demonstrating sound output operation | movement. 通信部36と無線部37と制御部38と出力部35からなる電子機器を示したブロック図である。4 is a block diagram illustrating an electronic device including a communication unit, a radio unit, a control unit, and an output unit. FIG. 本発明の第2実施形態の通信システムを示した図である。It is the figure which showed the communication system of 2nd Embodiment of this invention. サーバ4を示したブロック図である。3 is a block diagram showing a server 4. FIG.

以下、本発明の実施形態を図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1実施形態)
図1は、本発明の第1実施形態の通信システムを示した図である。
(First embodiment)
FIG. 1 is a diagram showing a communication system according to a first embodiment of the present invention.

図1において、第1実施形態の通信システムは、携帯端末1と携帯端末2を含む。携帯端末1と携帯端末2は、一般的に電子機器または外部装置と呼ぶことができる。   In FIG. 1, the communication system according to the first embodiment includes a mobile terminal 1 and a mobile terminal 2. The mobile terminal 1 and the mobile terminal 2 can generally be referred to as electronic devices or external devices.

図2は、携帯端末1や携帯端末2として用いられる携帯端末3を示したブロック図である。本実施形態では、携帯端末1および携帯端末2のそれぞれは、携帯端末3内の構成要素と同一の構成要素を含むものとする。   FIG. 2 is a block diagram showing a mobile terminal 3 used as the mobile terminal 1 or the mobile terminal 2. In the present embodiment, each of the mobile terminal 1 and the mobile terminal 2 includes the same components as the components in the mobile terminal 3.

図2において、携帯端末3は、一般的に電子機器または外部装置と呼ぶことができる。携帯端末3は、例えば、携帯電話機、携帯型ゲーム機、または、PDA(Personal Digital Assistants)等の携帯機器であり、テレビ電話機能を有する。   In FIG. 2, the portable terminal 3 can generally be called an electronic device or an external device. The portable terminal 3 is a portable device such as a cellular phone, a portable game machine, or a PDA (Personal Digital Assistants), and has a videophone function.

携帯端末3は、構成要素として、入力部31と、撮像部32と、マイク33と、表示部34と、出力部35と、通信部36と、無線部37と、制御部38と、を含む。   The portable terminal 3 includes an input unit 31, an imaging unit 32, a microphone 33, a display unit 34, an output unit 35, a communication unit 36, a wireless unit 37, and a control unit 38 as components. .

入力部31は、例えば、操作ボタンまたはタッチパネルであり、携帯端末3のユーザの操作を検出する。撮像部32は、被写体(例えば、携帯端末3のユーザの顔)を撮像して被写体に応じた画像情報を生成する。以下では、被写体は、携帯端末3のユーザの顔であるとする。マイク33は、例えば、携帯端末3のユーザの音声を受け付け、その音声に応じた音情報を生成する。表示部34は、種々の情報を表示する。   The input unit 31 is, for example, an operation button or a touch panel, and detects an operation of the user of the mobile terminal 3. The imaging unit 32 images a subject (for example, the face of the user of the mobile terminal 3) and generates image information corresponding to the subject. In the following, it is assumed that the subject is the face of the user of the mobile terminal 3. For example, the microphone 33 receives the voice of the user of the mobile terminal 3 and generates sound information corresponding to the voice. The display unit 34 displays various information.

出力部35は、一般的に、音発生手段と呼ぶことができる。出力部35は、例えば、イヤホンまたはスピーカであり、種々の音を出力する。   Output unit 35 can generally be referred to as sound generating means. The output unit 35 is, for example, an earphone or a speaker, and outputs various sounds.

通信部36は、一般的に、第1送信手段または第1受取手段と呼ぶことができる。通信部36は、例えば、赤外線を用いて通信を行う赤外線通信部である。なお、通信部36は、赤外線通信部に限らず、情報を送信し情報を受け取るものであれば適宜変更可能である。   Communication unit 36 can generally be referred to as first transmission means or first reception means. The communication unit 36 is, for example, an infrared communication unit that performs communication using infrared rays. The communication unit 36 is not limited to the infrared communication unit, and can be appropriately changed as long as it transmits information and receives information.

無線部37は、一般的に、第2送信手段または第2受取手段と呼ぶことができる。無線部37は、例えば、電波を用いて外部装置とテレビ電話通信を行う。   Radio unit 37 can generally be referred to as second transmitting means or second receiving means. For example, the wireless unit 37 performs videophone communication with an external device using radio waves.

制御部38は、一般的に検索手段と呼ぶことができる。   Control unit 38 can generally be referred to as search means.

制御部38は、携帯端末3を制御する。制御部38は、処理部38aと記憶部38bとを含む。   The control unit 38 controls the mobile terminal 3. The control unit 38 includes a processing unit 38a and a storage unit 38b.

処理部38aは、例えば、入力部31の検出結果に応じて種々の動作を制御する。   For example, the processing unit 38 a controls various operations according to the detection result of the input unit 31.

記憶部38bは、種々のデータを記憶する。   The storage unit 38b stores various data.

次に、動作の説明を行う。   Next, the operation will be described.

まず、画像情報に応じた音情報を特定するために必要な辞書データX1を作成する動作を説明する。   First, an operation of creating dictionary data X1 necessary for specifying sound information corresponding to image information will be described.

図3は、辞書データX1を作成する動作を説明するためのフローチャートである。   FIG. 3 is a flowchart for explaining the operation of creating the dictionary data X1.

入力部31が辞書作成開始操作を検出すると(ステップS301)、処理部38aは、携帯端末3のユーザに発声させる日本語の50音のそれぞれを、表示部34に順番に表示すると共に、撮像部32からの画像情報に応じた画像も表示部34に表示する(ステップS302)。   When the input unit 31 detects a dictionary creation start operation (step S301), the processing unit 38a sequentially displays on the display unit 34 each of the 50 Japanese sounds to be uttered by the user of the mobile terminal 3, and the imaging unit. An image corresponding to the image information from 32 is also displayed on the display unit 34 (step S302).

この際、撮像部32が携帯端末3のユーザの顔を撮像するように、携帯端末3のユーザは、撮像部32の向きを調整する。このため、撮像部32は、表示部34の表示に従って日本語の50音のそれぞれを発声している携帯端末3のユーザの顔を撮像する。   At this time, the user of the portable terminal 3 adjusts the orientation of the imaging unit 32 so that the imaging unit 32 images the face of the user of the portable terminal 3. For this reason, the imaging unit 32 images the face of the user of the mobile terminal 3 that utters each of the 50 Japanese sounds according to the display on the display unit 34.

なお、携帯端末3のユーザに発声させる音は、日本語の50音以外の音でもよい。   Note that the sound uttered by the user of the mobile terminal 3 may be a sound other than Japanese 50 sounds.

処理部38aは、表示部34に表示した音ごとに、その音を表す音情報と、その音を発生しているときの携帯端末3のユーザの顔を表す画像と、を含む辞書データX1を作成する(ステップS303)。辞書データX1では、表示部34に表示した音ごとに、その音を表す音情報と、その音を発生しているときの携帯端末3のユーザの顔を表す画像とが、互いに対応づけられている。例えば、辞書データX1では、「あ」の音を表す音情報と「あ」の音を発声しているときの携帯端末3のユーザの顔を表す画像とが、互いに対応づけられる。   For each sound displayed on the display unit 34, the processing unit 38a stores dictionary data X1 including sound information representing the sound and an image representing the face of the user of the mobile terminal 3 when the sound is generated. Create (step S303). In the dictionary data X1, for each sound displayed on the display unit 34, sound information representing the sound and an image representing the face of the user of the mobile terminal 3 when the sound is generated are associated with each other. Yes. For example, in the dictionary data X1, sound information representing the sound of “A” and an image representing the face of the user of the mobile terminal 3 when the sound of “A” is uttered are associated with each other.

なお、辞書データX1は、一般的に、互いに異なる音情報ごとに音情報とその音情報に対応づけられた画像とを含む変換情報と呼ぶことができる。   The dictionary data X1 can generally be referred to as conversion information including sound information and an image associated with the sound information for each different sound information.

辞書データX1が完成すると、処理部38aは、辞書データX1を記憶部38bに記憶する(ステップS304)。   When the dictionary data X1 is completed, the processing unit 38a stores the dictionary data X1 in the storage unit 38b (step S304).

なお、記憶部38bには、複数の単語を示す辞書データX2と、複数の単語の各々の発音を表す発音情報を示す辞書データX3も記憶されている。また、発音情報が表す発音は、声に限らない。   Note that the storage unit 38b also stores dictionary data X2 indicating a plurality of words and dictionary data X3 indicating pronunciation information indicating the pronunciation of each of the plurality of words. The pronunciation represented by the pronunciation information is not limited to voice.

また、辞書データX1が完成する前に、入力部31が、辞書データX1の作成を中止する旨の辞書作成中止操作を検出した場合には、処理部38aは、辞書データX1の作成を中止する。この際、処理部38aは、作成が中止された辞書データX1を破棄してもよい。   If the input unit 31 detects a dictionary creation stop operation for canceling the creation of the dictionary data X1 before the dictionary data X1 is completed, the processing unit 38a stops the creation of the dictionary data X1. . At this time, the processing unit 38a may discard the dictionary data X1 whose creation has been canceled.

次に、辞書データX1を他の携帯端末に送信する動作を説明する。   Next, an operation for transmitting the dictionary data X1 to another mobile terminal will be described.

図4は、辞書データX1を他の携帯端末に送信する動作を説明するためのフローチャートである。   FIG. 4 is a flowchart for explaining the operation of transmitting the dictionary data X1 to another mobile terminal.

記憶部38b内に辞書データXが記憶されている状況で、入力部31が、辞書データX1を他の携帯端末に送信する旨の送信操作を検出すると(ステップS401)、処理部38aは、記憶部38b内の辞書データX1を読み出し、その読み出された辞書データX1を通信部36から送信する(ステップS402)。   In a situation where the dictionary data X is stored in the storage unit 38b, when the input unit 31 detects a transmission operation for transmitting the dictionary data X1 to another portable terminal (step S401), the processing unit 38a stores the data. The dictionary data X1 in the unit 38b is read, and the read dictionary data X1 is transmitted from the communication unit 36 (step S402).

次に、辞書データX1を他の携帯端末から受け取る動作を説明する。   Next, an operation for receiving the dictionary data X1 from another mobile terminal will be described.

図5は、辞書データX1を他の携帯端末から受け取る動作を説明するためのフローチャートである。   FIG. 5 is a flowchart for explaining an operation of receiving the dictionary data X1 from another portable terminal.

通信部36が、他の携帯端末で作成された辞書データX1を外部装置(例えば、他の携帯端末)から受信すると(ステップS501)、処理部38aは、他の携帯端末で作成された辞書データX1を変換用辞書データY1として、記憶部38bに記憶する(ステップS502)。なお、変換用辞書データY1は、一般的に変換情報と呼ぶことができる。   When the communication unit 36 receives dictionary data X1 created by another portable terminal from an external device (for example, another portable terminal) (step S501), the processing unit 38a uses the dictionary data created by the other portable terminal. X1 is stored as conversion dictionary data Y1 in the storage unit 38b (step S502). The conversion dictionary data Y1 can generally be referred to as conversion information.

次に、通信相手である他の携帯端末とテレビ電話通信を行う動作を説明する。   Next, an operation for performing videophone communication with another mobile terminal that is a communication partner will be described.

図6は、テレビ電話通信の動作を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining the operation of the videophone communication.

入力部31が、通信相手である他の携帯端末とのテレビ電話通信を開始する旨のテレビ電話開始操作を検出すると(ステップS601)、処理部38aは、通信相手とのテレビ電話通信を開始する(ステップS602)。   When the input unit 31 detects a videophone start operation to start videophone communication with another mobile terminal that is a communication partner (step S601), the processing unit 38a starts videophone communication with the communication partner. (Step S602).

なお、通信相手とのテレビ電話通信では、処理部38aは、撮像部32からの画像情報とマイク33からの音情報とを、無線部37から通信相手へ送信し、また、通信相手からの画像情報と音情報とを無線部37で受信し、通信相手からの画像情報に応じた画像を表示部34で表示し、通信相手からの音情報に応じた音を出力部35から出力する。   In the videophone communication with the communication partner, the processing unit 38a transmits the image information from the imaging unit 32 and the sound information from the microphone 33 from the wireless unit 37 to the communication partner, and the image from the communication partner. Information and sound information are received by the wireless unit 37, an image corresponding to the image information from the communication partner is displayed on the display unit 34, and a sound corresponding to the sound information from the communication partner is output from the output unit 35.

次に、他の携帯端末とテレビ電話通信を行っている状況で、変換用辞書データY1を参照して、通信相手からの画像情報に応じた音情報を検索し、その音情報に応じた音を出力する動作(以下「音出力動作」と称する)を説明する。   Next, in a situation where videophone communication is performed with another mobile terminal, the sound information corresponding to the image information from the communication partner is searched with reference to the conversion dictionary data Y1, and the sound corresponding to the sound information is searched. Will be described (hereinafter referred to as “sound output operation”).

なお、音出力動作は、通信相手からの音情報に応じた音が聞き取り難いまたは聞こえない場合(例えば、通信相手である他の携帯端末のユーザが、音声を用いた通話を禁止されている場所にいる場合)に用いられる。   Note that the sound output operation is performed when it is difficult or impossible to hear the sound according to the sound information from the communication partner (for example, a place where the user of the other mobile terminal that is the communication partner is prohibited from making a voice call) Used when).

図7は、音出力動作を説明するためのフローチャートである。   FIG. 7 is a flowchart for explaining the sound output operation.

テレビ電話通信中に、入力部31が、音出力動作を開始する旨の音出力動作開始操作を検出すると(ステップS701)、処理部38aは、記憶部38b内の変換用辞書データY1を参照して、通信相手からの画像情報が表す画像に対応づけられた音情報を検索する(ステップS702)。   When the input unit 31 detects a sound output operation start operation to start the sound output operation during videophone communication (step S701), the processing unit 38a refers to the conversion dictionary data Y1 in the storage unit 38b. Then, the sound information associated with the image represented by the image information from the communication partner is searched (step S702).

処理部38aは、その検索された音情報に応じた音を、通信相手からの音情報に応じた音の代わりに、出力部35から出力する(ステップS703)。   The processing unit 38a outputs the sound corresponding to the searched sound information from the output unit 35 instead of the sound corresponding to the sound information from the communication partner (step S703).

本実施形態では、処理部38aは、テレビ電話通信中に、入力部31が音出力動作開始操作を検出すると、記憶部38b内の変換用辞書データY1を参照して、通信相手からの画像情報が表す画像に対応づけられた音情報を、文字単位(50音のそれぞれの音単位)で検索する。   In the present embodiment, when the input unit 31 detects a sound output operation start operation during videophone communication, the processing unit 38a refers to the conversion dictionary data Y1 in the storage unit 38b, and receives image information from the communication partner. The sound information associated with the image represented by is searched in character units (each sound unit of 50 sounds).

処理部38aは、音情報を文字単位で検索すると、記憶部38b内の辞書データX2を参照して、文字単位の音情報の組み合わせに対応する単語を特定する。処理部38aは、単語を特定すると、記憶部38b内の辞書データX3を参照して、その単語の発音情報を読み出す。処理部38aは、発音情報を読み出すと、その発音情報を出力部35に出力し、出力部35から発音情報が表す音を出力させる。   When the sound information is searched for in units of characters, the processing unit 38a refers to the dictionary data X2 in the storage unit 38b and specifies a word corresponding to the combination of sound information in units of characters. When the processing unit 38a specifies a word, the processing unit 38a refers to the dictionary data X3 in the storage unit 38b and reads the pronunciation information of the word. When the sound generation information is read, the processing unit 38a outputs the sound generation information to the output unit 35, and causes the output unit 35 to output the sound represented by the sound generation information.

なお、音出力動作の実行中に、入力部31が、音出力動作を終了する旨の音出力動作終了操作を検出すると、処理部38aは、音出力動作を終了する。   When the input unit 31 detects a sound output operation end operation for ending the sound output operation during execution of the sound output operation, the processing unit 38a ends the sound output operation.

次に、本実施形態の効果を説明する。   Next, the effect of this embodiment will be described.

本実施形態によれば、携帯端末3では、通信部36は、外部装置から辞書データX1を受信する。無線部37は、画像情報を受け取る。制御部38は、通信部36が受信した辞書データX1を参照して、無線部37が受け取った画像情報が表す画像に対応づけられた音情報を検索する。出力部35は、制御部38が検索した音情報に応じた音を出力する。   According to this embodiment, in the mobile terminal 3, the communication unit 36 receives the dictionary data X1 from the external device. The wireless unit 37 receives image information. The control unit 38 refers to the dictionary data X1 received by the communication unit 36, and searches for sound information associated with the image represented by the image information received by the wireless unit 37. The output unit 35 outputs a sound corresponding to the sound information searched by the control unit 38.

このため、辞書データX1を携帯端末3に登録したいユーザ(例えば、携帯端末3の所有者以外の関係者)は、携帯端末3と異なる外部装置から、辞書データX1を携帯端末3に送信すれば、辞書データX1を携帯端末3に登録することできる。   For this reason, a user who wants to register the dictionary data X1 in the mobile terminal 3 (for example, a party other than the owner of the mobile terminal 3) transmits the dictionary data X1 to the mobile terminal 3 from an external device different from the mobile terminal 3. The dictionary data X1 can be registered in the portable terminal 3.

したがって、関係者が携帯端末3を操作して辞書データX1を作成して辞書データX1を携帯端末3に登録する必要性を低くすることが可能になる。   Therefore, it becomes possible to reduce the necessity for the related person to operate the mobile terminal 3 to create the dictionary data X1 and register the dictionary data X1 in the mobile terminal 3.

なお、この効果は、通信部36と無線部37と制御部38と出力部35からなる電子機器でも奏する。図8は、通信部36と無線部37と制御部38と出力部35からなる電子機器を示したブロック図である。   This effect is also achieved by an electronic device including the communication unit 36, the radio unit 37, the control unit 38, and the output unit 35. FIG. 8 is a block diagram illustrating an electronic device including the communication unit 36, the wireless unit 37, the control unit 38, and the output unit 35.

また、本実施形態によれば、携帯端末3では、通信部36は、通信相手に辞書データX1を送信する。無線部37は、通信相手に画像情報を送信する。この場合、関係者は、携帯端末3を用いて、辞書データX1を通信相手となる携帯端末(例えば、図1に示した携帯端末2)に送信することが可能になる。   Further, according to the present embodiment, in the mobile terminal 3, the communication unit 36 transmits the dictionary data X1 to the communication partner. The wireless unit 37 transmits image information to the communication partner. In this case, the parties can use the mobile terminal 3 to transmit the dictionary data X1 to the mobile terminal that is the communication partner (for example, the mobile terminal 2 shown in FIG. 1).

また、本実施形態では、辞書データX1において、互いに異なる音として、日本語の50音が用いられる。この場合、画像を用いて日本語の50音を出力することが可能になる。   In this embodiment, 50 Japanese sounds are used as different sounds in the dictionary data X1. In this case, it is possible to output 50 Japanese sounds using an image.

なお、本実施形態では、電子機器として、携帯端末が用いられたが、電子機器は携帯端末に限らず適宜変更可能であり、例えば、タブレット型PC(パーソナルコンピュータ)またはノート型PC等のPCでもよい。   In this embodiment, a mobile terminal is used as the electronic device. However, the electronic device is not limited to the mobile terminal and can be changed as appropriate. For example, a PC such as a tablet PC (personal computer) or a notebook PC can be used. Good.

また、本実施形態では、通信部36が辞書データX1の通信を行ったが、通信部37が通信部36を兼ねてもよい。この場合、通信部37が辞書データX1の通信を行うことになる。   In the present embodiment, the communication unit 36 communicates the dictionary data X1, but the communication unit 37 may also serve as the communication unit 36. In this case, the communication unit 37 communicates the dictionary data X1.

また、携帯端末3は、コンピュータにて実現されてもよい。この場合、コンピュータは、コンピュータにて読み取り可能なCD−ROM(Compact Disk Read Only Memory)のような記録媒体に記録されたプログラムを読込み実行して、入力部31、撮像部32、マイク33、表示部34、出力部35、通信部36、無線部37および制御部38として機能する。記録媒体は、CD−ROMに限らず適宜変更可能である。   The mobile terminal 3 may be realized by a computer. In this case, the computer reads and executes a program recorded on a recording medium such as a CD-ROM (Compact Disk Read Only Memory) readable by the computer, and inputs the input unit 31, the imaging unit 32, the microphone 33, and the display. Functions as a unit 34, an output unit 35, a communication unit 36, a radio unit 37, and a control unit 38. The recording medium is not limited to the CD-ROM and can be changed as appropriate.

(第2実施形態)
図9は、本発明の第2実施形態の通信システムを示した図である。図9において、図1に示したものと同一構成のものには同一符号を付してある。
(Second Embodiment)
FIG. 9 is a diagram illustrating a communication system according to the second embodiment of this invention. In FIG. 9, the same components as those shown in FIG.

第2実施形態の通信システムでは、画像情報が表す画像に対応づけられた音情報を検索する動作をサーバ4が行う。   In the communication system according to the second embodiment, the server 4 performs an operation of searching for sound information associated with the image represented by the image information.

図9において、第2実施形態の通信システムは、携帯端末1と、携帯端末2と、サーバ4と、を含む。携帯端末1は、一般的に、外部装置と呼ぶことができる。携帯端末2は、一般的に、端末装置と呼ぶことができる。   In FIG. 9, the communication system according to the second embodiment includes a mobile terminal 1, a mobile terminal 2, and a server 4. The mobile terminal 1 can generally be called an external device. The portable terminal 2 can generally be called a terminal device.

本実施形態では、携帯端末1では、制御部38は、携帯端末1のユーザが作成した辞書データX1に、携帯端末1を特定するための識別情報を付加し、携帯端末1の識別情報が付加された辞書データX1を、無線部37からサーバ4に送信する。   In the present embodiment, in the mobile terminal 1, the control unit 38 adds identification information for specifying the mobile terminal 1 to the dictionary data X <b> 1 created by the user of the mobile terminal 1, and adds the identification information of the mobile terminal 1. The dictionary data X1 thus transmitted is transmitted from the wireless unit 37 to the server 4.

また、携帯端末1では、携帯端末2とのテレビ電話通信の開始に伴い、無線部37が、撮像部32からの画像情報とマイク33からの音情報とを、携帯端末1の識別情報と共に、携帯端末2へ送信する。なお、撮像部32は、携帯端末1のユーザの顔を撮像しているとする。   In addition, in the mobile terminal 1, with the start of videophone communication with the mobile terminal 2, the wireless unit 37 sends the image information from the imaging unit 32 and the sound information from the microphone 33 together with the identification information of the mobile terminal 1. It transmits to the portable terminal 2. Note that the imaging unit 32 captures the face of the user of the mobile terminal 1.

携帯端末2では、携帯端末1とのテレビ電話通信の開始に伴い、無線部37が、携帯端末1から、画像情報と音情報と携帯端末1の識別情報とを受信する。   In the portable terminal 2, the wireless unit 37 receives image information, sound information, and identification information of the portable terminal 1 from the portable terminal 1 with the start of videophone communication with the portable terminal 1.

携帯端末2では、制御部38は、携帯端末1からの画像情報と音情報と携帯端末1の識別情報とを記憶しつつ、携帯端末1からの画像情報に応じた画像を表示部34に表示し、携帯端末1からの音情報に応じた音を出力部35から出力する。   In the portable terminal 2, the control unit 38 displays the image corresponding to the image information from the portable terminal 1 on the display unit 34 while storing the image information, the sound information, and the identification information of the portable terminal 1 from the portable terminal 1. The sound corresponding to the sound information from the portable terminal 1 is output from the output unit 35.

このとき、例えば、携帯端末2のユーザは、携帯端末1からの音情報に応じた音が聞き取り難いまたは聞こえない場合(例えば、通信相手である携帯端末1のユーザが、音声を用いた通話を禁止されている場所にいる場合)、携帯端末1からの画像情報をサーバ4に送信する旨の画像送信操作を入力部31に対して行う。   At this time, for example, when the user of the portable terminal 2 has difficulty in hearing or cannot hear the sound according to the sound information from the portable terminal 1 (for example, the user of the portable terminal 1 as the communication partner makes a call using voice). When the user is in a prohibited place), an image transmission operation for transmitting image information from the portable terminal 1 to the server 4 is performed on the input unit 31.

携帯端末2において、入力部31が、携帯端末1からの画像情報をサーバ4に送信する旨の画像送信操作を検出すると、制御部38は、携帯端末1からの画像情報と携帯端末1の識別情報とを、通信部37からサーバ4に送信する。   In the portable terminal 2, when the input unit 31 detects an image transmission operation for transmitting the image information from the portable terminal 1 to the server 4, the control unit 38 identifies the image information from the portable terminal 1 and the portable terminal 1. Information is transmitted from the communication unit 37 to the server 4.

図10は、サーバ4を示したブロック図である。   FIG. 10 is a block diagram showing the server 4.

図10において、サーバ4は、受信部41と、受信部42と、検索部43と、送信部44と、を含む。検索部43は、格納部43aと制御部43bとを含む。サーバ4は、一般的に電子機器と呼ぶことができる。   In FIG. 10, the server 4 includes a reception unit 41, a reception unit 42, a search unit 43, and a transmission unit 44. The search unit 43 includes a storage unit 43a and a control unit 43b. Server 4 can generally be referred to as an electronic device.

受信部41は、一般的に第1受取手段と呼ぶことができる。   Receiving unit 41 can be generally referred to as first receiving means.

受信部41は、携帯端末1から、携帯端末1のユーザが作成した辞書データX1と携帯端末1の識別情報とを受け取る。   The receiving unit 41 receives from the mobile terminal 1 dictionary data X1 created by a user of the mobile terminal 1 and identification information of the mobile terminal 1.

受信部42は、一般的に第2受取手段と呼ぶことができる。   Receiving unit 42 can generally be referred to as second receiving means.

受信部42は、携帯端末2から、携帯端末1からの画像情報と携帯端末1の識別情報とを受け取る。   The receiving unit 42 receives the image information from the mobile terminal 1 and the identification information of the mobile terminal 1 from the mobile terminal 2.

なお、受信部41が受信部42を兼ねてもよい。この場合、受信部41は、携帯端末2から、さらに、携帯端末1からの画像情報と携帯端末1の識別情報とを受け取る。   The receiving unit 41 may also serve as the receiving unit 42. In this case, the receiving unit 41 further receives image information from the mobile terminal 1 and identification information of the mobile terminal 1 from the mobile terminal 2.

検索部43は、一般的に検索手段と呼ぶことができる。   Search unit 43 can generally be referred to as search means.

検索部43は、携帯端末1のユーザが作成した辞書データX1を参照して、携帯端末2から受信した画像情報が表す画像に対応づけられた音情報を検索する。   The search unit 43 searches the sound information associated with the image represented by the image information received from the mobile terminal 2 with reference to the dictionary data X1 created by the user of the mobile terminal 1.

格納部43aは、種々の情報を格納する。   The storage unit 43a stores various information.

制御部43bは、受信部41が、携帯端末1から、携帯端末1のユーザが作成した辞書データX1と携帯端末1の識別情報とを受信すると、携帯端末1のユーザが作成した辞書データX1と携帯端末1の識別情報とを互いに関連づけて格納部43aに格納する。   When the receiving unit 41 receives the dictionary data X1 created by the user of the mobile terminal 1 and the identification information of the mobile terminal 1 from the mobile terminal 1, the control unit 43b receives the dictionary data X1 created by the user of the mobile terminal 1 and The identification information of the portable terminal 1 is associated with each other and stored in the storage unit 43a.

また、制御部43bは、格納部43a内に携帯端末1の識別情報と関連づけられている辞書データX1が格納されている状況で、受信部42が、携帯端末2から、携帯端末1からの画像情報と携帯端末1の識別情報とを受信すると、格納部43a内で携帯端末1の識別情報と関連づけられている携帯端末1のユーザが作成した辞書データX1を参照して、携帯端末2から受信した画像情報(携帯端末1からの画像情報)が表す画像に対応づけられた音情報を検索する。   Further, the control unit 43b is configured such that the receiving unit 42 receives the image from the portable terminal 1 from the portable terminal 2 in a situation where the dictionary data X1 associated with the identification information of the portable terminal 1 is stored in the storage unit 43a. When the information and the identification information of the portable terminal 1 are received, it is received from the portable terminal 2 with reference to the dictionary data X1 created by the user of the portable terminal 1 associated with the identification information of the portable terminal 1 in the storage unit 43a. The sound information associated with the image represented by the image information (image information from the portable terminal 1) is retrieved.

送信部44は、一般的に、送信手段と呼ぶことができる。   Transmitter 44 can generally be referred to as a transmission means.

送信部44は、制御部43bが検索した音情報を携帯端末2に送信する。   The transmission unit 44 transmits the sound information searched by the control unit 43b to the mobile terminal 2.

携帯端末2では、無線部37が、サーバ4内の送信部44から送信された音情報を受信すると、制御部38は、その音情報に応じた音を、携帯端末1からの音情報に応じた音の代わりに、出力部35から出力する。   In the mobile terminal 2, when the wireless unit 37 receives the sound information transmitted from the transmission unit 44 in the server 4, the control unit 38 changes the sound corresponding to the sound information according to the sound information from the mobile terminal 1. Output from the output unit 35 instead of the sound.

本実施形態によれば、サーバ4では、受信部41が、携帯端末1から辞書データX1を受信する。受信部42が、携帯端末2から画像情報を受信する。検索部43は、辞書データX1を参照して、携帯端末2から受信した画像情報が表す画像に対応づけられた音情報を検索する。送信部44は、検索部43が検索した音情報を、画像情報の送信元である携帯端末2に送信する。   According to this embodiment, in the server 4, the receiving unit 41 receives the dictionary data X <b> 1 from the mobile terminal 1. The receiving unit 42 receives image information from the mobile terminal 2. The search unit 43 searches the sound information associated with the image represented by the image information received from the mobile terminal 2 with reference to the dictionary data X1. The transmission unit 44 transmits the sound information searched by the search unit 43 to the mobile terminal 2 that is the transmission source of the image information.

このため、辞書データX1を携帯端末2に使用させたいユーザ(例えば、携帯端末2の所有者以外の者)は、携帯端末2と異なる外部装置から、辞書データX1をサーバ4に送信すれば、辞書データX1を携帯端末3に使用させることできる。   For this reason, if a user who wants to use the dictionary data X1 for the portable terminal 2 (for example, a person other than the owner of the portable terminal 2) transmits the dictionary data X1 to the server 4 from an external device different from the portable terminal 2, The dictionary data X1 can be used by the mobile terminal 3.

したがって、携帯端末2の所有者以外の者が、携帯端末2を操作して辞書データX1を作成して辞書データX1を携帯端末2に登録する必要性を低くすることが可能になる。なお、この効果は、受信部41と受信部42と検索部43と送信部44とからなる電子機器(図10参照)でも奏する。   Therefore, it is possible to reduce the necessity for a person other than the owner of the mobile terminal 2 to operate the mobile terminal 2 to create the dictionary data X1 and register the dictionary data X1 in the mobile terminal 2. This effect is also achieved by an electronic device (see FIG. 10) that includes the reception unit 41, the reception unit 42, the search unit 43, and the transmission unit 44.

また、この場合、携帯端末1内の通信部36および携帯端末2内の通信部36が削除されもよい。   In this case, the communication unit 36 in the mobile terminal 1 and the communication unit 36 in the mobile terminal 2 may be deleted.

なお、サーバ4は、コンピュータにて実現されてもよい。この場合、コンピュータは、コンピュータにて読み取り可能な記録媒体に記録されたプログラムを読込み実行して、受信部41、受信部42、検索部43および送信部44として機能する。   The server 4 may be realized by a computer. In this case, the computer reads and executes a program recorded on a computer-readable recording medium, and functions as the reception unit 41, the reception unit 42, the search unit 43, and the transmission unit 44.

また、上記各実施形態では、画像情報が表す画像として、携帯端末のユーザの顔が用いられたが、画像情報が表す画像は、携帯端末のユーザの顔に限らず適宜変更可能である。例えば、画像情報が表す画像として、アニメのキャラクタの顔が用いられてもよい。この場合、辞書データX1が表す画像も、画像情報が表す画像に応じて変更される。例えば、画像情報が表す画像が、アニメのキャラクタの顔である場合、辞書データX1が表す各画像は、50音分のキャラクタの顔となる。   In each of the above embodiments, the face of the user of the mobile terminal is used as the image represented by the image information. However, the image represented by the image information is not limited to the face of the user of the mobile terminal and can be changed as appropriate. For example, the face of an anime character may be used as the image represented by the image information. In this case, the image represented by the dictionary data X1 is also changed according to the image represented by the image information. For example, when the image represented by the image information is the face of an anime character, each image represented by the dictionary data X1 is the face of a character for 50 sounds.

また、上記各実施形態では、携帯端末は、画像情報を無線部37で受け取ったが、画像情報を記録した記録媒体から、不図示の読取部で画像情報を読み取って、画像情報を受け取ってもよい。   In each of the above embodiments, the mobile terminal receives the image information by the wireless unit 37. However, the mobile terminal may receive the image information by reading the image information by a reading unit (not shown) from the recording medium on which the image information is recorded. Good.

以上説明した各実施形態において、図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。   In each embodiment described above, the illustrated configuration is merely an example, and the present invention is not limited to the configuration.

また、上記各実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。   Moreover, although a part or all of each said embodiment can be described also as the following additional remarks, it is not restricted to the following.

(付記1)互いに異なる音を表す音情報ごとに当該音情報と当該音情報に対応づけられた画像とを含む変換情報を、外部装置から受け取る第1受取手段と、
画像情報を受け取る第2受取手段と、
前記変換情報を参照して、前記画像情報が表す画像に対応づけられた音情報を検索する検索手段と、
前記検索手段が検索した音情報に応じた音を出力する音発生手段と、を含む電子機器。
(Additional remark 1) The 1st receiving means which receives the conversion information containing the said sound information and the image matched with the said sound information for every sound information showing a mutually different sound from an external device,
A second receiving means for receiving image information;
Search means for referring to the conversion information and searching for sound information associated with the image represented by the image information;
An electronic device comprising: sound generation means for outputting a sound corresponding to the sound information searched by the search means.

(付記2)付記1に記載の電子機器に、前記変換情報を送信する第1送信手段と、
付記1に記載の電子機器に、前記画像情報を送信する第2送信手段と、を含む電子機器。
(Additional remark 2) The 1st transmission means which transmits the said conversion information to the electronic device of Additional remark 1,
An electronic device comprising: the electronic device according to attachment 1; and second transmission means for transmitting the image information.

(付記3)互いに異なる音を表す音情報ごとに当該音情報と当該音情報に対応づけられた画像とを含む変換情報を、外部装置から受け取る第1受取手段と、
画像情報を端末装置から受け取る第2受取手段と、
前記変換情報を参照して、前記画像情報が表す画像に対応づけられた音情報を検索する検索手段と、
前記検索手段が検索した音情報を、前記外部装置に送信する送信手段と、を含む電子機器。
(Additional remark 3) The 1st receiving means which receives the conversion information containing the said sound information and the image matched with the said sound information for every sound information showing a mutually different sound from an external device,
A second receiving means for receiving image information from the terminal device;
Search means for referring to the conversion information and searching for sound information associated with the image represented by the image information;
An electronic device comprising: transmission means for transmitting the sound information searched by the search means to the external device.

(付記4)付記1から3のいずれか1項に記載の電子機器において、
前記互いに異なる音は、日本語の50音である、電子機器。
(Appendix 4) In the electronic device according to any one of appendices 1 to 3,
The electronic device in which the different sounds are 50 Japanese sounds.

(付記5)付記1に記載の電子機器と、付記2に記載の電子機器と、を含む通信システム。   (Supplementary note 5) A communication system including the electronic device according to supplementary note 1 and the electronic device according to supplementary note 2.

(付記6)電子機器が行う音出力方法であって、
互いに異なる音を表す音情報ごとに当該音情報と当該音情報に対応づけられた画像とを含む変換情報を、外部装置から受け取る第1受取ステップと、
画像情報を受け取る第2受取ステップと、
前記変換情報を参照して、前記画像情報が表す画像に対応づけられた音情報を検索する検索ステップと、
前記検索ステップで検索された音情報に応じた音を出力する音発生ステップと、を含む音出力方法。
(Appendix 6) A sound output method performed by an electronic device,
A first receiving step of receiving, from an external device, conversion information including the sound information and an image associated with the sound information for each sound information representing different sounds;
A second receiving step for receiving image information;
A search step of searching for sound information associated with an image represented by the image information with reference to the conversion information;
A sound generation method including a sound generation step of outputting a sound corresponding to the sound information searched in the search step.

(付記7)電子機器が行う送信方法であって、
付記1に記載の電子機器に、前記変換情報を送信する第1送信ステップと、
付記1に記載の電子機器に、前記画像情報を送信する第2送信ステップと、を含む送信方法。
(Appendix 7) A transmission method performed by an electronic device,
A first transmission step of transmitting the conversion information to the electronic device according to attachment 1;
A second transmission step of transmitting the image information to the electronic device according to attachment 1.

(付記8)電子機器が行う変換方法であって、
互いに異なる音を表す音情報ごとに当該音情報と当該音情報に対応づけられた画像とを含む変換情報を、外部装置から受け取る第1受取ステップと、
画像情報を端末装置から受け取る第2受取ステップと、
前記変換情報を参照して、前記画像情報が表す画像に対応づけられた音情報を検索する検索ステップと、
前記検索ステップで検索された音情報を、前記外部装置に送信する送信ステップと、を含む変換方法。
(Appendix 8) A conversion method performed by an electronic device,
A first receiving step of receiving, from an external device, conversion information including the sound information and an image associated with the sound information for each sound information representing different sounds;
A second receiving step for receiving image information from the terminal device;
A search step of searching for sound information associated with an image represented by the image information with reference to the conversion information;
A transmission step of transmitting the sound information searched in the search step to the external device.

(付記9)コンピュータに、
互いに異なる音を表す音情報ごとに当該音情報と当該音情報に対応づけられた画像とを含む変換情報を、外部装置から受け取る第1受取手順と、
画像情報を受け取る第2受取手順と、
前記変換情報を参照して、前記画像情報が表す画像に対応づけられた音情報を検索する検索手順と、
前記検索手順で検索された音情報に応じた音を出力する音発生手順と、を実行させるためのプログラム。
(Appendix 9)
A first receiving procedure for receiving, from an external device, conversion information including the sound information and an image associated with the sound information for each sound information representing different sounds;
A second receiving procedure for receiving image information;
A search procedure for searching for sound information associated with the image represented by the image information with reference to the conversion information;
A sound generation procedure for outputting a sound corresponding to the sound information searched in the search procedure.

(付記10)コンピュータに、
付記1に記載の電子機器に、前記変換情報を送信する第1送信手順と、
付記1に記載の電子機器に、前記画像情報を送信する第2送信手順と、を実行させるためのプログラム。
(Appendix 10)
A first transmission procedure for transmitting the conversion information to the electronic device according to attachment 1;
The program for making the electronic device of Additional remark 1 perform the 2nd transmission procedure which transmits the said image information.

(付記11)コンピュータに、
互いに異なる音を表す音情報ごとに当該音情報と当該音情報に対応づけられた画像とを含む変換情報を、外部装置から受け取る第1受取手順と、
画像情報を端末装置から受け取る第2受取手順と、
前記変換情報を参照して、前記画像情報が表す画像に対応づけられた音情報を検索する検索手順と、
前記検索手順で検索された音情報を、前記外部装置に送信する送信手順と、を実行させるためのプログラム。
(Supplementary note 11)
A first receiving procedure for receiving, from an external device, conversion information including the sound information and an image associated with the sound information for each sound information representing different sounds;
A second receiving procedure for receiving image information from the terminal device;
A search procedure for searching for sound information associated with the image represented by the image information with reference to the conversion information;
A transmission procedure for transmitting the sound information searched in the search procedure to the external device.

1、2、3 携帯端末
31 入力部
32 撮像部
33 マイク
34 表示部
35 出力部
36 通信部
37 無線部
38 制御部
38a 処理部
38b 記憶部
4 サーバ
41 受信部
42 受信部
43 検索部
43a 格納部
43b 制御部
44 送信部
1, 2, 3 Mobile terminal 31 Input unit 32 Imaging unit 33 Microphone 34 Display unit 35 Output unit 36 Communication unit 37 Radio unit 38 Control unit 38a Processing unit 38b Storage unit 4 Server 41 Reception unit 42 Reception unit 43 Search unit 43a Storage unit 43b Control unit 44 Transmission unit

Claims (4)

互いに異なる音を表す音情報ごとに当該音情報と当該音情報に対応づけられた画像とを含む変換情報を、外部装置から受け取る第1受取手段と、
画像情報を端末装置から受け取る第2受取手段と、
前記変換情報を参照して、前記画像情報が表す画像に対応づけられた音情報を検索する検索手段と、
前記検索手段が検索した音情報を、前記外部装置に送信する送信手段と、を含む電子機器。
First receiving means for receiving, from an external device, conversion information including the sound information and an image associated with the sound information for each sound information representing different sounds;
A second receiving means for receiving image information from the terminal device;
Search means for referring to the conversion information and searching for sound information associated with the image represented by the image information;
An electronic device comprising: transmission means for transmitting the sound information searched by the search means to the external device.
請求項に記載の電子機器において、
前記互いに異なる音は、日本語の50音である、電子機器。
The electronic device according to claim 1 ,
The electronic device in which the different sounds are 50 Japanese sounds.
電子機器が行う変換方法であって、
互いに異なる音を表す音情報ごとに当該音情報と当該音情報に対応づけられた画像とを含む変換情報を、外部装置から受け取る第1受取ステップと、
画像情報を端末装置から受け取る第2受取ステップと、
前記変換情報を参照して、前記画像情報が表す画像に対応づけられた音情報を検索する検索ステップと、
前記検索ステップで検索された音情報を、前記外部装置に送信する送信ステップと、を含む変換方法。
A conversion method performed by an electronic device,
A first receiving step of receiving, from an external device, conversion information including the sound information and an image associated with the sound information for each sound information representing different sounds;
A second receiving step for receiving image information from the terminal device;
A search step of searching for sound information associated with an image represented by the image information with reference to the conversion information;
A transmission step of transmitting the sound information searched in the search step to the external device.
コンピュータに、
互いに異なる音を表す音情報ごとに当該音情報と当該音情報に対応づけられた画像とを含む変換情報を、外部装置から受け取る第1受取手順と、
画像情報を端末装置から受け取る第2受取手順と、
前記変換情報を参照して、前記画像情報が表す画像に対応づけられた音情報を検索する検索手順と、
前記検索手順で検索された音情報を、前記外部装置に送信する送信手順と、を実行させるためのプログラム。
On the computer,
A first receiving procedure for receiving, from an external device, conversion information including the sound information and an image associated with the sound information for each sound information representing different sounds;
A second receiving procedure for receiving image information from the terminal device;
A search procedure for searching for sound information associated with the image represented by the image information with reference to the conversion information;
A transmission procedure for transmitting the sound information searched in the search procedure to the external device.
JP2011043867A 2011-03-01 2011-03-01 Electronic device, conversion method and program Expired - Fee Related JP5713391B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011043867A JP5713391B2 (en) 2011-03-01 2011-03-01 Electronic device, conversion method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011043867A JP5713391B2 (en) 2011-03-01 2011-03-01 Electronic device, conversion method and program

Publications (2)

Publication Number Publication Date
JP2012182637A JP2012182637A (en) 2012-09-20
JP5713391B2 true JP5713391B2 (en) 2015-05-07

Family

ID=47013462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011043867A Expired - Fee Related JP5713391B2 (en) 2011-03-01 2011-03-01 Electronic device, conversion method and program

Country Status (1)

Country Link
JP (1) JP5713391B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092628A (en) * 2001-07-13 2003-03-28 Ketsu Aoki Phone relay service method
JP2004015250A (en) * 2002-06-05 2004-01-15 Nec Corp Mobile terminal
JP2004179937A (en) * 2002-11-27 2004-06-24 Matsushita Electric Ind Co Ltd Intercom system
JP2006140621A (en) * 2004-11-10 2006-06-01 Matsushita Electric Ind Co Ltd Portable telephone
JP2006139138A (en) * 2004-11-12 2006-06-01 Matsushita Electric Ind Co Ltd Information terminal and base station
JP5262395B2 (en) * 2008-07-25 2013-08-14 富士通株式会社 E-mail transmission / reception device and e-mail transmission / reception method
JP2010033340A (en) * 2008-07-29 2010-02-12 Fujitsu Ltd Voice recognition server, communication system, and voice recognition method

Also Published As

Publication number Publication date
JP2012182637A (en) 2012-09-20

Similar Documents

Publication Publication Date Title
KR20200007022A (en) Method, terminal, and storage medium for recognizing an image
US8144990B2 (en) Translation and display of text in picture
WO2018141144A1 (en) Method for use in processing text and voice information, and terminal
WO2019095140A1 (en) Period information indication method for common control resource set of remaining key system information
KR102087654B1 (en) Electronic device for preventing leakage of received sound
KR20150141122A (en) Hiding method and device for privacy information
KR20080058124A (en) Mobile terminal for providing haptic service and method thereof
CN104462058B (en) Character string identification method and device
US11335348B2 (en) Input method, device, apparatus, and storage medium
JP2010034695A (en) Voice response device and method
CN103945065A (en) Message reminding method and device
CN110378318B (en) Character recognition method and device, computer equipment and storage medium
CN109686359B (en) Voice output method, terminal and computer readable storage medium
JP6222111B2 (en) Display control device, display control method, and recording medium
JP2013191103A (en) Electronic device and program
KR20070057351A (en) Mobile phone for transforming braille into voice
CN107896271B (en) Information processing method and device and mobile terminal
JPWO2018020828A1 (en) Translation apparatus and translation system
JP5713391B2 (en) Electronic device, conversion method and program
CN109144461B (en) Sound production control method and device, electronic device and computer readable medium
JP2004015250A (en) Mobile terminal
WO2021104254A1 (en) Information processing method and electronic device
CN111145723B (en) Method, device, equipment and storage medium for converting audio
CN100452837C (en) Display device and method using iris recognition photo position
JP6092734B2 (en) Communication equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131227

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150305

R150 Certificate of patent or registration of utility model

Ref document number: 5713391

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees