JP5643545B2 - Communication terminal and e-mail reading method - Google Patents

Communication terminal and e-mail reading method Download PDF

Info

Publication number
JP5643545B2
JP5643545B2 JP2010119353A JP2010119353A JP5643545B2 JP 5643545 B2 JP5643545 B2 JP 5643545B2 JP 2010119353 A JP2010119353 A JP 2010119353A JP 2010119353 A JP2010119353 A JP 2010119353A JP 5643545 B2 JP5643545 B2 JP 5643545B2
Authority
JP
Japan
Prior art keywords
data
reading
image
image data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010119353A
Other languages
Japanese (ja)
Other versions
JP2011248508A (en
Inventor
須藤 智浩
智浩 須藤
裕 鶴田
裕 鶴田
敦夫 千葉
敦夫 千葉
那由 能町
那由 能町
元昭 阿部
元昭 阿部
佐藤 孝幸
孝幸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010119353A priority Critical patent/JP5643545B2/en
Publication of JP2011248508A publication Critical patent/JP2011248508A/en
Application granted granted Critical
Publication of JP5643545B2 publication Critical patent/JP5643545B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Telephone Function (AREA)

Description

本発明は、通信端末およびメール読み上げ方法に関する。   The present invention relates to a communication terminal and a mail reading method.

弱視ユーザの補助等を目的として、受信したメールやWEBページ等に含まれるテキストを音声で読み上げる機能を有する通信端末が知られている。また、特許文献1では、データ放送で受信した画像データを文字パターンと照合し、画像データに含まれる文字を抽出して読み上げる技術が提案されている。   There is known a communication terminal having a function of reading a text included in a received e-mail, a WEB page or the like by voice for the purpose of assisting a low vision user. Japanese Patent Application Laid-Open No. H10-228561 proposes a technique for collating image data received by data broadcasting with a character pattern, extracting characters included in the image data, and reading them out.

特開2006−33741号公報JP 2006-33741 A

電子メールには、テキストである本文に加えて、画像データが添付されることがある。電子メールに添付される画像データは、多くの場合において、本文の内容と関連する人物や風景を撮影したものであり、電子メールの内容を十分に理解するために不可欠なものである。しかしながら、上述した従来技術では、電子メールの本文を読み上げることはできても、添付された画像データに写っている人物や風景について読み上げを行うことはできなかった。   In some cases, image data is attached to an e-mail in addition to the body text. In many cases, image data attached to an e-mail is a photograph of a person or a landscape associated with the content of the text, and is indispensable for fully understanding the content of the e-mail. However, in the above-described conventional technology, even if the text of the e-mail can be read out, it is impossible to read out the person or the landscape in the attached image data.

本発明は、上記に鑑みてなされたものであって、電子メールに添付された画像データに写っている内容を音声で読み上げることができる通信端末およびメール読み上げ方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a communication terminal and a mail reading method that can read out the contents of image data attached to an e-mail by voice.

上述した課題を解決し、目的を達成するために、本発明は、通信端末であって、画像データが添付された電子メールを受信する通信部と、前記通信部によって受信された電子メールに添付された画像データを解析して、当該画像データに含まれるオブジェクトを音声で読み上げるための画像読み上げデータを作成するデータ作成部と、前記データ作成部によって作成された前記画像読み上げデータを音声で読み上げる音声読み上げ部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a communication terminal, which is a communication unit that receives an e-mail to which image data is attached, and an e-mail that is received by the communication unit A data generation unit that analyzes the image data that has been generated and generates image read-out data for reading out an object included in the image data by voice; and a voice that reads out the image read-out data generated by the data generation unit by voice And a reading section.

また、前記データ作成部は、前記通信部によって受信された電子メールの本文を前記音声読み上げ部が読み上げている間に、当該電子メールに添付された画像データを解析して前記画像読み上げデータを作成し、前記音声読み上げ部は、前記本文の読み上げが完了した後に、前記データ作成部によって作成された前記画像読み上げデータを読み上げることが好ましい。   In addition, the data creation unit creates the image reading data by analyzing the image data attached to the email while the voice reading unit reads the body of the email received by the communication unit. Preferably, the speech reading unit reads the image reading data created by the data creation unit after the reading of the text is completed.

また、前記データ作成部は、前記通信部によって受信された電子メールに添付された画像データを解析して、当該画像データに含まれるオブジェクトの特徴データを抽出し、抽出された特徴データを用いてサーバに問い合わせを行うことにより、前記オブジェクトの種別または名前を特定し、特定した前記種別または名前に基づき前記画像読み上げデータを作成することが好ましい。   The data creation unit analyzes the image data attached to the e-mail received by the communication unit, extracts feature data of the object included in the image data, and uses the extracted feature data It is preferable that the type or name of the object is specified by making an inquiry to the server, and the image reading data is created based on the specified type or name.

また、前記データ作成部は、前記通信部によって受信された電子メールに添付された画像データを解析して抽出された複数のオブジェクトの重要度を、それぞれのオブジェクトの種別、位置、範囲の少なくも1つに関する判定基準に基づいて判定し、重要度の高いオブジェクトから先に読み上げられるように前記画像読み上げデータを作成することが好ましい。   Further, the data creating unit analyzes the importance of the plurality of objects extracted by analyzing the image data attached to the e-mail received by the communication unit at least for the type, position, and range of each object. It is preferable to make the determination based on a determination criterion related to one, and to create the image reading data so that an object having high importance is read first.

また、前記データ作成部は、前記通信部によって受信された電子メールに添付された画像データを解析して抽出されたオブジェクトの種別または名前が当該電子メールの本文または件名に含まれるか否かを、オブジェクトの重要度を判定するための判定基準としてさらに用いることが好ましい。   Further, the data creation unit determines whether or not the type or name of the object extracted by analyzing the image data attached to the email received by the communication unit is included in the body or subject of the email It is preferable to further use as a criterion for determining the importance of the object.

また、前記データ作成部は、前記通信部によって受信された電子メールに添付された画像データを解析することによってオブジェクトの1つとして抽出された人物の電子メールアドレスが当該電子メールの送信元アドレスと一致するか否かを、当該人物に対応するオブジェクトの重要度を判定するための判定基準としてさらに用いることが好ましい。   In addition, the data creation unit analyzes the image data attached to the email received by the communication unit, and the email address of the person extracted as one of the objects is the sender address of the email It is preferable to further use whether or not they match as a criterion for determining the importance of the object corresponding to the person.

また、前記データ作成部は、前記通信部によって受信された電子メールに複数の画像データが添付されている場合に、種別または名前が同一のオブジェクトが当該電子メールに添付された他の画像データから抽出されたか否かを、オブジェクトの重要度を判定するための判定基準としてさらに用いることが好ましい。   In addition, when a plurality of image data is attached to the e-mail received by the communication unit, the data creation unit is configured to add an object of the same type or name from another image data attached to the e-mail. It is preferable to further use whether or not it has been extracted as a criterion for determining the importance of the object.

また、前記データ作成部は、前記通信部によって受信された電子メールに添付された画像データを解析して抽出された複数のオブジェクトを、種別または名前と、重要度とに基づいてグループ分けし、同一のグループに属するオブジェクトが一つの文章または一連の文章として読み上げられるように前記画像読み上げデータを作成することが好ましい。   In addition, the data creation unit, the plurality of objects extracted by analyzing the image data attached to the e-mail received by the communication unit, grouped based on the type or name and the importance, It is preferable to create the image reading data so that objects belonging to the same group are read as one sentence or a series of sentences.

また、前記データ作成部は、前記通信部によって受信された電子メールに複数の画像データが添付されている場合に、当該複数の画像データの対応関係の説明を含む前記画像読み上げデータを作成することが好ましい。   In addition, when a plurality of image data is attached to the e-mail received by the communication unit, the data creation unit creates the image reading data including an explanation of a correspondence relationship between the plurality of image data. Is preferred.

また、上述した課題を解決し、目的を達成するために、本発明は、通信端末であって、外部機器から画像データを受信する通信部と、前記通信部によって受信された画像データを解析して、当該画像データに含まれるオブジェクトを音声で読み上げるための画像読み上げデータを作成するデータ作成部と、前記データ作成部によって作成された前記画像読み上げデータを音声で読み上げる音声読み上げ部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a communication terminal, which is a communication unit that receives image data from an external device, and that analyzes the image data received by the communication unit. A data creation unit that creates image reading data for reading out the object included in the image data by voice, and a voice reading unit that reads the image reading data created by the data creation unit by voice. It is characterized by.

また、上述した課題を解決し、目的を達成するために、本発明は、電子メールの受信機能を有する通信端末によって実行されるメール読み上げ方法であって、前記通信端末が、画像データが添付された電子メールを受信する受信ステップと、前記通信端末が、前記受信ステップにおいて受信された電子メールに添付された画像データを解析して、当該画像データに含まれる内容を音声で読み上げるための画像読み上げデータを作成するデータ作成ステップと、前記通信端末が、前記データ作成ステップにおいて作成された前記画像読み上げデータを音声で読み上げる音声読み上げステップと、を含むことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a mail reading method executed by a communication terminal having an e-mail receiving function, wherein the communication terminal is attached with image data. A receiving step for receiving the e-mail, and an image reading for the communication terminal to analyze the image data attached to the e-mail received in the receiving step and to read out the content included in the image data by voice A data creating step for creating data, and a voice reading step in which the communication terminal reads out the image reading data created in the data creating step by voice.

本発明に係る通信端末およびメール読み上げ方法は、電子メールに添付された画像データに写っている内容を音声で読み上げることができるという効果を奏する。   INDUSTRIAL APPLICABILITY The communication terminal and the mail reading method according to the present invention have an effect that the contents reflected in the image data attached to the electronic mail can be read out by voice.

通信端末の機能の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the function of a communication terminal. 画像データを含む電子メールの表示例を示す図である。It is a figure which shows the example of a display of the email containing image data. アドレス帳データの一例を示す図である。It is a figure which shows an example of address book data. 重要度判定データの一例を示す図である。It is a figure which shows an example of importance determination data. 解析データの一例を示す図である。It is a figure which shows an example of analysis data. 画像読み上げデータの一例を示す図である。It is a figure which shows an example of image reading-out data. 画像データが添付されている電子メールの読み上げ処理の流れを示すシーケンス図である。It is a sequence diagram showing a flow of a reading process of an e-mail attached with image data. 画像読み上げデータ作成処理の全体的な流れを示すフロー図である。It is a flowchart which shows the whole flow of an image reading data creation process. 人物解析処理の処理手順を示すフロー図である。It is a flowchart which shows the process sequence of a person analysis process. オブジェクト解析処理の処理手順を示すフロー図である。It is a flowchart which shows the process sequence of an object analysis process. 重要度算出処理の処理手順を示すフロー図である。It is a flowchart which shows the process sequence of an importance calculation process. グループ分け処理の処理手順を示すフロー図である。It is a flowchart which shows the process sequence of a grouping process. データ出力処理の処理手順を示すフロー図である。It is a flowchart which shows the process sequence of a data output process.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、通信端末の一例として、携帯電話機を取り上げるが、本発明の適用対象は携帯電話機に限定されるものではない。本発明は、例えば、PHS(Personal Handy-phone System)、パソコン、携帯情報端末等に対しても適用できる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a mobile phone is taken as an example of a communication terminal, but the application target of the present invention is not limited to a mobile phone. The present invention can also be applied to, for example, a PHS (Personal Handy-phone System), a personal computer, a portable information terminal, and the like.

まず、通信端末10の機能の概略構成を説明する。図1は、通信端末10の機能の概略構成を示すブロック図である。通信端末10は、無線通信機能と、電子メールの音声読み上げ機能とを備えた携帯電話機である。図1に示すように、通信端末10は、制御部22と、記憶部24と、通信部26と、操作部28と、音声処理部30と、表示部32と、を有する。   First, a schematic configuration of functions of the communication terminal 10 will be described. FIG. 1 is a block diagram showing a schematic configuration of functions of the communication terminal 10. The communication terminal 10 is a mobile phone having a wireless communication function and an e-mail voice reading function. As illustrated in FIG. 1, the communication terminal 10 includes a control unit 22, a storage unit 24, a communication unit 26, an operation unit 28, an audio processing unit 30, and a display unit 32.

制御部22は、通信端末10の全体的な動作を統括的に制御する処理部、例えばCPU(Central Processing Unit)である。すなわち、通信端末10の各種の処理が、操作部28の操作や通信端末10の記憶部24に保存されるソフトウェアに応じて適切な手順で実行されるように、通信部26、表示部32等の動作を制御する。制御部22は、記憶部24に保存されているプログラム(例えば、オペレーティングシステムプログラム、アプリケーションプログラム等)に基づいて処理を実行する。また、制御部22は、複数のプログラム(アプリケーション、ソフトウェア)を並列で実行することができる。   The control unit 22 is a processing unit that centrally controls the overall operation of the communication terminal 10, for example, a CPU (Central Processing Unit). That is, the communication unit 26, the display unit 32, and the like so that various processes of the communication terminal 10 are executed in an appropriate procedure according to the operation of the operation unit 28 and the software stored in the storage unit 24 of the communication terminal 10. To control the operation. The control unit 22 executes processing based on a program (for example, an operating system program, application program, etc.) stored in the storage unit 24. The control unit 22 can execute a plurality of programs (applications, software) in parallel.

制御部22は、各種処理の1つとして、電子メールの読み上げ処理を実行する。制御部22は、電子メールの読み上げ処理を実現するための機能部として、読み上げデータ作成部22aと、音声読み上げ部22bと、を有する。読み上げデータ作成部22aと音声読み上げ部22bは、制御部22が所定のプログラムを実行することによって実現される。   The control unit 22 executes an e-mail reading process as one of various processes. The control unit 22 includes a reading data creation unit 22a and a voice reading unit 22b as functional units for realizing an e-mail reading process. The reading data creation unit 22a and the voice reading unit 22b are realized by the control unit 22 executing a predetermined program.

読み上げデータ作成部22aは、電子メールに添付されている画像データを解析して、画像データに含まれるオブジェクトを読み上げるための画像読み上げデータを作成する。ここでいうオブジェクトとは、例えば、人物、動物、植物、建物、機械、山等である。   The reading data creation unit 22a analyzes the image data attached to the e-mail and creates image reading data for reading an object included in the image data. An object here is a person, an animal, a plant, a building, a machine, a mountain, etc., for example.

音声読み上げ部22bは、電子メールの本文と、読み上げデータ作成部22aによって作成された画像読み上げデータとを音声で読み上げる。このように、通信端末10は、電子メールの本文だけでなく、電子メールに添付された画像データに含まれるオブジェクトの読み上げを行う。なお、音声読み上げ部22bによる音声読み上げは、いずれの技術を用いて実現されてもよい。   The voice reading unit 22b reads the text of the email and the image reading data created by the reading data creation unit 22a by voice. As described above, the communication terminal 10 reads out not only the text of the email but also the object included in the image data attached to the email. Note that the voice reading by the voice reading unit 22b may be realized using any technique.

記憶部24は、各種情報を記憶する記憶装置であり、例えば、フラッシュメモリ等の半導体に情報を記憶させる。記憶部24には、制御部22での処理に利用されるアプリケーションのプログラムやデータが記憶されている。具体的には、記憶部24には、アプリケーションのプログラムとして、読み上げデータ作成部22aと音声読み上げ部22bを実現させるためのメール読み上げプログラム24a等が記憶される。なお、メール読み上げプログラム24aは、読み上げデータ作成部22aを実現させるためのプログラムと、音声読み上げ部22bを実現させるためのプログラムのように、複数のプログラムに分割されていてもよい。   The memory | storage part 24 is a memory | storage device which memorize | stores various information, for example, memorize | stores information in semiconductors, such as flash memory. The storage unit 24 stores application programs and data used for processing in the control unit 22. Specifically, the storage unit 24 stores, as an application program, a mail reading program 24a for realizing the reading data creation unit 22a and the voice reading unit 22b. The mail reading program 24a may be divided into a plurality of programs, such as a program for realizing the reading data creation unit 22a and a program for realizing the voice reading unit 22b.

また、記憶部24には、データとして、電子メール24b、アドレス帳データ24c、重要度判定データ24d、解析データ24e、画像読み上げデータ24f等が記憶される。   The storage unit 24 also stores, as data, e-mail 24b, address book data 24c, importance determination data 24d, analysis data 24e, image reading data 24f, and the like.

電子メール24bは、通信端末10が受信した電子メールである。電子メール24bは、件名や送信元アドレス等が含まれるヘッダ部と、本文と以外に、1ないし複数の画像データが添付されていることがある。画像データが添付されている電子メール24bの表示例を図2に示す。図2に示す例では、表示部32の上部に件名S1と送信元アドレスD1が表示され、その下に本文T1、画像データP1、本文T2、画像データP2が表示されている。   The email 24b is an email received by the communication terminal 10. The e-mail 24b may have one or more image data attached in addition to a header portion including a subject, a transmission source address, and the like, and a text. A display example of the e-mail 24b to which image data is attached is shown in FIG. In the example shown in FIG. 2, the subject S1 and the source address D1 are displayed at the top of the display unit 32, and the text T1, image data P1, text T2, and image data P2 are displayed below it.

図2で表示対象となっている電子メール24bは、HTML形式でレイアウトが定義されており、通信端末10は、その定義に従って電子メールの本文と、電子メールに添付された画像データとを表示している。なお、画像データが添付されている電子メールは、必ずしも、HTML形式等でレイアウトが定義されている必要はなく、レイアウトが定義されていない電子メールは、本文の下に画像データを1枚ずつ表示するといった既定の形式で表示される。   The layout of the email 24b to be displayed in FIG. 2 is defined in the HTML format, and the communication terminal 10 displays the text of the email and the image data attached to the email according to the definition. ing. Note that e-mails with attached image data do not necessarily have a layout defined in HTML format or the like, and e-mails with no layout defined display image data one by one under the body text. Is displayed in the default format.

アドレス帳データ24cは、通信端末10の利用者の知り合いの電話番号等が予め登録されるデータである。アドレス帳データ24cの一例を図3に示す。図3の例に示すように、アドレス帳データ24cには、利用者の知り合いごとに、名前と、電話番号と、メールアドレスと、顔画像とが登録される。顔画像は、利用者の知り合い本人の顔が撮影された画像データであり、例えば、通話や電子メールの着信時に発信者を示すために表示部32に表示される。   The address book data 24c is data in which telephone numbers and the like of the user of the communication terminal 10 are registered in advance. An example of the address book data 24c is shown in FIG. As shown in the example of FIG. 3, in the address book data 24c, a name, a telephone number, a mail address, and a face image are registered for each user acquaintance. The face image is image data in which the face of the user's acquaintance is photographed, and is displayed on the display unit 32, for example, to indicate the caller when a call or e-mail is received.

重要度判定データ24dは、画像データに含まれるオブジェクトの重要度を判定するための情報が予め登録されるデータである。重要度判定データ24dの一例を図4に示す。図4の例に示すように、重要度判定データ24dには、オブジェクトの種別、専有面積、中心からの距離、電子メールとの関連度、他の画像データでの出現頻度等についての複数の判定条件と、判定条件が満たされた場合に加点される重要度の値とが登録される。なお、図4に示した重要度判定データ24dの判定条件と、重要度の値とはいずれも例であり、適宜変更してよい。   The importance determination data 24d is data in which information for determining the importance of an object included in image data is registered in advance. An example of the importance determination data 24d is shown in FIG. As shown in the example of FIG. 4, the importance determination data 24d includes a plurality of determinations regarding the type of object, the area occupied, the distance from the center, the degree of relevance to the e-mail, the appearance frequency in other image data, and the like. The condition and the importance value to be added when the determination condition is satisfied are registered. Note that the determination condition of the importance determination data 24d shown in FIG. 4 and the importance value are both examples, and may be changed as appropriate.

解析データ24eは、画像データに含まれるオブジェクトの解析結果等が格納されるデータである。解析データ24eの一例を図5に示す。図5の例に示すように、解析データ24eには、画像データに含まれるオブジェクトごとに、画像番号、オブジェクト番号、輪郭、特徴データ、種別、名前、確度、メールアドレス、表情、性別、年代、重要度、グループ番号等が格納される。   The analysis data 24e is data in which an analysis result of an object included in the image data is stored. An example of the analysis data 24e is shown in FIG. As shown in the example of FIG. 5, the analysis data 24e includes, for each object included in the image data, an image number, object number, contour, feature data, type, name, accuracy, email address, facial expression, gender, age, Stores importance, group number, and the like.

画像番号は、オブジェクトが含まれていた画像データを識別するための番号である。オブジェクト番号は、オブジェクトを識別するための番号である。輪郭は、画像データにおけるオブジェクトの形状、位置および範囲(大きさ)を表す情報である。輪郭は、例えば、ベクトルの集合によってオブジェクトの形状、位置および範囲を示す情報であってもよいし、正方形や円といった形状を示す表現と位置情報と寸法の組み合わせによってオブジェクトの形状、位置および範囲を示す情報であってもよい。特徴データは、画像データにおけるオブジェクトの特徴を示す情報であり、例えば、色や、テクスチャデータである。   The image number is a number for identifying the image data that includes the object. The object number is a number for identifying the object. The contour is information representing the shape, position, and range (size) of the object in the image data. The outline may be, for example, information indicating the shape, position, and range of an object by a set of vectors, or the shape, position, and range of an object may be determined by a combination of an expression indicating a shape such as a square or a circle, position information, and dimensions. It may be the information shown. The feature data is information indicating the feature of the object in the image data, and is, for example, color or texture data.

種別は、解析によって判定されたオブジェクトの種別名であり、名前は、解析によって判定されたオブジェクトの固有名詞や商品名等である。確度は、種別や名前の判定結果の確からしさを表す値である。メールアドレスは、オブジェクトに対応する人物のメールアドレスであり、オブジェクトが特定の人物であると判定された場合に設定される。表情、性別、年代は、オブジェクトに対応する人物の解析結果を示す情報であり、オブジェクトが人間であると判定された場合に設定される。   The type is the type name of the object determined by the analysis, and the name is the proper noun or product name of the object determined by the analysis. The accuracy is a value representing the accuracy of the determination result of the type or name. The mail address is the mail address of a person corresponding to the object, and is set when it is determined that the object is a specific person. The expression, gender, and age are information indicating the analysis result of the person corresponding to the object, and are set when the object is determined to be human.

重要度は、オブジェクトの重要度を示す値であり、重要度判定データ24dに基づいて算出される。グループ番号は、関連の強さに基づいて行われたグループ分けによってオブジェクトがどのグループへグループ分けされたかを示す番号である。   The importance is a value indicating the importance of the object, and is calculated based on the importance determination data 24d. The group number is a number indicating to which group the objects are grouped by grouping performed based on the strength of association.

画像読み上げデータ24fは、音声読み上げ部22bが画像データの内容を読み上げるために用いるデータであり、解析データ24eに基づいて作成される。画像読み上げデータ24fの一例を図6に示す。図6に示す例では、画像データの内容が平文として画像読み上げデータ24fに格納されている。なお、画像読み上げデータ24fの形式は、図6のように平文である必要はなく、音声読み上げ部22bが読み上げを行うために適した形式であればよい。   The image reading data 24f is data used by the voice reading unit 22b to read the content of the image data, and is created based on the analysis data 24e. An example of the image reading data 24f is shown in FIG. In the example shown in FIG. 6, the contents of the image data are stored in the image reading data 24f as plain text. The format of the image reading data 24f does not need to be plain text as shown in FIG. 6, and may be any format suitable for the voice reading unit 22b to read out.

通信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA方式などによる無線信号回線を確立し、基地局との間で電話通信および情報通信を行う。通信部26で電子メールが受信されると、制御部22は、受信された電子メールを電子メール24bとして記憶部24に記憶させる。   The communication unit 26 includes an antenna 26a, establishes a radio signal line by a CDMA system or the like with a base station via a channel assigned by the base station, and performs telephone communication and information communication with the base station. . When the communication unit 26 receives an email, the control unit 22 stores the received email in the storage unit 24 as an email 24b.

操作部28は、各種キーを備え、これらのキーがユーザの操作により入力されると、その操作内容に対応する信号を発生させる。そして、発生した信号は、ユーザの指示として制御部22へ入力される。   The operation unit 28 includes various keys. When these keys are input by a user operation, a signal corresponding to the operation content is generated. The generated signal is input to the control unit 22 as a user instruction.

音声処理部30は、マイク15に入力される音声信号やレシーバ16から出力される音声信号の処理を実行する。表示部32は、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro-Luminescence)パネルなどで構成された表示パネルを備え、制御部22から供給される映像データに応じた映像、画像データに応じた画像等を表示パネルに表示させる。   The audio processing unit 30 executes processing of an audio signal input to the microphone 15 and an audio signal output from the receiver 16. The display unit 32 includes a display panel composed of a liquid crystal display (LCD), an organic EL (Organic Electro-Luminescence) panel, and the like, and video and images corresponding to video data supplied from the control unit 22. An image corresponding to the data is displayed on the display panel.

次に、図7を用いて画像データが添付されている電子メールを読み上げる場合の通信端末10の動作について説明する。図7は、画像データが添付されている電子メールの読み上げ処理の流れを示すシーケンス図である。   Next, the operation of the communication terminal 10 when reading an e-mail attached with image data will be described with reference to FIG. FIG. 7 is a sequence diagram showing a flow of reading processing of an e-mail attached with image data.

図7の例に示すように、画像データが添付されている電子メールを読み上げるための指示が通信端末10になされると、音声読み上げ部22bが、電子メールの本文の読み上げを開始する。それと並行して、読み上げデータ作成部22aが、画像読み上げデータ作成処理を実行する。画像読み上げデータ作成処理では、電子メールに添付されている画像データを解析して画像読み上げデータ24fを作成する処理が行われる。   As shown in the example of FIG. 7, when the communication terminal 10 is instructed to read out an electronic mail to which image data is attached, the voice reading unit 22b starts reading out the text of the electronic mail. At the same time, the read-out data creation unit 22a executes image read-out data creation processing. In the image reading data creation process, a process for analyzing the image data attached to the e-mail and creating the image reading data 24f is performed.

そして、音声読み上げ部22bは、電子メールの本文の読み上げを完了すると、読み上げデータ作成部22aによって作成された画像読み上げデータ24fの読み上げを開始する。このように、電子メールの本文を読み上げている最中に画像読み上げデータ作成処理を実行することにより、画像読み上げデータ作成処理が実行されていることを利用者に意識させることなく、本文と画像データの読み上げを連続して行うことができる。   When the voice reading unit 22b completes reading the body of the e-mail, the voice reading unit 22b starts reading the image reading data 24f created by the reading data creation unit 22a. In this way, by executing the image reading data creation process while reading the text of the e-mail, the user can be aware that the image reading data creation process is being executed, and the text and image data. Can be read continuously.

次に、図7で示した画像読み上げデータ作成処理について図8〜図13を参照しながら説明する。図8は、画像読み上げデータ作成処理の全体的な流れを示すフロー図である。図8に示すように、画像読み上げデータ作成処理では、まず、読み上げデータ作成部22aが、ステップS10として、電子メールに添付されている画像データに含まれるオブジェクトのうち、人物を抽出して解析するための人物解析処理を実行する。続いて、読み上げデータ作成部22aは、ステップS11として、電子メールに添付されている画像データに含まれるオブジェクトのうち、人物以外のオブジェクトを抽出して解析するためのオブジェクト解析処理を実行する。   Next, the image reading data creation process shown in FIG. 7 will be described with reference to FIGS. FIG. 8 is a flowchart showing the overall flow of image reading data creation processing. As shown in FIG. 8, in the image reading data creation process, first, the reading data creation unit 22a extracts and analyzes a person out of the objects included in the image data attached to the e-mail in step S10. The person analysis process is executed. Subsequently, the read-out data creation unit 22a executes an object analysis process for extracting and analyzing an object other than a person among objects included in the image data attached to the e-mail in step S11.

そして、読み上げデータ作成部22aは、ステップS12として、画像データから抽出された各オブジェクトの重要度を算出するための重要度算出処理を実行し、ステップS13として、オブジェクトを関連の強さに基づいてグループ分けするためのグループ分け処理を実行する。そして、読み上げデータ作成部22aは、ステップS14として、画像読み上げデータ24fを出力するためのデータ出力処理を実行する。   Then, the read-out data creation unit 22a executes an importance calculation process for calculating the importance of each object extracted from the image data in step S12, and in step S13, the object is determined based on the strength of the relation. Execute grouping processing for grouping. Then, the read-out data creating unit 22a executes a data output process for outputting the image read-out data 24f as step S14.

図9は、図8に示した人物解析処理の処理手順を示すフロー図である。図9に示すように、読み上げデータ作成部22aは、まず、ステップS20として、電子メールに添付されている画像データに含まれる人物の顔領域を全て抽出する。なお、顔領域の抽出は、いずれの顔検出技術を用いて実現することとしてもよい。   FIG. 9 is a flowchart showing a processing procedure of the person analysis processing shown in FIG. As shown in FIG. 9, the read-out data creation unit 22a first extracts all face areas of a person included in the image data attached to the e-mail as step S20. Note that the face area extraction may be realized using any face detection technique.

そして、読み上げデータ作成部22aは、ステップS21として、抽出した顔領域の中から未選択の顔領域を1つ選択する。未選択の顔領域を選択できた場合(ステップS22,Yes)、読み上げデータ作成部22aは、選択した顔領域を対象に、ステップS23として表情の解析を行い、ステップS24として性別の解析を行い、ステップS25として年代の解析を行う。なお、表情、性別および年代の解析は、いずれの画像解析技術を用いて実現することとしてもよい。   Then, in step S21, the reading data creation unit 22a selects one unselected face area from the extracted face areas. When an unselected face area can be selected (step S22, Yes), the reading data creation unit 22a performs facial expression analysis as step S23 and gender analysis as step S24 for the selected face area, In step S25, the age is analyzed. The analysis of facial expression, sex and age may be realized using any image analysis technique.

そして、読み上げデータ作成部22aは、ステップS26として、選択した顔領域を、アドレス帳データ24cの顔画像と照合する。ここで、一定以上の確度でマッチする顔画像がアドレス帳データ24cに登録されていた場合(ステップS27,Yes)、読み上げデータ作成部22aは、ステップS28として、その顔画像に対応する名前とメールアドレスを、選択した顔領域に対応する人物の個人情報として取得する。   Then, the read-out data creation unit 22a collates the selected face area with the face image of the address book data 24c in step S26. Here, when a face image that matches with a certain degree of accuracy is registered in the address book data 24c (step S27, Yes), the read-out data creation unit 22a, as step S28, the name and mail corresponding to the face image The address is acquired as personal information of a person corresponding to the selected face area.

そして、読み上げデータ作成部22aは、ステップS29として、選択した顔領域について得た解析結果を、選択した顔領域の輪郭と対応付けて解析データ24eに追加する。   Then, in step S29, the reading data creation unit 22a adds the analysis result obtained for the selected face area to the analysis data 24e in association with the outline of the selected face area.

以上の処理により、例えば、図2に示した画像データP1に含まれる人物OB1の顔領域は、ステップS23で、表情が「笑顔」であると解析され、ステップS24で、性別が「男」であると解析され、ステップS25で、年代が「20代」であると解析される。また、例えば、人物OB1の顔領域は、ステップS26で、図3に示したアドレス帳の1行目の顔画像と「90%」の確度でマッチし、ステップS28で、名前として「田中太郎」が取得され、メールアドレスとして「tarou@example.com」が取得される。   Through the above processing, for example, the face area of the person OB1 included in the image data P1 shown in FIG. 2 is analyzed in step S23 as the expression “smile”. In step S24, the gender is “male”. In step S25, it is analyzed that the age is “20s”. Further, for example, the face area of the person OB1 matches the face image in the first row of the address book shown in FIG. 3 with an accuracy of “90%” in step S26, and “Taro Tanaka” as the name in step S28. Is acquired, and “taro@example.com” is acquired as the mail address.

この場合、図5に示した解析データ24eの例の1行目のように、解析結果として、種別に「人間」が設定され、名前に「田中太郎」が設定され、確度に「90%」が設定され、メールアドレスに「tarou@example.com」が設定され、表情に「笑顔」が設定され、性別に「男」が設定され、年代に「20代」が設定される。なお、該当する顔画像がアドレス帳データ24cに登録されていなかった場合、図5に示した解析データ24eの例の3行目のように、名前とメールアドレスは空欄となり、確度には、ステップS20での顔領域の抽出において当該領域が人物の顔であると判定された確度が設定される。   In this case, as shown in the first line of the example of the analysis data 24e shown in FIG. 5, “Human” is set as the type of analysis, “Taro Tanaka” is set as the name, and “90%” is set as the accuracy. Is set, “taro@example.com” is set as the mail address, “smile” is set as the facial expression, “male” is set as the gender, and “20s” is set as the age. If the corresponding face image is not registered in the address book data 24c, the name and e-mail address are blank as shown in the third line of the example of the analysis data 24e shown in FIG. In the extraction of the face area in S20, the accuracy determined that the area is a person's face is set.

解析データ24eへ情報を追加した後、読み上げデータ作成部22aは、ステップS21以降を再実行する。そして、未選択の顔領域を選択できなくなった場合、すなわち、抽出した全ての顔領域の解析を完了していた場合(ステップS22,No)、読み上げデータ作成部22aは、人物解析処理を終了させる。   After adding information to the analysis data 24e, the reading data creation unit 22a re-executes Step S21 and the subsequent steps. When it becomes impossible to select an unselected face area, that is, when the analysis of all the extracted face areas has been completed (No in step S22), the reading data creation unit 22a ends the person analysis process. .

図10は、図8に示したオブジェクト解析処理の処理手順を示すフロー図である。図10に示すように、読み上げデータ作成部22aは、まず、ステップS40として、電子メールに添付されている画像データに含まれるオブジェクトの輪郭を全て抽出する。そして、読み上げデータ作成部22aは、ステップS41として、抽出した輪郭のうち、人物解析処理で抽出した人物に対応する輪郭を処理対象から除外する。なお、ステップS40におけるオブジェクトの輪郭の抽出は、いずれの画像解析技術を用いて実現することとしてもよい。   FIG. 10 is a flowchart showing the processing procedure of the object analysis processing shown in FIG. As shown in FIG. 10, the reading data creation unit 22a first extracts all the outlines of the objects included in the image data attached to the e-mail in step S40. Then, in step S41, the reading data creation unit 22a excludes the contour corresponding to the person extracted by the person analysis process from the extracted contours. Note that the extraction of the contour of the object in step S40 may be realized using any image analysis technique.

そして、読み上げデータ作成部22aは、ステップS42として、抽出した輪郭の中から未選択の輪郭を1つ選択する。未選択の輪郭を選択できた場合(ステップS43,Yes)、読み上げデータ作成部22aは、ステップS44として、選択した輪郭に囲まれた領域の色やテクスチャデータ等の特徴データを取得する。続いて、読み上げデータ作成部22aは、ステップS45として、無線通信を介して輪郭と特徴データを所定のサーバへ送信し、輪郭に囲まれた領域に存在するオブジェクトが何であるかを問い合わせる。   Then, in step S42, the reading data creation unit 22a selects one unselected contour from the extracted contours. When an unselected contour can be selected (step S43, Yes), the read-out data creation unit 22a acquires feature data such as the color and texture data of the region surrounded by the selected contour as step S44. Subsequently, in step S45, the read-out data creation unit 22a transmits the contour and feature data to a predetermined server via wireless communication, and inquires about what object is present in the region surrounded by the contour.

ここでの問い合わせ先のサーバは、膨大な数のオブジェクトの種別と、輪郭と、特徴データとを対応付けて蓄積している装置である。このサーバは、名前をもつオブジェクトについては、名前も輪郭等と対応付けて記憶している。   The inquiry destination server is an apparatus that stores a huge number of object types, contours, and feature data in association with each other. This server stores names associated with contours and the like for objects having names.

輪郭と特徴データに一定以上の確度でマッチするオブジェクトの情報がサーバにあった場合(ステップS46,Yes)、読み上げデータ作成部22aは、ステップS47として、種別や名前等のそのオブジェクトの詳細情報と照合の確度とをサーバから取得する。   If the server has information on an object that matches the contour and feature data with a certain degree of accuracy (Yes in step S46), the read-out data creation unit 22a, in step S47, includes detailed information on the object such as type and name. Get verification accuracy from the server.

そして、読み上げデータ作成部22aは、ステップS48として、選択した輪郭について得た解析結果を、選択した輪郭と対応付けて解析データ24eに追加する。   Then, in step S48, the reading data creation unit 22a adds the analysis result obtained for the selected contour to the analysis data 24e in association with the selected contour.

以上の処理により、例えば、図2に示した画像データP1に含まれるオブジェクトOB4の輪郭に含まれるオブジェクトは、サーバへの問い合わせにより、「90%」の確度で、種別が「山」で、名前が「富士山」であることが判明する。この場合、図5に示した解析データ24eの例の4行目のように、解析結果として、種別に「山」が設定され、名前に「富士山」が設定され、確度に「90%」が設定される。   Through the above processing, for example, the object included in the outline of the object OB4 included in the image data P1 shown in FIG. 2 has the accuracy of “90%”, the type is “mountain”, and the name by the inquiry to the server. Is found to be “Mt. Fuji”. In this case, as shown in the fourth line of the example of the analysis data 24e shown in FIG. 5, as the analysis result, “Mountain” is set as the type, “Mt. Fuji” is set as the name, and “90%” is set as the accuracy. Is set.

なお、サーバの問い合わせによって名前が特定されなかった場合、図5に示した解析データ24eの例の5行目のように、名前は空欄となる。また、サーバの問い合わせによって種別が特定されなかった場合、種別は「不明」となる。   When the name is not specified by the server inquiry, the name is blank as in the fifth line in the example of the analysis data 24e shown in FIG. When the type is not specified by the server inquiry, the type is “unknown”.

解析データ24eへ情報を追加した後、読み上げデータ作成部22aは、ステップS42以降を再実行する。そして、未選択の領域を選択できなくなった場合、すなわち、処理対象の全ての領域の解析を完了していた場合(ステップS43,No)、読み上げデータ作成部22aは、オブジェクト解析処理を終了させる。   After adding information to the analysis data 24e, the reading data creation unit 22a re-executes Step S42 and the subsequent steps. Then, when it becomes impossible to select an unselected area, that is, when analysis of all the areas to be processed has been completed (No in step S43), the reading data creation unit 22a ends the object analysis process.

図11は、図8に示した重要度算出処理の処理手順を示すフロー図である。図11に示すように、読み上げデータ作成部22aは、まず、ステップS60として、解析データ24eに登録されているオブジェクトを識別するための変数iを1に初期化する。   FIG. 11 is a flowchart showing a processing procedure of importance calculation processing shown in FIG. As shown in FIG. 11, the read-out data creation unit 22a first initializes a variable i for identifying an object registered in the analysis data 24e to 1 in step S60.

そして、読み上げデータ作成部22aは、ステップS61として、解析データ24eに登録されているi番目のオブジェクトを選択する。i番目のオブジェクトを選択できた場合(ステップS62,Yes)、読み上げデータ作成部22aは、ステップS63として、重要度判定データ24dを参照して、i番目のオブジェクトの種別と名前に応じた重要度の値を取得する。   Then, the read-out data creation unit 22a selects the i-th object registered in the analysis data 24e as step S61. When the i-th object can be selected (step S62, Yes), the read-out data creation unit 22a refers to the importance determination data 24d as step S63, and the importance according to the type and name of the i-th object Get the value of.

具体的には、重要度判定データ24dが図4に示した例の通りである場合、読み上げデータ作成部22aは、分類が「種別」となっている判定条件のうち、i番目のオブジェクトの種別と名前が条件を満たすものを選択し、選択した判定条件に対応する重要度の値を重要度判定データ24dから取得する。   Specifically, when the importance determination data 24d is as shown in the example shown in FIG. 4, the reading data creation unit 22a determines the type of the i-th object among the determination conditions whose classification is “type”. And the name satisfying the condition is selected, and the importance value corresponding to the selected determination condition is acquired from the importance determination data 24d.

例えば、図5に示した解析データ24eの例の1行目のオブジェクトのように、i番目のオブジェクトの種別が「人間」で名前が「田中太郎」と特定されている場合、種別と名前に合致する判定条件として、分類が「種別」で条件が「人間(名前が特定されている)」という判定条件が選択され、この判定条件に対応する重要度の値として「10」が取得される。   For example, as in the case of the object in the first line of the analysis data 24e shown in FIG. 5, when the type of the i-th object is “human” and the name is “Taro Tanaka”, the type and name are As a matching judgment condition, a judgment condition of classification “type” and condition “human (name is specified)” is selected, and “10” is acquired as an importance value corresponding to this judgment condition. .

また、例えば、図5に示した解析データ24eの例の3行目のオブジェクトのように、i番目のオブジェクトの種別が「人間」で名前が特定されていない場合、種別と名前に合致する判定条件として、分類が「種別」で条件が「人間(名前が特定されていない)」という判定条件が選択され、この判定条件に対応する重要度の値として「4」が取得される。   Further, for example, when the type of the i-th object is “human” and the name is not specified as in the third row object in the example of the analysis data 24e illustrated in FIG. As a condition, a determination condition that the classification is “type” and the condition is “human (no name is specified)” is selected, and “4” is acquired as the importance value corresponding to this determination condition.

また、例えば、図5に示した解析データ24eの例の4行目のオブジェクトのように、i番目のオブジェクトの種別が「山」である場合、種別と名前に合致する判定条件として、分類が「種別」で条件が「山」という判定条件が選択され、この判定条件に対応する重要度の値として「4」が取得される。   Further, for example, when the type of the i-th object is “mountain” like the object in the fourth line in the example of the analysis data 24e illustrated in FIG. 5, the classification is set as the determination condition that matches the type and the name. A determination condition of “type” and a condition of “mountain” is selected, and “4” is acquired as an importance value corresponding to this determination condition.

図4に示した重要度判定データ24dの例のように、種別と名前に応じた重要度の値は、人間のように電子メールの受信者の関心が強いと思われるものほど高く設定することが好ましい。また、人間でも、アドレス帳データ24cに登録されている知人の方が、見知らぬ人間よりも重要度の値が高くなるように設定することが好ましい。このように重要度の値を設定することにより、画像データに含まれるオブジェクトのうち、電子メールの受信者にとって重要なオブジェクトを優先して読み上げることができる。   As in the example of the importance determination data 24d shown in FIG. 4, the importance value corresponding to the type and name should be set higher as it seems that the e-mail recipient is more interested like a human being. Is preferred. Further, even for humans, it is preferable that an acquaintance registered in the address book data 24c is set to have a higher importance value than a stranger. By setting the importance value in this way, it is possible to preferentially read out objects that are important for the e-mail recipient among objects included in the image data.

続いて、読み上げデータ作成部22aは、ステップS64として、重要度判定データ24dを参照して、i番目のオブジェクトの専有面積に応じた重要度の値を取得する。   Subsequently, in step S64, the read-out data creation unit 22a refers to the importance determination data 24d, and acquires the importance value corresponding to the exclusive area of the i-th object.

具体的には、重要度判定データ24dが図4に示した例の通りである場合、読み上げデータ作成部22aは、分類が「専有面積」となっている判定条件のうち、i番目のオブジェクトの専有面積が条件を満たすものを選択し、選択した判定条件に対応する重要度の値を重要度判定データ24dから取得する。なお、図4に示した重要度判定データ24dの例では、専有面積は、輪郭で囲まれた領域が画像データの全領域に占める割合として算出されることが前提となっているが、専有面積の求め方はこの通りである必要はない。   Specifically, when the importance determination data 24d is as shown in the example shown in FIG. 4, the read-out data creation unit 22a determines the i-th object among the determination conditions whose classification is “exclusive area”. The exclusive area satisfying the condition is selected, and the importance value corresponding to the selected determination condition is acquired from the importance determination data 24d. In the example of the importance determination data 24d shown in FIG. 4, it is assumed that the exclusive area is calculated as a ratio of the area surrounded by the outline to the entire area of the image data. This is not necessary.

図4に示した重要度判定データ24dの例のように、専有面積に応じた重要度の値は、専有面積が広いほど高く設定することが好ましい。一般に、撮影者は、写したい対象が大きく写るように撮影を行う。このため、専有面積が大きいオブジェクトほど重要度の値を高く設定することにより、撮影者が意図的に撮影したオブジェクトが優先して読み上げられる可能性を高くすることができる。   As in the example of the importance determination data 24d shown in FIG. 4, the importance value corresponding to the exclusive area is preferably set higher as the exclusive area is larger. In general, a photographer takes a picture so that a subject to be photographed is large. For this reason, by setting a higher importance value for an object having a larger exclusive area, it is possible to increase a possibility that an object intentionally photographed by the photographer is preferentially read out.

続いて、読み上げデータ作成部22aは、ステップS65として、重要度判定データ24dを参照して、i番目のオブジェクトの、画像データの中心からの距離に応じた重要度の値を取得する。   Subsequently, in step S65, the read-out data creation unit 22a refers to the importance determination data 24d, and acquires the importance value corresponding to the distance from the center of the image data of the i-th object.

具体的には、重要度判定データ24dが図4に示した例の通りである場合、読み上げデータ作成部22aは、分類が「中心からの距離」となっている判定条件のうち、i番目のオブジェクトと画像データの中心との距離が条件を満たすものを選択し、選択した判定条件に対応する重要度の値を重要度判定データ24dから取得する。なお、図4に示した重要度判定データ24dの例では、中心からの距離は、画像データの長辺の長さを1とした場合の相対値として算出されることが前提となっているが、中心からの距離の求め方はこの通りである必要はない。   Specifically, when the importance level determination data 24d is as shown in the example shown in FIG. 4, the reading-out data creation unit 22a is the i-th of the determination conditions whose classification is “distance from the center”. The object satisfying the distance between the object and the center of the image data is selected, and the importance value corresponding to the selected determination condition is acquired from the importance determination data 24d. In the example of the importance determination data 24d shown in FIG. 4, it is assumed that the distance from the center is calculated as a relative value when the length of the long side of the image data is 1. The distance from the center does not have to be this way.

図4に示した重要度判定データ24dの例のように、中心からの距離に応じた重要度の値は、中心からの距離が短いほど高く設定することが好ましい。一般に、撮影者は、写したい対象が中心近くに写るように撮影を行う。このため、画像データの中心からの距離が短いオブジェクトほど重要度の値を高く設定することにより、撮影者が意図的に撮影したオブジェクトが優先して読み上げられる可能性を高くすることができる。   As in the example of the importance determination data 24d shown in FIG. 4, the importance value corresponding to the distance from the center is preferably set higher as the distance from the center is shorter. In general, a photographer takes a picture so that an object to be photographed is captured near the center. For this reason, by setting a higher importance value for an object having a shorter distance from the center of the image data, it is possible to increase a possibility that an object intentionally photographed by the photographer is preferentially read out.

続いて、読み上げデータ作成部22aは、ステップS66として、i番目のオブジェクトの種別、名前、メールアドレス等の解析結果を電子メールの件名、本文、送信元メールアドレス等と照合する。そして、読み上げデータ作成部22aは、ステップS67として、重要度判定データ24dを参照して、照合結果に応じた重要度の値を、i番目のオブジェクトの電子メールとの関連度に応じた重要度の値として取得する。   Subsequently, in step S66, the read-out data creating unit 22a collates the analysis result such as the type, name, and mail address of the i-th object with the subject, body, and source mail address of the email. Then, in step S67, the read-out data creation unit 22a refers to the importance determination data 24d, determines the importance value according to the collation result, and the importance according to the degree of association with the e-mail of the i-th object. Get the value of.

具体的には、重要度判定データ24dが図4に示した例の通りである場合、読み上げデータ作成部22aは、分類が「電子メールとの関連度」となっている判定条件のうち、i番目のオブジェクトの種別、名前またはメールアドレスが条件を満たすものを選択し、選択した判定条件に対応する重要度の値を重要度判定データ24dから取得する。   Specifically, when the importance determination data 24d is as in the example illustrated in FIG. 4, the read-out data creation unit 22a determines that i among the determination conditions whose classification is “degree of association with e-mail”. The one that satisfies the condition of the type, name, or mail address of the second object is selected, and the importance value corresponding to the selected determination condition is acquired from the importance determination data 24d.

なお、i番目のオブジェクトの種別、名前またはメールアドレスが条件を満たす判定条件が複数ある場合、条件が満たされる各判定条件に対応する重要度の値の合計を、電子メールとの関連度に応じた重要度の値として取得してもよいし、条件が満たされる各判定条件に対応する重要度の値の最大値を、電子メールとの関連度に応じた重要度の値として取得してもよい。   In addition, when there are a plurality of determination conditions that satisfy the condition, name, or mail address of the i-th object, the sum of importance values corresponding to the determination conditions that satisfy the condition is determined according to the degree of association with the e-mail. May be acquired as the importance value, or the maximum importance value corresponding to each determination condition that satisfies the condition may be acquired as the importance value according to the degree of association with the e-mail. Good.

例えば、図5に示した解析データ24eの例の4行目のオブジェクトのように、i番目のオブジェクトの種別が「山」で、名前が「富士山」と特定されており、電子メールの件名、送信元アドレスおよび本文が図2に示した通りであったとする。また、条件が満たされる各判定条件に対応する重要度の値の合計を、電子メールとの関連度に応じた重要度の値として取得するものとする。また、名前が条件を満たす判定条件が複数ある場合、種別が条件を満たす判定条件を検索しないものとする。   For example, like the object in the fourth line in the example of the analysis data 24e shown in FIG. 5, the type of the i-th object is “mountain” and the name is “Mt. Fuji”, the subject of the email, Assume that the source address and the text are as shown in FIG. Further, the sum of importance values corresponding to the determination conditions that satisfy the condition is acquired as the importance value corresponding to the degree of association with the e-mail. Further, when there are a plurality of determination conditions that satisfy the condition of the name, the determination conditions that satisfy the condition of the type are not searched.

この場合、「富士山」が件名S1に含まれるため、「名前が件名に含まれる」という条件が満たされ、この条件が満たされる判定条件に対応する重要度の値として「10」が取得される。また、「富士山」が本文T1に含まれるため、「名前が本文に含まれる」という条件が満たされ、この条件が満たされる判定条件に対応する重要度の値として「8」が取得される。この結果、電子メールとの関連度に応じた重要度の値として「10」と「8」の合計である「18」が取得される。   In this case, since “Mt. Fuji” is included in the subject S1, the condition “the name is included in the subject” is satisfied, and “10” is acquired as the importance value corresponding to the determination condition that satisfies this condition. . Since “Mount Fuji” is included in the text T1, the condition “name is included in the text” is satisfied, and “8” is acquired as the importance value corresponding to the determination condition that satisfies this condition. As a result, “18”, which is the sum of “10” and “8”, is acquired as the importance value corresponding to the degree of association with the e-mail.

一般に、電子メールの送信者は、電子メールに添付した画像データで伝えたいものについて、電子メールの件名や本文で言及する。このため、オブジェクトの種別や名前が電子メールの件名や本文に含まれる場合にオブジェクトの重要度を高く評価することにより、電子メールの送信者が添付した画像データで伝えたいオブジェクトが優先して読み上げられる可能性を高くすることができる。   In general, the sender of an e-mail refers to the subject or text of the e-mail about what he / she wants to convey with image data attached to the e-mail. For this reason, when the object type or name is included in the subject or body of an email, the importance of the object is highly evaluated, so that the object to be conveyed in the image data attached by the sender of the email has priority. It is possible to increase the possibility of being

また、例えば、図5に示した解析データ24eの例の1行目のオブジェクトのように、種別が「人間」で、名前が「田中太郎」、メールアドレスが「tarou@example.com」と特定されており、電子メールの件名、送信元アドレスおよび本文が図2に示した通りであったとする。   Further, for example, as in the first line object in the example of the analysis data 24e shown in FIG. 5, the type is “human”, the name is “Taro Tanaka”, and the mail address is “taro@example.com”. Suppose that the subject, source address, and text of the e-mail are as shown in FIG.

この場合、「tarou@example.com」が送信元アドレスD1と一致するため、「メールアドレスが送信元アドレスと一致する」という条件が満たされ、この条件が満たされる判定条件に対応する重要度の値として「6」が取得される。この結果、電子メールとの関連度に応じた重要度の値として「6」が取得される。   In this case, since “taro@example.com” matches the source address D1, the condition that “the mail address matches the source address” is satisfied, and the importance level corresponding to the determination condition that satisfies this condition is satisfied. “6” is acquired as the value. As a result, “6” is acquired as the importance value corresponding to the degree of association with the e-mail.

一般に、電子メールの送信者は、電子メールで自身の様子について伝えたい場合に、自身が写っている画像データを電子メールに添付することが多い。このため、メールアドレスが送信元アドレスと一致するオブジェクトの重要度を高く評価することにより、電子メールの送信者が添付した画像データで伝えたいオブジェクトが優先して読み上げられる可能性を高くすることができる。   In general, when an e-mail sender wants to convey his / her state by e-mail, the image data of the e-mail is often attached to the e-mail. For this reason, by evaluating the importance of an object whose mail address matches the sender address, it is possible to increase the possibility that the object to be conveyed by the image data attached by the sender of the email is preferentially read out. it can.

続いて、読み上げデータ作成部22aは、ステップS68として、重要度判定データ24dを参照して、i番目のオブジェクトの、他の画像データでの出現数に応じた重要度の値を取得する。   Subsequently, in step S68, the read-out data creation unit 22a refers to the importance determination data 24d, and acquires the importance value corresponding to the number of appearances of the i-th object in the other image data.

具体的には、重要度判定データ24dが図4に示した例の通りである場合、読み上げデータ作成部22aは、分類が「他の画像データでの出現数」となっている判定条件のうち、i番目のオブジェクトの他の画像データでの出現数が条件を満たすものを選択し、選択した判定条件に対応する重要度の値を重要度判定データ24dから取得する。なお、図4に示した重要度判定データ24dの例では、他の画像データでの出現数として、他の画像データから抽出され、かつ、名前が同一であるオブジェクトの数を取得することを前提としているが、他の画像データでの出現数として、他の画像データから抽出され、かつ、種別が同一であるオブジェクトの数を取得することとしてもよい。   Specifically, when the importance determination data 24d is as shown in the example shown in FIG. 4, the reading data creation unit 22a determines that the classification is “number of appearances in other image data”. , The one that satisfies the condition of the number of appearances in the other image data of the i-th object is selected, and the importance value corresponding to the selected determination condition is acquired from the importance determination data 24d. In the example of the importance determination data 24d shown in FIG. 4, it is assumed that the number of objects extracted from other image data and having the same name is acquired as the number of appearances in other image data. However, the number of objects extracted from the other image data and having the same type may be acquired as the number of appearances in the other image data.

図4に示した重要度判定データ24dの例のように、他の画像データでの出現数に応じた重要度の値は、出現数が多いほど高く設定することが好ましい。一般に、電子メールの送信者は、電子メールで何かについて伝えたい場合に、伝えたいものが写っている複数の画像データを電子メールに添付することがある。このため、多くの画像データに含まれるオブジェクトの重要度を高く評価することにより、電子メールの送信者が添付した画像データで伝えたいオブジェクトが優先して読み上げられる可能性を高くすることができる。   As in the example of the importance determination data 24d illustrated in FIG. 4, it is preferable that the importance value corresponding to the number of appearances in other image data is set higher as the number of appearances increases. In general, when an e-mail sender wants to convey something about an e-mail, he or she may attach a plurality of image data showing what he / she wants to convey to the e-mail. For this reason, by evaluating the importance of objects included in a large amount of image data, it is possible to increase the possibility that an object to be conveyed by image data attached by the sender of the e-mail is preferentially read out.

続いて、読み上げデータ作成部22aは、ステップS69として、i番目のオブジェクトについて取得した重要度の値の合計をi番目のオブジェクトと対応付けて解析データ24eに記録する。そして、読み上げデータ作成部22aは、ステップS70として、変数iに1を加算し、ステップS61以降を再実行する。   Subsequently, in step S69, the reading data creation unit 22a records the sum of importance values acquired for the i-th object in the analysis data 24e in association with the i-th object. In step S70, the read-out data creation unit 22a adds 1 to the variable i, and re-executes step S61 and the subsequent steps.

そして、i番目のオブジェクトを選択できなくなった場合、すなわち、全てのオブジェクトの重要度の算出を完了していた場合(ステップS62,No)、読み上げデータ作成部22aは、重要度算出処理を終了させる。なお、上述した重要度の算出方式は一例であり、一部の判定条件が存在していなくてもよいし、他の判定条件が加わっていてもよい。   When the i-th object can no longer be selected, that is, when the calculation of importance of all objects has been completed (No in step S62), the reading data creation unit 22a ends the importance calculation processing. . Note that the importance calculation method described above is merely an example, and some determination conditions may not exist, or other determination conditions may be added.

図12は、図8に示したグループ分け処理の処理手順を示すフロー図である。図12に示すように、読み上げデータ作成部22aは、まず、ステップS80として、解析データ24eに登録されているオブジェクトを識別するための変数iを1に初期化する。   FIG. 12 is a flowchart showing a processing procedure of the grouping process shown in FIG. As shown in FIG. 12, the read-out data creation unit 22a first initializes a variable i for identifying an object registered in the analysis data 24e to 1 in step S80.

そして、読み上げデータ作成部22aは、ステップS81として、解析データ24eに登録されているi番目のオブジェクトを選択する。i番目のオブジェクトを選択できた場合(ステップS82,Yes)、読み上げデータ作成部22aは、ステップS83として、i番目のオブジェクトがグループ分け済みであるか、すなわち、i番目のオブジェクトにグループ番号が設定済みであるかを判定する。ここで、i番目のオブジェクトがグループ分け済みであった場合(ステップS83,Yes)、読み上げデータ作成部22aは、ステップS89として、変数iに1を加算し、ステップS81以降を再実行する。   Then, the read-out data creation unit 22a selects the i-th object registered in the analysis data 24e as step S81. When the i-th object can be selected (Yes in step S82), the reading-out data creation unit 22a determines in step S83 whether the i-th object has been grouped, that is, sets a group number for the i-th object. It is determined whether it has been completed. If the i-th object has already been grouped (step S83, Yes), the read-out data creation unit 22a adds 1 to the variable i as step S89, and re-executes step S81 and subsequent steps.

一方、i番目のオブジェクトがグループ分け済みでなかった場合(ステップS83,No)、読み上げデータ作成部22aは、ステップS84として、i番目のオブジェクトの種別が判明しているか否かを判定する。ここで、i番目のオブジェクトの種別が判明していなかった場合(ステップS84,No)、読み上げデータ作成部22aは、ステップS89として、変数iに1を加算し、ステップS81以降を再実行する。   On the other hand, when the i-th object has not been grouped (No in step S83), the read-out data creation unit 22a determines whether the type of the i-th object is known in step S84. Here, when the type of the i-th object is not known (step S84, No), the read-out data creation unit 22a adds 1 to the variable i as step S89, and re-executes step S81 and the subsequent steps.

一方、i番目のオブジェクトの種別が判明していた場合(ステップS84,Yes)、読み上げデータ作成部22aは、ステップS85として、同一の画像データから抽出されたオブジェクトから、種別が同一で重要度の差が所定範囲内のオブジェクトを選択する。ここで、オブジェクトが1つも選択されなかった場合(ステップS86,No)、読み上げデータ作成部22aは、ステップS89として、変数iに1を加算し、ステップS81以降を再実行する。   On the other hand, when the type of the i-th object is known (Yes in step S84), the read-out data creation unit 22a, in step S85, has the same type and importance from the objects extracted from the same image data. An object whose difference is within a predetermined range is selected. If no object is selected (No at Step S86), the read-out data creation unit 22a adds 1 to the variable i as Step S89, and re-executes Step S81 and the subsequent steps.

一方、1以上のオブジェクトが選択された場合(ステップS86,Yes)、読み上げデータ作成部22aは、ステップS87として、新しいグループ番号を発番し、ステップS88として、発番したグループ番号を、ステップS85で選択したオブジェクトと、i番目のオブジェクトとに対応付けて解析データ24eに記録する。そして、読み上げデータ作成部22aは、ステップS89として、変数iに1を加算し、ステップS81以降を再実行する。   On the other hand, when one or more objects are selected (step S86, Yes), the read-out data creation unit 22a issues a new group number as step S87, and the issued group number as step S88. Are recorded in the analysis data 24e in association with the object selected in step (i) and the i-th object. Then, the read-out data creation unit 22a adds 1 to the variable i in step S89, and re-executes step S81 and the subsequent steps.

そして、i番目のオブジェクトを選択できなくなった場合、すなわち、全てのオブジェクトのグループ分けを完了していた場合(ステップS82,No)、読み上げデータ作成部22aは、グループ分け処理を終了させる。   When the i-th object can no longer be selected, that is, when the grouping of all objects has been completed (No in step S82), the read-out data creation unit 22a ends the grouping process.

例えば、図2に示した画像データP2に含まれるオブジェクトOB6、OB7、OB8およびOB9について考える。オブジェクトOB6、OB7およびOB8に対応する人物は、家族であるが、オブジェクトOB9に対応する人物は、他人である。なお、ここでは説明を簡単にするため、重要度を画像の中心からの距離のみに基づいて算出するものとする。   For example, consider the objects OB6, OB7, OB8, and OB9 included in the image data P2 shown in FIG. The person corresponding to the objects OB6, OB7, and OB8 is a family, but the person corresponding to the object OB9 is another person. Here, in order to simplify the description, the importance is calculated based only on the distance from the center of the image.

この場合、オブジェクトOB6、OB7、OB8およびOB9は、いずれも種別が「人間」と判定されるが、オブジェクトOB6、OB7およびOB8は、画像データの中心からの距離がほぼ同等であるため重要度が同等に評価されるのに対して、オブジェクトOB9は、画像データの中心からの距離が遠いため重要度が低く評価される。このため、オブジェクトOB6、OB7およびOB8は同一のグループにグループ分けされるが、オブジェクトOB9はグループ分けされない。このように、種別と重要度とに基づいてグループ分けを行うことにより、関連の強いオブジェクトをグループにまとめることができる。   In this case, all of the objects OB6, OB7, OB8, and OB9 are determined to be “human”, but the objects OB6, OB7, and OB8 are substantially equal in distance from the center of the image data. In contrast, the object OB9 is evaluated to be less important because the object OB9 is far from the center of the image data. Therefore, the objects OB6, OB7, and OB8 are grouped into the same group, but the object OB9 is not grouped. In this way, by performing grouping based on the type and importance, it is possible to group strongly related objects.

図13は、図8に示したデータ出力処理の処理手順を示すフロー図である。図13に示すように、読み上げデータ作成部22aは、まず、ステップS100として、電子メールに添付されている画像データを識別するための変数jを1に初期化する。そして、読み上げデータ作成部22aは、ステップS101として、変数jの値が、電子メールに添付されている画像データの数よりも大きいかを判定する。   FIG. 13 is a flowchart showing a processing procedure of the data output process shown in FIG. As shown in FIG. 13, the read-out data creation unit 22a first initializes a variable j for identifying image data attached to an e-mail to 1 in step S100. Then, in step S101, the reading data creation unit 22a determines whether the value of the variable j is larger than the number of image data attached to the e-mail.

変数jの値が電子メールに添付されている画像データの数以下の場合(ステップS101,No)、読み上げデータ作成部22aは、ステップS102として、電子メールに添付されている画像データが複数であるか否かを判定する。そして、電子メールに添付されている画像データが複数であった場合(ステップS102,Yes)、読み上げデータ作成部22aは、ステップS103として、j番目の画像データと他の画像データの対応関係を示す文章を画像読み上げデータ24fに出力する。   When the value of the variable j is less than or equal to the number of image data attached to the e-mail (step S101, No), the read-out data creation unit 22a has a plurality of image data attached to the e-mail as step S102. It is determined whether or not. If there is a plurality of image data attached to the e-mail (step S102, Yes), the read-out data creation unit 22a indicates the correspondence between the jth image data and other image data as step S103. The text is output to the image reading data 24f.

画像データと他の画像データの対応関係を示す文章とは、例えば、図6に示した画像読み上げデータ24fの例の文T3や文T6のような文章であり、何番目の画像データであるかや、定義されているレイアウトにおいてどの位置に表示されることになっている画像データであるか等を解説するためのものである。このような文章を出力することにより、聞き手は、現在どの画像データの内容が読み上げられているかを把握することができる。   The sentence indicating the correspondence between the image data and the other image data is, for example, sentences such as sentence T3 and sentence T6 in the example of the image reading data 24f shown in FIG. 6, and what is the image data? It is also for explaining where the image data is to be displayed in a defined layout. By outputting such a sentence, the listener can grasp which image data is currently being read out.

続いて、読み上げデータ作成部22aは、ステップS104として、j番目の画像データから抽出されたオブジェクトの情報を保持するすべての行を解析データ24eから取得する。そして、読み上げデータ作成部22aは、ステップS105として、取得した行を重要度の高い順にソートする。   Subsequently, in step S104, the read-out data creation unit 22a acquires from the analysis data 24e all rows that hold information on the object extracted from the j-th image data. Then, the read-out data creation unit 22a sorts the acquired rows in descending order of importance in step S105.

ソートの完了後、読み上げデータ作成部22aは、ステップS106として、ソートした行の1つを識別するための変数kを1に初期化する。そして、読み上げデータ作成部22aは、ステップS107として、ソートした行からk番目の行、すなわち、k番目に重要度の値が大きい行を選択する。   After completion of the sorting, the read-out data creation unit 22a initializes a variable k for identifying one of the sorted rows to 1 in step S106. In step S107, the read-out data creation unit 22a selects the kth row from the sorted rows, that is, the kth row having the highest importance value.

ここで、k番目の行を取得できた場合(ステップS108,Yes)、読み上げデータ作成部22aは、ステップS109として、取得した行の重要度の値が予め定められた所定値よりも大きいかを判定する。そして、取得した行の重要度の値が予め定められた所定値よりも大きい場合(ステップS109,Yes)、読み上げデータ作成部22aは、ステップS110として、取得した行の内容を画像読み上げデータ24fへ出力済みであるか否かを判定する。   Here, when the k-th row can be acquired (step S108, Yes), the reading data creation unit 22a determines whether the importance value of the acquired row is larger than a predetermined value as step S109. judge. When the importance value of the acquired line is larger than a predetermined value (Yes at Step S109), the reading data creating unit 22a sets the acquired line contents to the image reading data 24f as Step S110. It is determined whether it has been output.

取得した行の内容を画像読み上げデータ24fへ出力済みでなかった場合(ステップS110,No)、読み上げデータ作成部22aは、ステップS111として、取得した行にグループ番号が設定されているか否か、すなわち、取得した行に対応するオブジェクトが他のオブジェクトと同じグループに属しているか否かを判定する。   When the content of the acquired line has not been output to the image reading data 24f (No at Step S110), the reading data creating unit 22a determines whether or not a group number is set for the acquired line, as Step S111. Then, it is determined whether or not the object corresponding to the acquired row belongs to the same group as other objects.

取得した行にグループ番号が設定されている場合(ステップS111,Yes)、読み上げデータ作成部22aは、ステップS112として、k番目の行の内容と、k番目の行と同じグループ番号が設定されている他の行の内容を一文または一連の文で画像読み上げデータ24fへ出力する。取得した行にグループ番号が設定されていない場合(ステップS111,No)、読み上げデータ作成部22aは、ステップS113として、k番目の行の内容を一文で画像読み上げデータ24fへ出力する。ここで、一連の文とは、「そして」や「さらに」のように、文章の内容が継続していることを示す接続詞によって接続された複数の文章をいう。   When the group number is set to the acquired line (step S111, Yes), the reading data creation unit 22a sets the same group number as the k-th line and the content of the k-th line as step S112. The contents of the other lines are output to the image reading data 24f in one sentence or a series of sentences. When a group number is not set for the acquired line (step S111, No), the read-out data creation unit 22a outputs the contents of the k-th line to the image read-out data 24f in one sentence as step S113. Here, a series of sentences refers to a plurality of sentences connected by a conjunction indicating that the contents of the sentences are continued, such as “and” and “further”.

画像読み上げデータ24fへの出力は、特定されたオブジェクトの種別や名前に、輪郭から導き出されるオブジェクトの形状、位置および範囲や、特徴データから導き出されるオブジェクトの色や、解析によって得られた人物の表情、性別、年代から導き出される表現等を組み合わせて行われる。画像読み上げデータ24fへの出力について、図2、図5および図6を参照しながらさらに詳しく説明する。   The output to the image reading data 24f includes the type and name of the identified object, the shape, position and range of the object derived from the contour, the color of the object derived from the feature data, and the human expression obtained by the analysis. It is performed by combining expressions derived from sex, age, etc. The output to the image reading data 24f will be described in more detail with reference to FIGS. 2, 5, and 6. FIG.

図6に示した「中央には、大きく富士山が写っています」という文T4は、オブジェクトOB4の解析結果を出力したものである。文T4は、名前として特定された「富士山」と、輪郭の位置と範囲から導き出される「中央」と「大きく」の語を組み合わせて出力されている。   The sentence T4 “Large Mt. Fuji is reflected in the center” shown in FIG. 6 is the output of the analysis result of the object OB4. The sentence T4 is output by combining “Mt. Fuji” identified as the name and “center” and “large” words derived from the position and range of the contour.

また、「中央付近には、田中太郎さんと田中花子さんと男の子が笑顔で写っています」という文T5は、「G1」というグループ番号のグループにグループ分けされたオブジェクトOB1、OB2およびOB3の解析結果を出力したものである。文T5は、名前として特定された「田中太郎」および「田中花子」と、「人間」という種別と「男」という性別と「子供」という年代の組み合わせから導き出される「男の子」という語と、輪郭の位置から導き出される「中央付近」の語と、表情の解析結果である「笑顔」の語とを組み合わせて出力されている。文T7も同様である。   In addition, the sentence T5, “Taro Tanaka, Hanako Tanaka, and a boy are smiling with a smile in the vicinity of the center” is an analysis of the objects OB1, OB2, and OB3 grouped into a group with a group number of “G1”. The result is output. Sentence T5 consists of the word “boy” derived from the combination of “Taro Tanaka” and “Hanako Tanaka” identified as names, the type of “human”, the sex of “male”, and the age of “child”. The word “near the center” derived from the position of “and the word“ smile ”that is the analysis result of the facial expression is output in combination. The same applies to the sentence T7.

また、「左の方には、お寺のようなものがやや大きく写っています」という文T8は、オブジェクトOB10の解析結果を出力したものである。文T8は、種別として特定された「寺」と、輪郭の位置と範囲から導き出される「左の方」と「やや大きく」の語を組み合わせて出力されている。   Further, a sentence T8 that “a thing like a temple is slightly larger on the left” is an output of the analysis result of the object OB10. The sentence T8 is output by combining the word “Tera” specified as the type and the words “left” and “somewhat larger” derived from the position and range of the contour.

なお、文T8において、「お寺が」ではなく「お寺のようなものが」となっているのは、OB10の確度が「60%」と比較的低いためである。このように、確度の値がある値よりも低いオブジェクトについては、「のようなもの」のような曖昧な表現とすることにより、聞き手に誤解を与える可能性を低くすることができる。確度が低いオブジェクトや種別を特定できなかったオブジェクトについては、「赤くて丸いもの」の様に、名前や種別ではなく形状や色でオブジェクトを特定して文を出力することとしてもよい。   Note that in the sentence T8, “thing like a temple” instead of “temple is” is because the accuracy of the OB10 is relatively low at “60%”. In this way, for an object whose accuracy value is lower than a certain value, an ambiguous expression such as “something” can reduce the possibility of misunderstanding the listener. For an object with low accuracy or an object for which the type could not be specified, a sentence may be output by specifying the object not by name or type but by shape or color, such as “red and round”.

ステップS112またはステップS113での出力を完了した後、読み上げデータ作成部22aは、ステップS114として、変数kに1を加算し、ステップS107以降を再実行する。また、ステップS110で、取得した行の内容を画像読み上げデータ24fへ出力済みであった場合も(ステップS110,Yes)、読み上げデータ作成部22aは、ステップS114として、変数kに1を加算し、ステップS107以降を再実行する。   After completing the output in step S112 or step S113, the read-out data creation unit 22a adds 1 to the variable k as step S114, and re-executes step S107 and subsequent steps. Also, if the content of the acquired line has already been output to the image reading data 24f in step S110 (step S110, Yes), the reading data creation unit 22a adds 1 to the variable k as step S114, Step S107 and subsequent steps are re-executed.

そして、ステップS108で、k番目の行を取得できなかった場合や(ステップS108,No)、ステップS109で、取得した行の重要度の値が予め定められた所定値以下であった場合(ステップS109,No)、j番目の画像データのオブジェクトの内容の出力は完了したことになるので、読み上げデータ作成部22aは、ステップS115として、変数jに1を加算し、ステップS101以降を再実行する。   If the k-th row cannot be acquired in step S108 (No in step S108), or if the importance value of the acquired row is equal to or smaller than a predetermined value in step S109 (step S108) (S109, No), since the output of the contents of the object of the j-th image data has been completed, the read-out data creation unit 22a adds 1 to the variable j as step S115, and re-executes step S101 and the subsequent steps. .

そして、変数jの値が電子メールに添付されている画像データの数より大きくなった場合、すなわち、全ての画像データのオブジェクトの内容の出力を完了していた場合(ステップS101,Yes)、読み上げデータ作成部22aは、データ出力処理を終了させる。   When the value of the variable j becomes larger than the number of image data attached to the e-mail, that is, when the output of the object contents of all the image data has been completed (Yes in step S101), it is read out. The data creation unit 22a ends the data output process.

上述してきたように、本実施例では、電子メールに添付されている画像データに含まれるオブジェクトを解析した結果に基づいて画像読み上げデータ24fを作成し、画像読み上げデータ24fを音声で読み上げることとしたので、電子メールの本文だけでなく、電子メールに添付されている画像データの内容も音声で読み上げることができる。   As described above, in this embodiment, the image reading data 24f is created based on the analysis result of the object included in the image data attached to the e-mail, and the image reading data 24f is read out by voice. Therefore, not only the text of the email but also the content of the image data attached to the email can be read out by voice.

なお、通信端末10の構成は、本発明の要旨を逸脱しない範囲で種々に変更することができる。例えば、輪郭の内部のオブジェクトについてさらに詳細に解析して読み上げることとしてもよい。具体的には、ショートケーキの輪郭を抽出した場合、輪郭の内部の輪郭をさらに解析して、イチゴやスポンジを抽出し、読み上げることとしてもよい。   The configuration of the communication terminal 10 can be variously changed without departing from the gist of the present invention. For example, the object inside the contour may be analyzed in more detail and read out. Specifically, when the outline of a short cake is extracted, the outline inside the outline may be further analyzed to extract strawberries and sponges and read out.

また、楽器のように音を出すオブジェクトや、猫のように鳴き声を出すオブジェクトが抽出された場合、単にオブジェクトの種別等を読み上げるだけでなく、楽器の音や鳴き声を効果音として再生することとしてもよい。また、オブジェクトとして森が抽出された場合に小鳥のさえずる音を再生するというように、抽出されたオブジェクトに対応する音や音楽の再生を音声での読み上げとともに行ってもよい。なお、再生する楽器の音、鳴き声、音楽等は、無線通信を介してダウンロードすることとしてもよい。   In addition, when an object that produces a sound like a musical instrument or an object that produces a cry like a cat is extracted, it does not just read out the type of the object, but also reproduces the sound or cry of the instrument as a sound effect. Also good. In addition, sound or music corresponding to the extracted object may be played along with the sound reading, such as playing a sound sung by a small bird when a forest is extracted as an object. Note that the sound of a musical instrument to be played, squealing, music, or the like may be downloaded via wireless communication.

また、上述した実施例では、個人を特定するために、抽出した顔領域をアドレス帳データ24cの顔画像と照合することとしたが、顔領域の情報を無線通信を介してサーバへ送信して個人の特定をサーバに依頼することとしてもよい。依頼先のサーバは、会員が自らの顔画像をプロフィール情報として登録するSNS(Social Network Service)の機能を提供するサーバであってもよく、この場合、照合対象を依頼主の友人として登録されている会員に限定してもよい。   In the above-described embodiment, the extracted face area is collated with the face image of the address book data 24c in order to identify the individual. However, the face area information is transmitted to the server via wireless communication. The server may be requested to specify an individual. The requested server may be a server that provides an SNS (Social Network Service) function in which a member registers his / her face image as profile information. In this case, the verification target is registered as a friend of the requester. It may be limited to existing members.

また、上述した実施例では、電子メールの本文を読み上げている最中に画像読み上げデータ24fを作成することとしたが、通信端末10が電子メールを受信した際や、通信端末10がアイドル状態にある場合等に、事前に画像読み上げデータ24fを作成しておくこととしてもよい。   In the above-described embodiment, the image reading data 24f is created while the text of the e-mail is being read. However, when the communication terminal 10 receives the e-mail or when the communication terminal 10 is in the idle state. In some cases, the image reading data 24f may be created in advance.

また、図2に示した電子メールのように、本文T1、画像データP1、本文T2、画像データP2というように本文と画像データが交互に表示されるようになっている場合には、本文T1の読み上げ中に画像データP1の画像読み上げデータ24fを作成し、画像データP1の画像読み上げデータ24fの読み上げと本文T2の読み上げの最中に画像データP2の画像読み上げデータ24fを作成するというように、画像読み上げデータ24fの作成を画像データ毎に行ってもよい。   Further, when the text and the image data are alternately displayed as the text T1, the image data P1, the text T2, and the image data P2 as in the e-mail shown in FIG. 2, the text T1 is displayed. The image reading data 24f of the image data P1 is generated during the reading of the image data P1, and the image reading data 24f of the image data P2 is generated during the reading of the image reading data 24f of the image data P1 and the reading of the text T2. The image reading data 24f may be created for each image data.

また、上述した実施例では、電子メールに添付された画像データの内容を読み上げることとしたが、電子メール以外の手段によって受信した画像データの内容を読み上げる場合にも本発明を適用することができる。   In the embodiment described above, the content of the image data attached to the e-mail is read out. However, the present invention can be applied to the case where the content of the image data received by means other than the e-mail is read out. .

以上のように、本発明に係る通信端末およびメール読み上げ方法は、電子メールの読み上げに有用であり、特に、電子メールに添付された画像データの読み上げに適している。   As described above, the communication terminal and the mail reading method according to the present invention are useful for reading an e-mail, and are particularly suitable for reading image data attached to an e-mail.

10 通信端末
15 マイク
16 レシーバ
22 制御部
22a 読み上げデータ作成部
22b 音声読み上げ部
24 記憶部
24a メール読み上げプログラム
24b 電子メール
24c アドレス帳データ
24d 重要度判定データ
24e 解析データ
24f 画像読み上げデータ
26 通信部
26a アンテナ
28 操作部
30 音声処理部
32 表示部
DESCRIPTION OF SYMBOLS 10 Communication terminal 15 Microphone 16 Receiver 22 Control part 22a Reading data preparation part 22b Voice reading part 24 Storage part 24a Mail reading program 24b Email 24c Address book data 24d Importance determination data 24e Analysis data 24f Image reading data 26 Communication part 26a Antenna 28 Operation unit 30 Audio processing unit 32 Display unit

Claims (16)

画像データが添付された電子メールを受信する通信部と、
前記通信部によって受信された電子メールに添付された画像データを解析して、当該画像データに含まれるオブジェクトを音声で読み上げるための画像読み上げデータを作成するデータ作成部と、
前記データ作成部によって作成された前記画像読み上げデータを音声で読み上げる音声読み上げ部と、を備え
前記データ作成部は、前記通信部によって受信された電子メールの本文を前記音声読み上げ部が読み上げている間に、当該電子メールに添付された画像データを解析して前記画像読み上げデータを作成し、
前記音声読み上げ部は、前記本文の読み上げが完了した後に、前記データ作成部によって作成された前記画像読み上げデータを読み上げることを特徴とする通信端末。
A communication unit for receiving an e-mail attached with image data;
A data creation unit that analyzes image data attached to an e-mail received by the communication unit and creates image reading data for reading out an object included in the image data by voice;
A speech reading unit that reads out the image reading data created by the data creation unit by voice ;
The data creating unit analyzes the image data attached to the e-mail and creates the image reading data while the voice reading unit reads the body of the e-mail received by the communication unit,
The speech reading unit, after reading of the text is complete, the communication terminal characterized by Rukoto reading the image reading data created by the data creation unit.
外部機器から画像データおよびテキストデータを受信する通信部と、
前記通信部によって受信された画像データを解析して、当該画像データに含まれるオブジェクトを音声で読み上げるための画像読み上げデータを作成するデータ作成部と、
前記データ作成部によって作成された前記画像読み上げデータ及びテキストデータを音声で読み上げる音声読み上げ部と、を備え、
前記データ作成部は、前記通信部によって受信されたテキストデータを前記音声読み上げ部が読み上げている間に、当該画像データを解析して前記画像読み上げデータを作成し、
前記音声読み上げ部は、前記テキストデータの読み上げが完了した後に、前記データ作成部によって作成された前記画像読み上げデータを読み上げることを特徴とする通信端末。
A communication unit that receives image data and text data from an external device;
Analyzing the image data received by the communication unit, a data creation unit for creating image reading data for reading out an object included in the image data by voice;
A speech reading unit that reads the image reading data and text data created by the data creation unit by voice;
The data creation unit, the text data received by the communication unit while reading section reading the sound, create a data reading the image by analyzing the equivalent 該画 image data,
The speech reading unit, the text after the reading of data is completed, communication terminal you characterized in that read aloud the image reading data created by the data creation unit.
画像データが添付された電子メールを受信する通信部と、A communication unit for receiving an e-mail attached with image data;
前記通信部によって受信された電子メールに添付された画像データを解析して、当該画像データに含まれるオブジェクトを音声で読み上げるための画像読み上げデータを作成するデータ作成部と、A data creation unit that analyzes image data attached to an e-mail received by the communication unit and creates image reading data for reading out an object included in the image data by voice;
前記データ作成部によって作成された前記画像読み上げデータを音声で読み上げる音声読み上げ部と、を備え、A speech reading unit that reads out the image reading data created by the data creation unit by voice;
前記データ作成部は、前記通信部によって受信された電子メールに複数の画像データが添付されている場合に、当該複数の画像データの対応関係の説明を含む前記画像読み上げデータを作成することを特徴とする通信端末。The data creation unit creates the image reading data including an explanation of a correspondence relationship between the plurality of image data when a plurality of image data is attached to the electronic mail received by the communication unit. Communication terminal.
外部機器から画像データを受信する通信部と、A communication unit that receives image data from an external device;
前記通信部によって受信された画像データを解析して、当該画像データに含まれるオブジェクトを音声で読み上げるための画像読み上げデータを作成するデータ作成部と、Analyzing the image data received by the communication unit, a data creation unit for creating image reading data for reading out an object included in the image data by voice;
前記データ作成部によって作成された前記画像読み上げデータを音声で読み上げる音声読み上げ部と、を備え、A speech reading unit that reads out the image reading data created by the data creation unit by voice;
前記データ作成部は、前記通信部によって複数の画像データが受信された場合に、当該複数の画像データの対応関係の説明を含む前記画像読み上げデータを作成することを特徴とする通信端末。The data creation unit, when a plurality of image data is received by the communication unit, creates the image reading data including an explanation of a correspondence relationship between the plurality of image data.
前記データ作成部は、前記通信部によって受信された前記画像データを解析して抽出された複数のオブジェクトの重要度を、それぞれのオブジェクトの種別、位置、範囲の少なくも1つに関する判定基準に基づいて判定し、重要度の高いオブジェクトから先に読み上げられるように前記画像読み上げデータを作成することを特徴とする請求項1からのいずれか1項に記載の通信端末。 The data creation unit, on the basis of the importance of a plurality of objects extracted by analyzing the received said image data by the communication unit, the type of each object, the position, the fewer criteria for one of the ranges communication terminal according to claim 1, any one of 4 to determine, characterized in that to create the image reading data to be spoken first from high importance object Te. 画像データが添付された電子メールを受信する通信部と、A communication unit for receiving an e-mail attached with image data;
前記通信部によって受信された電子メールに添付された画像データを解析して、当該画像データに含まれるオブジェクトを音声で読み上げるための画像読み上げデータを作成するデータ作成部と、A data creation unit that analyzes image data attached to an e-mail received by the communication unit and creates image reading data for reading out an object included in the image data by voice;
前記データ作成部によって作成された前記画像読み上げデータを音声で読み上げる音声読み上げ部と、を備え、A speech reading unit that reads out the image reading data created by the data creation unit by voice;
前記データ作成部は、前記通信部によって受信された電子メールに添付された画像データを解析して抽出された複数のオブジェクトの重要度を、それぞれのオブジェクトの種別、位置、範囲の少なくも1つに関する判定基準に基づいて判定し、重要度の高いオブジェクトから先に読み上げられるように前記画像読み上げデータを作成することを特徴とする通信端末。The data creating unit analyzes the importance of the plurality of objects extracted by analyzing the image data attached to the e-mail received by the communication unit, at least one of the type, position, and range of each object. The communication terminal is characterized in that the image read-out data is created so as to be read out first from an object having high importance.
前記データ作成部は、前記通信部によって受信された電子メールに複数の画像データが添付されている場合に、当該複数の画像データの対応関係の説明を含む前記画像読み上げデータを作成することを特徴とする請求項1または6に記載の通信端末。 The data creation unit creates the image reading data including an explanation of a correspondence relationship between the plurality of image data when a plurality of image data is attached to the electronic mail received by the communication unit. The communication terminal according to claim 1 or 6 . 外部機器から画像データを受信する通信部と、A communication unit that receives image data from an external device;
前記通信部によって受信された画像データを解析して、当該画像データに含まれるオブジェクトを音声で読み上げるための画像読み上げデータを作成するデータ作成部と、  Analyzing the image data received by the communication unit, a data creation unit for creating image reading data for reading out an object included in the image data by voice;
前記データ作成部によって作成された前記画像読み上げデータを音声で読み上げる音声読み上げ部と、を備え、A speech reading unit that reads out the image reading data created by the data creation unit by voice;
前記データ作成部は、前記通信部によって受信された前記画像データを解析して抽出された複数のオブジェクトの重要度を、それぞれのオブジェクトの種別、位置、範囲の少なくも1つに関する判定基準に基づいて判定し、重要度の高いオブジェクトから先に読み上げられるように前記画像読み上げデータを作成することを特徴とする通信端末。The data creation unit analyzes the importance of a plurality of objects extracted by analyzing the image data received by the communication unit, based on a determination criterion regarding at least one of the type, position, and range of each object. The communication terminal is characterized in that the image reading data is created so that an object having high importance is read out first.
前記データ作成部は、前記通信部によって受信された電子メールに添付された画像データを解析して抽出されたオブジェクトの種別または名前が当該電子メールの本文または件名に含まれるか否かを、オブジェクトの重要度を判定するための判定基準としてさらに用いることを特徴とする請求項1、3、6および7のいずれか1項に記載の通信端末。 The data creation unit is configured to determine whether an object type or name extracted by analyzing image data attached to an email received by the communication unit is included in the body or subject of the email. The communication terminal according to claim 1 , wherein the communication terminal is further used as a determination criterion for determining the importance level. 前記データ作成部は、前記通信部によって受信された電子メールに添付された画像データを解析することによってオブジェクトの1つとして抽出された人物の電子メールアドレスが当該電子メールの送信元アドレスと一致するか否かを、当該人物に対応するオブジェクトの重要度を判定するための判定基準としてさらに用いることを特徴とする請求項1、3、6、7および9のいずれか1項に記載の通信端末。 The data creation unit analyzes the image data attached to the email received by the communication unit, and the email address of the person extracted as one of the objects matches the source address of the email The communication terminal according to any one of claims 1, 3, 6, 7 and 9, wherein the communication terminal is further used as a determination criterion for determining the importance of the object corresponding to the person. . 前記データ作成部は、前記通信部によって受信された電子メールに複数の画像データが添付されている場合に、種別または名前が同一のオブジェクトが当該電子メールに添付された他の画像データから抽出されたか否かを、オブジェクトの重要度を判定するための判定基準としてさらに用いることを特徴とする請求項1、3、6、7、9および10のいずれか1項に記載の通信端末。 When a plurality of image data is attached to the email received by the communication unit, the data creation unit extracts an object of the same type or name from other image data attached to the email. The communication terminal according to any one of claims 1, 3, 6, 7, 9 and 10 , further using as a determination criterion for determining the importance of an object. 前記データ作成部は、前記画像データを解析して抽出された複数のオブジェクトを、種別または名前と、重要度とに基づいてグループ分けし、同一のグループに属するオブジェクトが一つの文章または一連の文章として読み上げられるように前記画像読み上げデータを作成することを特徴とする請求項から11のいずれか1項に記載の通信端末。 The data creation unit, a plurality of objects extracted by analyzing the pre-outs image data, and the type or name, and grouped based on the severity, objects belonging to the same group one sentence or a series The communication terminal according to any one of claims 1 to 11 , wherein the image reading data is created so as to be read as a sentence. 前記データ作成部は、前記通信部によって受信された画像データを解析して、当該画像データに含まれるオブジェクトの特徴データを抽出し、抽出された当該特徴データを用いてサーバに問い合わせを行うことにより、前記オブジェクトの種別または名前を特定し、特定した前記種別または名前に基づき前記画像読み上げデータを作成することを特徴とする請求項1から12のいずれか1項に記載の通信端末。 The data creation unit analyzes the images data received by the communication unit, it extracts the feature data of the object included in the image data, queries the server using the extracted the feature data has been Accordingly, to identify the type or name of the object, a communication terminal according to claim 1, any one of 12, wherein the creating the image reading data based on the type or name specified. 電子メールの受信機能を有する通信端末によって実行されるメール読み上げ方法であって、
前記通信端末が、画像データが添付された電子メールを受信する受信ステップと、
前記通信端末が、前記受信ステップにおいて受信された電子メールに添付された画像データを解析して、当該画像データに含まれる内容を音声で読み上げるための画像読み上げデータを作成するデータ作成ステップと、
前記通信端末が、前記受信ステップにおいて受信された電子メールの本文を音声で読み上げた後、前記データ作成ステップにおいて作成された前記画像読み上げデータを音声で読み上げる音声読み上げステップと、を含み、
前記通信端末が、前記データ作成ステップにおいて、前記電子メールの本文を前記読み上げている間に、当該電子メールに添付された画像データを解析して前記画像読み上げデータを作成することを特徴とするメール読み上げ方法。
An e-mail reading method executed by a communication terminal having an e-mail receiving function,
A receiving step in which the communication terminal receives an e-mail attached with image data;
The communication terminal analyzes the image data attached to the e-mail received in the receiving step, and creates a data reading step for generating image reading data for reading out the content included in the image data by voice;
Wherein the communication terminal, after reading the text of the e-mail received in said receiving step with audio, seen including a reading voice step reads aloud by voice the image reading data generated in said data creation step,
In the data creation step, the communication terminal analyzes the image data attached to the email and creates the image readout data while reading the body of the email Reading method.
電子メールの受信機能を有する通信端末によって実行されるメール読み上げ方法であって、An e-mail reading method executed by a communication terminal having an e-mail receiving function,
前記通信端末が、画像データが添付された電子メールを受信する受信ステップと、A receiving step in which the communication terminal receives an e-mail attached with image data;
前記通信端末が、前記受信ステップにおいて受信された電子メールに添付された画像データを解析して、当該画像データに含まれる内容を音声で読み上げるための画像読み上げデータを作成するデータ作成ステップと、The communication terminal analyzes the image data attached to the e-mail received in the receiving step, and creates a data reading step for generating image reading data for reading out the content included in the image data by voice;
前記通信端末が、前記データ作成ステップにおいて作成された前記画像読み上げデータを音声で読み上げる音声読み上げステップと、を含み、The communication terminal includes a voice reading step of reading the image reading data created in the data creation step by voice,
前記通信端末が、前記データ作成ステップにおいて、前記受信ステップにおいて受信された電子メールに添付された画像データを解析して抽出された複数のオブジェクトの重要度を、それぞれのオブジェクトの種別、位置、範囲の少なくも1つに関する判定基準に基づいて判定し、In the data creation step, the communication terminal analyzes the importance of a plurality of objects extracted by analyzing the image data attached to the e-mail received in the reception step, and determines the type, position, and range of each object. Based on criteria for at least one of
前記音声読み上げステップにおいて、前記データ作成ステップにおいて判定された重要度の高いオブジェクトから先に読み上げることを特徴とするメール読み上げ方法。In the voice reading step, the mail reading method is characterized in that the object having the high importance determined in the data creation step is read first.
電子メールの受信機能を有する通信端末によって実行されるメール読み上げ方法であって、An e-mail reading method executed by a communication terminal having an e-mail receiving function,
前記通信端末が、画像データが添付された電子メールを受信する受信ステップと、A receiving step in which the communication terminal receives an e-mail attached with image data;
前記通信端末が、前記受信ステップにおいて受信された電子メールに添付された画像データを解析して、当該画像データに含まれる内容を音声で読み上げるための画像読み上げデータを作成するデータ作成ステップと、The communication terminal analyzes the image data attached to the e-mail received in the receiving step, and creates a data reading step for generating image reading data for reading out the content included in the image data by voice;
前記通信端末が、前記データ作成ステップにおいて作成された前記画像読み上げデータを音声で読み上げる音声読み上げステップと、を含み、The communication terminal includes a voice reading step of reading the image reading data created in the data creation step by voice,
前記通信端末が、前記データ作成ステップにおいて、前記前記受信ステップにおいて受信された電子メールに複数の画像データが添付されている場合に、当該複数の画像データの対応関係の説明を含む前記画像読み上げデータを作成することを特徴とするメール読み上げ方法。When the communication terminal includes a plurality of image data attached to the e-mail received in the reception step in the data creation step, the image reading data including an explanation of a correspondence relationship between the plurality of image data An e-mail reading method characterized by creating a mail.
JP2010119353A 2010-05-25 2010-05-25 Communication terminal and e-mail reading method Active JP5643545B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010119353A JP5643545B2 (en) 2010-05-25 2010-05-25 Communication terminal and e-mail reading method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010119353A JP5643545B2 (en) 2010-05-25 2010-05-25 Communication terminal and e-mail reading method

Publications (2)

Publication Number Publication Date
JP2011248508A JP2011248508A (en) 2011-12-08
JP5643545B2 true JP5643545B2 (en) 2014-12-17

Family

ID=45413708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010119353A Active JP5643545B2 (en) 2010-05-25 2010-05-25 Communication terminal and e-mail reading method

Country Status (1)

Country Link
JP (1) JP5643545B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10599391B2 (en) * 2017-11-06 2020-03-24 Google Llc Parsing electronic conversations for presentation in an alternative interface
JP7179512B2 (en) * 2018-07-10 2022-11-29 Line株式会社 Information processing method, information processing device, and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073507A (en) * 2000-06-15 2002-03-12 Sharp Corp Electronic mail system and electronic mail device
JP2002073481A (en) * 2000-08-29 2002-03-12 Sharp Corp E-mail system
JP2003157272A (en) * 2001-11-21 2003-05-30 Kyodo Printing Co Ltd Translated publication providing system and its method
JP4447342B2 (en) * 2004-01-30 2010-04-07 京セラ株式会社 Mobile terminal device and information display device status display method
JP2006012055A (en) * 2004-06-29 2006-01-12 Canon Inc Portable terminal device, electronic mail reading aloud method, program, and storage medium
JP2006048379A (en) * 2004-08-04 2006-02-16 Ntt Docomo Hokuriku Inc Content creation apparatus
EP1939809A4 (en) * 2005-09-07 2010-05-26 Pioneer Corp Scene analysis device and method
JP2007088959A (en) * 2005-09-26 2007-04-05 Casio Comput Co Ltd Image output apparatus and program
JP4906075B2 (en) * 2006-06-28 2012-03-28 キヤノン株式会社 Imaging device

Also Published As

Publication number Publication date
JP2011248508A (en) 2011-12-08

Similar Documents

Publication Publication Date Title
CN107609101B (en) Intelligent interaction method, equipment and storage medium
CN107797984B (en) Intelligent interaction method, equipment and storage medium
CN107832286B (en) Intelligent interaction method, equipment and storage medium
CN110659366A (en) Semantic analysis method and device, electronic equipment and storage medium
CN110321537B (en) Method and device for generating file
CN102782751A (en) Digital media voice tags in social networks
CN104969173A (en) Method for adaptive conversation state management with filtering operators applied dynamically as part of a conversational interface
CN113392236A (en) Data classification method, computer equipment and readable storage medium
US11816609B2 (en) Intelligent task completion detection at a computing device
CN110765294B (en) Image searching method and device, terminal equipment and storage medium
CN110347866B (en) Information processing method, information processing device, storage medium and electronic equipment
CN111046225B (en) Audio resource processing method, device, equipment and storage medium
US11297027B1 (en) Automated image processing and insight presentation
CN113569135A (en) User portrait based recommendation method and device, computer equipment and storage medium
CN110489638A (en) A kind of searching method, device, server, system and storage medium
CN113722438A (en) Sentence vector generation method and device based on sentence vector model and computer equipment
US20120185417A1 (en) Apparatus and method for generating activity history
CN114706945A (en) Intention recognition method and device, electronic equipment and storage medium
JP2021096847A (en) Recommending multimedia based on user utterance
CN112052316A (en) Model evaluation method, model evaluation device, storage medium and electronic equipment
CN110019913A (en) Picture match method, user equipment, storage medium and device
JP5643545B2 (en) Communication terminal and e-mail reading method
CN113726942A (en) Intelligent telephone answering method, system, medium and electronic terminal
CN113515620A (en) Method and device for sorting technical standard documents of power equipment, electronic equipment and medium
CN110728983A (en) Information display method, device, equipment and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141031

R150 Certificate of patent or registration of utility model

Ref document number: 5643545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150