JP2006030464A - Audio output device, character image display device, audio output method and character image display method - Google Patents

Audio output device, character image display device, audio output method and character image display method Download PDF

Info

Publication number
JP2006030464A
JP2006030464A JP2004207270A JP2004207270A JP2006030464A JP 2006030464 A JP2006030464 A JP 2006030464A JP 2004207270 A JP2004207270 A JP 2004207270A JP 2004207270 A JP2004207270 A JP 2004207270A JP 2006030464 A JP2006030464 A JP 2006030464A
Authority
JP
Japan
Prior art keywords
information
unit
type
voice
character image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004207270A
Other languages
Japanese (ja)
Other versions
JP4741817B2 (en
Inventor
Shinichi Onaka
慎一 大中
Akio Yoshihashi
昭夫 吉橋
Junichi Osada
純一 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Tama Art University
Original Assignee
NEC Corp
Tama Art University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, Tama Art University filed Critical NEC Corp
Priority to JP2004207270A priority Critical patent/JP4741817B2/en
Publication of JP2006030464A publication Critical patent/JP2006030464A/en
Application granted granted Critical
Publication of JP4741817B2 publication Critical patent/JP4741817B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To let various users listen to audio information in such a way that they may be interested. <P>SOLUTION: An audio output device 100 comprises; an object information acquiring section 102 for acquiring object explanation information including information about an attribute of an object located in the neighborhood; and an audio output section 110 for audio-outputting the explanation information of the object by a language with which such a type of human being is assumed to speak, when the object is personified based on the information about the attribute and set to a predetermined type of human being. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、音声出力装置、キャラクタ画像表示装置、音声出力方法、およびキャラクタ画像表示方法に関する。   The present invention relates to an audio output device, a character image display device, an audio output method, and a character image display method.

従来、美術館等や博物館等において、展示物の説明情報を再生する音声ガイダンス装置が知られている。   2. Description of the Related Art Conventionally, a voice guidance device that reproduces explanatory information on exhibits in an art museum or the like is known.

特許文献1には、説明の対象となる展示物の近くに、展示物を識別する識別情報を無線信号として発生する識別情報発生装置を配置し、利用者が再生装置を携帯し移動するように構成されたシステムが記載されている。再生装置は、複数の展示物についての説明情報を記憶した記憶手段と、無線信号の識別情報を検出する受信回路と、受信回路で検出された識別情報に対応する展示物についての説明情報を上記記憶手段から選択する選択回路と、選択された説明情報を利用者の操作によって出力する出力手段とを持つ。これにより、説明員の削減による人件費の削減や利用者の満足感を実現することができる。
特開平5−333799号公報
In Patent Document 1, an identification information generating device that generates identification information for identifying an exhibit as a wireless signal is arranged near an exhibit to be described so that a user can carry and move the playback device. The configured system is described. The reproducing apparatus stores the description information about the exhibit corresponding to the identification information detected by the storage means storing the description information about the plurality of exhibits, the reception circuit that detects the identification information of the radio signal, and the reception circuit. It has a selection circuit for selecting from the storage means, and an output means for outputting the selected explanation information by a user's operation. As a result, it is possible to realize a reduction in labor costs and user satisfaction by reducing the number of explainers.
JP-A-5-333799

上述したような音声ガイダンス装置を用いることにより、ユーザは美術館や博物館等で、展示物の説明を聞くことができ、展示物の情報を知ることができる。しかし、従来の音声ガイダンス装置は、一方的に展示物の説明が流れるだけだった。そのため、たとえば美術館等の展示品に興味のあるユーザにとっては便利なものだが、子供やあまり展示品に興味のないユーザにとっては退屈に感じることもあった。   By using the voice guidance device as described above, the user can hear the explanation of the exhibit at an art museum or a museum, and can know information on the exhibit. However, the conventional voice guidance device only unilaterally explained the exhibition. For this reason, it is convenient for users who are interested in exhibits such as museums, but sometimes feels boring for children and users who are not very interested in exhibits.

本発明は上記事情を踏まえてなされたものであり、本発明の目的は、種々のユーザが興味を持って音声情報を聞くことができるように構成された音声出力装置およびキャラクタ画像表示装置を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an audio output device and a character image display device configured to allow various users to listen to audio information with interest. There is to do.

本発明によれば、近傍に位置する物体の属性に関する情報を含む物体の説明情報を取得する説明情報取得部と、属性に関する情報に基づき、物体を擬人化した場合の人間の類型を示す類型情報を設定する類型設定処理部と、類型情報に基づき、その類型の人間が話すことが想定される言葉で、説明情報を音声出力する音声出力部と、を含むことを特徴とする音声出力装置が提供される。   According to the present invention, the description information acquisition unit that acquires the description information of the object including the information related to the attribute of the object located in the vicinity, and the type information that indicates the human type when the object is anthropomorphic based on the information related to the attribute An audio output device comprising: a type setting processing unit for setting an audio; and an audio output unit for outputting explanation information in words that are assumed to be spoken by a human of that type based on the type information Provided.

ここで、属性に関する情報は、たとえば、物体の製品名や名称、製造年月日、生産国(生産地)、機能・用途、材質等である。所定の類型の人間とは、年齢や性別によって分類される類型とすることもでき、また性格等によって分類される類型とすることもできる。たとえば、物体が新しい物であれば、その物体の類型は子供と設定され、音声出力部は、子供が話すような言葉で説明情報を音声出力する。また、たとえば、物体が古い物であれば、その物体の類型は老人と設定され、音声出力部は、老人が話すような言葉で説明情報を音声出力する。また、属性に関する情報は、物体の類型そのものを示す情報を含むこともできる。   Here, the information regarding the attribute includes, for example, the product name and name of the object, the date of manufacture, the country of production (production area), the function / use, the material, and the like. The predetermined type of human can be classified according to age or gender, or can be classified according to personality. For example, if the object is a new object, the type of the object is set as a child, and the voice output unit outputs the description information in a voice that the child speaks. Also, for example, if the object is an old object, the type of the object is set as an elderly person, and the voice output unit outputs the explanation information in a voice that the elderly person speaks. The information related to the attribute can also include information indicating the type of the object itself.

説明情報取得部は、たとえば、物体または物体の近傍に配置された情報記憶デバイスから物体の説明情報を取得することができる。また、音声出力装置は、物体または物体の近傍に配置された情報記憶デバイスから、物体の識別情報を取得し、説明情報取得部は、その識別情報に基づき、他の装置から物体の説明情報を取得することもできる。この場合、情報記憶デバイスは、たとえばRFID等のICタグとすることができる。さらに、音声出力装置は、物体または物体の近傍に配置されたバーコード等の識別情報を読み取り、その、識別情報に基づき、他の装置から物体の説明情報を取得することもできる。   The explanation information acquisition unit can acquire the explanation information of the object from, for example, the object or an information storage device arranged in the vicinity of the object. The audio output device acquires object identification information from the object or an information storage device arranged in the vicinity of the object, and the description information acquisition unit receives the object description information from another device based on the identification information. It can also be acquired. In this case, the information storage device may be an IC tag such as an RFID. Furthermore, the audio output device can read identification information such as an object or a barcode arranged in the vicinity of the object, and can acquire object description information from another device based on the identification information.

さらに、説明情報取得部は、物体に接触することにより、物体を構成する材料を認識するように構成されてもよい。この場合、たとえば、物体を構成する材料の材質等に応じて、物体の類型を設定することができる。たとえば、物体が柔らかい物であれば、その物体の類型は優しい人と設定され、音声出力部は、優しい言葉で説明情報を音声出力する。また、たとえば、物体がかたい物であれば、その物体の類型は真面目な人と設定され、音声出力部は、真面目な言葉で説明情報を音声出力する。   Furthermore, the description information acquisition unit may be configured to recognize a material constituting the object by contacting the object. In this case, for example, the type of the object can be set according to the material of the material constituting the object. For example, if the object is a soft object, the type of the object is set as a gentle person, and the audio output unit outputs the explanation information in an easy word. For example, if the object is a hard object, the type of the object is set as a serious person, and the sound output unit outputs the description information in a sound with sound.

以上のように、本発明の音声出力装置によれば、物体の属性に関する情報に応じて物体の類型が異なるので、ユーザは、あたかも物体自身の声を聞いているような気持ちになることができ、興味を持って物体の説明情報を聞くことができる。   As described above, according to the audio output device of the present invention, since the type of the object differs according to the information related to the attribute of the object, the user can feel as if he / she is listening to the voice of the object itself. , You can listen to the explanation information of the object with interest.

本発明の音声出力装置は、類型毎にその類型の人間が話すことが想定される言葉を、当該類型に対応づけて記憶する言葉記憶部と、音声出力部が出力する説明情報の内容を決定するとともに、言葉記憶部から、説明情報の内容に対応する言葉であって、物体の類型に対応づけられた、その類型の人間が話す言葉を読み出す読出処理部と、をさらに含むことができ、音声出力部は、読出処理部が読み出した言葉を音声出力することができる。   The voice output device of the present invention determines, for each type, a word storage unit that stores words that are expected to be spoken by a human of that type in association with the type, and contents of explanation information output by the voice output unit And a reading processing unit that reads words from the word storage unit that correspond to the content of the explanation information and that is associated with the type of the object, and that is spoken by a human of that type, The voice output unit can output the words read by the reading processing unit.

本発明の音声出力装置は、所定の項目毎にその項目に関する前記物体の説明情報を、当該項目に対応づけて記憶する説明情報記憶部をさらに含むことができ、読出処理部は、言葉記憶部から、所望の言葉を読み出すとともに、読み出した言葉の中に、いずれかの前記項目に関する前記物体の説明情報を加える箇所がある場合に、前記説明情報記憶部から対応する項目に対応づけられた説明情報を読み出し、前記言葉と前記説明情報をあわせて文章を作成してよく、音声出力部は、読出処理部が作成した文章を音声出力することができる。   The voice output device of the present invention can further include a description information storage unit that stores the description information of the object related to the item for each predetermined item in association with the item, and the reading processing unit includes the word storage unit When the desired word is read out, and there is a portion to which the explanation information of the object related to any of the items is added in the read word, the explanation associated with the corresponding item from the explanation information storage unit Information may be read and a sentence may be created by combining the word and the explanation information, and the voice output unit can output the sentence created by the read processing unit as a voice.

読出処理部は、言葉情報記憶部から読み出した言葉の中に、物体の説明情報を加える箇所があるか否かを判断する。たとえば、単に「はい、そうです」という言葉を読み出した場合等、物体の説明情報を加える箇所がない場合、読出処理部は、そのままの言葉を音声出力部に通知する。この場合、音声出力部は、「はい、そうです」という言葉を音声出力する。また、たとえば「私は「○○」です」のように、「○○」の部分に、物体の説明情報である物体の名称等を加えなければならない場合、読出処理部は、説明情報記憶部から、物体の名称を読み出す。読出処理部は、「私は「○○」です」の「○○」に、物体の名称、たとえば「ホワイトボード」を加え、「私はホワイトボードです」という文章を作成する。この場合、音声出力部は、「私はホワイトボードです」という文章を音声出力する。   The reading processing unit determines whether or not there is a portion to which the description information of the object is added in the words read from the word information storage unit. For example, when the word “yes, yes” is read out, and there is no place to add the object description information, the reading processing unit notifies the voice output unit of the word as it is. In this case, the voice output unit outputs the word “Yes, that is right” as a voice. In addition, when the name of the object, which is the object description information, has to be added to the part of “XX”, for example “I am“ XX ””, the read processing unit is the description information storage unit To read the name of the object. The reading processing unit adds the name of the object, for example, “whiteboard” to “XX” of “I am“ XX ””, and creates a sentence “I am a whiteboard”. In this case, the voice output unit outputs the sentence “I am a whiteboard” as a voice.

このようにすれば、同じ項目に対応する物体の説明情報を音声出力する場合でも、物体の類型に応じて、異なる文章で音声出力される。これにより、ユーザは、あたかも物体自身の声を聞いているような気持ちになることができ、興味を持って物体の説明情報を聞くことができる。   In this way, even when the description information of the object corresponding to the same item is output as a sound, the sound is output as a different sentence according to the type of the object. Thereby, the user can feel as if he / she is listening to the voice of the object itself, and can listen to the explanation information of the object with interest.

本発明の音声出力装置において、属性に関する情報は、物体を擬人化した場合の人間の類型に関する情報を含むことができる。   In the audio output device of the present invention, the information related to the attribute can include information related to a human type when the object is anthropomorphized.

本発明の音声出力装置は、物体に取り付け可能に構成された取付部をさらに含むことができ、説明情報取得部は、取付部が取り付けられた物体の説明情報を取得することができる。   The audio output device of the present invention can further include an attachment portion configured to be attachable to an object, and the explanation information acquisition unit can obtain explanation information of the object to which the attachment portion is attached.

このようにすれば、ユーザはあたかも物体から直接説明情報を聞いているような気分になることができる。これにより、とくに子供や老人等が興味を持って物体の説明情報を聞くことができる。   In this way, the user can feel as if he / she is listening to the explanation information directly from the object. This makes it possible to listen to the explanation information of the object with particular interest from children, the elderly and the like.

本発明の音声出力装置において、説明情報取得部は、物体に取り付けられた情報記憶部から、当該物体の説明情報を取得することができる。   In the audio output device of the present invention, the explanation information acquisition unit can acquire the explanation information of the object from the information storage unit attached to the object.

本発明の音声出力装置において、説明情報取得部は、物体に取り付けられた情報記憶部から無線で説明情報を読み取り可能に構成することができ、それぞれ情報記憶部が取り付けられた複数の物体が近傍にある場合に、複数の物体にそれぞれ取り付けられた情報記憶部のうち、最も強度の強い情報記憶部の情報を読み取ることができる。   In the audio output device of the present invention, the explanation information acquisition unit can be configured to be able to read explanation information wirelessly from the information storage unit attached to the object, and a plurality of objects each having the information storage unit attached thereto are in the vicinity. In this case, it is possible to read the information of the strongest information storage unit among the information storage units attached to the plurality of objects.

このようにすれば、それぞれ情報記憶部が取り付けられた複数の物体が近傍にある場合でも、所望の物体が最も近くなる位置に音声出力部を配置することにより、所望の物体の説明情報を取得することができる。   In this way, even when a plurality of objects each having an information storage unit attached thereto are in the vicinity, the explanation information of the desired object is obtained by arranging the audio output unit at a position where the desired object is closest. can do.

本発明の音声出力装置は、物体から、当該物体を識別する識別情報を取得する識別情報取得部をさらに含むことができ、説明情報取得部は、識別情報取得部が取得した識別情報に基づき、他の装置から、物体の説明情報を取得することができる。   The audio output device of the present invention can further include an identification information acquisition unit that acquires identification information for identifying the object from the object, and the explanation information acquisition unit is based on the identification information acquired by the identification information acquisition unit, The description information of the object can be acquired from another device.

本発明の音声出力装置において、識別情報取得部は、物体に取り付けられた識別情報記憶部から無線で識別情報を読み取り可能に構成することができ、それぞれ識別情報記憶部が取り付けられた複数の物体が近傍にある場合に、複数の物体にそれぞれ取り付けられた識別情報記憶部のうち、最も強度の強い識別情報記憶部の情報を読み取ることができる。   In the audio output device of the present invention, the identification information acquisition unit can be configured to wirelessly read the identification information from the identification information storage unit attached to the object, and each of the plurality of objects to which the identification information storage unit is attached Can be read from the identification information storage unit having the strongest intensity among the identification information storage units attached to the plurality of objects.

このようにすれば、それぞれ識別情報記憶部が取り付けられた複数の物体が近傍にある場合でも、所望の物体が最も近くなる位置に音声出力部を配置することにより、所望の物体の識別情報を取得することができる。   In this way, even when a plurality of objects each having an identification information storage unit attached thereto are in the vicinity, by arranging the audio output unit at a position where the desired object is closest, the identification information of the desired object can be obtained. Can be acquired.

本発明の音声出力装置は、近傍にいるユーザに関する情報を取得するユーザ情報取得部をさらに含むことができ、音声出力部は、ユーザ情報取得部が取得したユーザに関する情報に基づき、当該ユーザを所定の類型に分類した場合に、物体が設定された類型の人間が、ユーザの類型の人間と話すことが想定される言葉で、物体の説明情報を音声出力することができる。   The audio output device of the present invention can further include a user information acquisition unit that acquires information about a user in the vicinity, and the audio output unit determines the user based on the information about the user acquired by the user information acquisition unit. In the case of classification into the following types, it is possible to output the description information of the object in speech with words that are assumed to be spoken by the type of person to whom the object is set.

このようにすれば、ユーザがより親しみを感じるようにすることができる。音声出力部は、たとえば、ユーザが子供や老人のときには、わかりやすいような言葉で説明情報を音声出力することができる。また、音声出力部は、ユーザが大人のときには、たとえば物体に関するコマーシャル等を音声出力するようにすることもできる。   In this way, the user can feel more familiar. For example, when the user is a child or an elderly person, the voice output unit can output the explanation information in a voice that is easy to understand. In addition, when the user is an adult, the audio output unit can output, for example, a commercial related to an object.

本発明の音声出力装置は、キャラクタ画像を表示する表示部をさらに含むことができ、音声出力部は、キャラクタ画像の声として、説明情報を音声出力することができる。   The audio output device of the present invention can further include a display unit that displays a character image, and the audio output unit can output the explanation information as a voice of the character image.

ここで、音声出力装置は、予めキャラクタ画像を記憶しておくこともできる。この場合、キャラクタ画像の類型が物体の属性に関する情報に応じて異なるので、ユーザはキャラクタ画像との会話を楽しみつつ、物体の説明情報を聞くことができる。   Here, the audio output device can store a character image in advance. In this case, since the type of the character image differs depending on the information related to the attribute of the object, the user can listen to the description information of the object while enjoying the conversation with the character image.

本発明の音声出力装置は、ユーザの音声を認識する音声認識部をさらに含むことができ、音声出力部は、音声認識部により認識されたユーザの音声に応答する音声を出力することができる。   The voice output device of the present invention can further include a voice recognition unit that recognizes the user's voice, and the voice output unit can output a voice that responds to the user's voice recognized by the voice recognition unit.

このようにすれば、ユーザは、音声出力装置を用いることにより、あたかも物体と会話をしているような気分になることができ、物体の説明情報を興味深く聞くことができる。   In this way, the user can feel as if he / she is talking to the object by using the audio output device, and can listen to the explanation information of the object with interest.

本発明によれば、表示部と、表示部に表示させるキャラクタ画像の属性に関する情報を取得するキャラクタ情報取得部と、属性に関する情報に基づき、キャラクタ画像を擬人化した場合の類型を示す類型情報を設定する類型設定処理部と、類型情報に基づき、その類型の人間が話すことが想定される言葉で、キャラクタ画像の音声を出力する音声出力部と、を含むことを特徴とするキャラクタ画像表示装置が提供される。   According to the present invention, the display unit, the character information acquisition unit that acquires information about the attribute of the character image to be displayed on the display unit, and the type information indicating the type when the character image is anthropomorphized based on the information about the attribute. A character image display device comprising: a type setting processing unit to be set; and a voice output unit that outputs voice of a character image in words that are assumed to be spoken by a human of that type based on the type information Is provided.

本発明のキャラクタ画像表示装置によれば、キャラクタ画像の属性に関する情報に応じて、キャラクタ画像の類型が変化するので、ユーザはキャラクタ画像とのコミュニケーションを楽しむことができる。   According to the character image display device of the present invention, since the type of the character image changes according to the information related to the attribute of the character image, the user can enjoy communication with the character image.

本発明のキャラクタ画像表示装置は、キャラクタ画像に関する情報を記憶する画像記憶部をさらに含むことができる。   The character image display device of the present invention can further include an image storage unit that stores information related to the character image.

キャラクタ画像表示装置は、予め画像記憶部にキャラクタ画像に関する情報を記憶しておき、キャラクタ情報取得部は、キャラクタ画像の属性に関する情報のみを新たに取得し、新たに取得したキャラクタ画像の属性に関する情報に基づいて、キャラクタ画像の類型を異ならせることができる。このようにすれば、そのときどきによってキャラクタ画像の類型が異なるので、ユーザが飽きることなく、キャラクタ画像とのコミュニケーションを楽しむことができる。   The character image display device stores information on the character image in the image storage unit in advance, and the character information acquisition unit newly acquires only information on the attribute of the character image, and information on the attribute of the newly acquired character image The character image types can be made different based on the above. In this way, since the character image type varies from time to time, the user can enjoy communication with the character image without getting bored.

本発明のキャラクタ画像表示装置において、キャラクタ情報取得部は、キャラクタ画像および当該キャラクタ画像の属性に関する情報を取得することができる。   In the character image display device of the present invention, the character information acquisition unit can acquire information on the character image and the attributes of the character image.

ここで、たとえば、店舗等で販売される商品に識別情報を付しておき、商品購入者がその識別情報を所定のセンターに送信すると、識別情報に応じて、キャラクタ画像表示装置にキャラクタ画像および当該キャラクタ画像の属性に関する情報が送信されるようにすることもできる。このようにすれば、購入者が所望の類型のキャラクタ画像を入手するために、商品を購入することが期待され、商品の販売促進を図ることができる。   Here, for example, when identification information is attached to a product sold in a store or the like and the product purchaser transmits the identification information to a predetermined center, a character image and a character image are displayed on the character image display device according to the identification information. Information regarding the attribute of the character image may be transmitted. In this way, the purchaser is expected to purchase the product in order to obtain the desired type of character image, and the product can be promoted.

本発明のキャラクタ画像表示装置は、ユーザの音声を認識する音声認識部をさらに含むことができ、音声出力部は、音声認識部により認識されたユーザの音声に応答する音声を出力することができる。   The character image display device of the present invention can further include a voice recognition unit that recognizes the user's voice, and the voice output unit can output a voice in response to the user's voice recognized by the voice recognition unit. .

このようにすれば、ユーザは、キャラクタ画像表示装置を用いることにより、あたかもキャラクタ画像と会話をしているような気分になることができる。   In this way, the user can feel as if he / she is talking with the character image by using the character image display device.

本発明によれば、説明情報取得部と、類型設定処理部と、および音声出力部と、を含む音声出力装置を用いて、説明情報取得部が、近傍に位置する物体の属性に関する情報を含む物体の説明情報を取得するステップと、類型設定処理部が、属性に関する情報に基づき、物体を擬人化した場合の人間の類型を示す類型情報を設定するステップと、音声出力部が、類型情報に基づき、その類型の人間が話すことが想定される言葉で、説明情報を音声出力するステップと、を含むことを特徴とする音声出力方法が提供される。   According to the present invention, using the audio output device including the explanation information acquisition unit, the type setting processing unit, and the audio output unit, the explanation information acquisition unit includes information on the attribute of the object located in the vicinity. A step of acquiring object description information, a step of setting a type information indicating a human type when the type setting processing unit anthropomorphizes the object based on information about the attribute, and a voice output unit including the type information A speech output method characterized in that it includes the step of outputting the description information in speech in words that are expected to be spoken by that type of person.

本発明によれば、表示部と、キャラクタ情報取得部と、類型設定処理部と、音声出力部と、を含むキャラクタ画像表示装置を用いて、キャラクタ情報取得部が、表示部に表示させるキャラクタ画像の属性に関する情報を取得するステップと、類型設定処理部が、属性に関する情報に基づき、キャラクタ画像を擬人化した場合の類型を示す類型情報を設定するステップと、音声出力部が、類型情報に基づき、その類型の人間が話すことが想定される言葉で、キャラクタ画像の音声を出力するステップと、を含むことを特徴とするキャラクタ画像表示方法が提供される。   According to the present invention, a character image displayed on a display unit by a character information acquisition unit using a character image display device including a display unit, a character information acquisition unit, a type setting processing unit, and an audio output unit. A step of acquiring information related to the attribute, a step in which the type setting processing unit sets type information indicating a type when the character image is anthropomorphized based on the information on the attribute, and a voice output unit is based on the type information And a step of outputting a sound of the character image in words assumed to be spoken by that type of human being.

本発明によれば、音声出力装置およびキャラクタ画像表示装置において、しゃべり方を異ならせて音声を出力することにより、種々のユーザが興味を持って音声情報を聞くようにすることができる。   According to the present invention, in a voice output device and a character image display device, various users can listen to voice information with interest by outputting voices with different ways of speaking.

次に、本発明の実施の形態について図面を参照して詳細に説明する。
(第一の実施の形態)
本実施の形態における音声出力装置は、物体に取り付けられた情報記憶デバイスから、その物体の属性に関する情報を含む説明情報を取得し、その属性に関する情報に基づき、物体を擬人化して所定の類型の人間に設定した場合に、その類型の人間が話すことが想定される言葉で、物体の説明情報を音声出力する。たとえば、物体が新しいものである場合、物体の類型は子供に設定される。また、物体が古いものである場合、物体の類型は老人に設定される。
Next, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
The audio output device according to the present embodiment acquires descriptive information including information related to the attribute of the object from the information storage device attached to the object, and anthropomorphizes the object based on the information related to the attribute to obtain a predetermined type. When set to human, the description information of the object is output as a voice in a language that is expected to be spoken by that type of human. For example, if the object is new, the object type is set to child. When the object is old, the type of the object is set to old.

図1は、本実施の形態における音声出力装置の構成を示すブロック図である。
音声出力装置100は、物体情報取得部102、ユーザ情報取得部104、類型設定処理部106、設定情報記憶部108、音声出力部110、取得情報記憶部111、応答例記憶部112、応答読出処理部114、および音声認識部116を含む。
FIG. 1 is a block diagram showing a configuration of an audio output device according to the present embodiment.
The audio output device 100 includes an object information acquisition unit 102, a user information acquisition unit 104, a type setting processing unit 106, a setting information storage unit 108, an audio output unit 110, an acquisition information storage unit 111, a response example storage unit 112, and a response reading process. Unit 114 and voice recognition unit 116.

音声出力装置100は、音声出力機能を有する装置であれば何でもよい。たとえば以下の機能を有する携帯電話端末とすることもできる。   The sound output device 100 may be anything as long as it has a sound output function. For example, a mobile phone terminal having the following functions may be used.

本実施の形態において、物体200は、物体の説明情報を記憶する物体情報記憶部202を含む。物体情報記憶部202は、たとえばRFID等の情報記憶デバイスである。物体情報取得部102は、物体情報記憶部202から物体200の説明情報を取得する。ここで、説明情報は、たとえば、物体200の製品名や名称、製造年月日、生産国(生産地)、機能・用途等の物体の属性に関する情報を含む。物体情報取得部102は、取得した説明情報を取得情報記憶部111に記憶する。   In the present embodiment, the object 200 includes an object information storage unit 202 that stores object description information. The object information storage unit 202 is an information storage device such as an RFID. The object information acquisition unit 102 acquires the description information of the object 200 from the object information storage unit 202. Here, the description information includes, for example, information related to the attributes of the object, such as the product name and name of the object 200, the date of manufacture, the country of production (production place), and the function / use. The object information acquisition unit 102 stores the acquired description information in the acquisition information storage unit 111.

図2は、取得情報記憶部111の内部構成の一例を示す図である。ここでは、物体200の説明情報として、物体200の「名称」、「製造年月日」、「生産国」、「機能」等の項目にそれぞれ対応づけて、「ホワイトボード」、「2004/6/1」、「台湾」、「プリンタ」が記憶されている。物体200の物体情報記憶部202は、物体200の説明情報をこのように項目に対応づけて記憶しておくことができる。また、物体情報記憶部202から取得した説明情報が項目に対応づけられていない場合、物体情報取得部102は、説明情報から各項目に対応する情報を抽出して、項目に対応づけて取得情報記憶部111に記憶することもできる。   FIG. 2 is a diagram illustrating an example of an internal configuration of the acquired information storage unit 111. Here, as the description information of the object 200, “whiteboard”, “2004/6” are associated with items such as “name”, “production date”, “production country”, and “function” of the object 200, respectively. / 1 "," Taiwan ", and" Printer "are stored. The object information storage unit 202 of the object 200 can store the description information of the object 200 in association with the items as described above. Further, when the description information acquired from the object information storage unit 202 is not associated with an item, the object information acquisition unit 102 extracts information corresponding to each item from the description information, and acquires the information associated with the item. It can also be stored in the storage unit 111.

図1に戻り、物体情報取得部102は、たとえば無線で物体情報記憶部202から物体200の説明情報を取得することができる。物体情報取得部102が無線で物体情報記憶部202から物体200の情報を取得する際に、物体情報記憶部が取り付けられた複数の他の物体が近傍にある場合、物体情報取得部102は、複数の物体にそれぞれ取り付けられた物体情報記憶部のうち、最も強度の強い物体情報記憶部の情報を読み取るように構成することができる。また、音声出力装置100自体を物体200に取り付け、物体情報取得部102と物体情報記憶部202とを電気的に接続させて、有線で物体情報記憶部202から物体200の説明情報を取得するようにすることもできる。   Returning to FIG. 1, the object information acquisition unit 102 can acquire the description information of the object 200 from the object information storage unit 202, for example, wirelessly. When the object information acquisition unit 102 wirelessly acquires the information of the object 200 from the object information storage unit 202, when there are a plurality of other objects to which the object information storage unit is attached, the object information acquisition unit 102 Of the object information storage units attached to a plurality of objects, the information of the strongest object information storage unit can be read. Further, the audio output device 100 itself is attached to the object 200, and the object information acquisition unit 102 and the object information storage unit 202 are electrically connected to acquire the description information of the object 200 from the object information storage unit 202 by wire. It can also be.

ユーザ情報取得部104は、ユーザに関する情報を取得する。ユーザに関する情報とは、たとえばユーザの年齢や性別等である。   The user information acquisition unit 104 acquires information about the user. The information regarding the user is, for example, the age and sex of the user.

類型設定処理部106は、物体情報取得部102が取得した物体200の説明情報およびユーザ情報取得部104が取得したユーザに関する情報に基づき、設定情報記憶部108を参照して、物体の類型の設定を行う。設定情報記憶部108には、物体200の属性およびユーザの種類に応じて、異なる類型が対応づけられている。   The type setting processing unit 106 refers to the setting information storage unit 108 based on the description information of the object 200 acquired by the object information acquisition unit 102 and the information about the user acquired by the user information acquisition unit 104, and sets the type of the object. I do. Different types are associated with the setting information storage unit 108 according to the attribute of the object 200 and the type of user.

図3は、設定情報記憶部108の内部構成の一例を示す図である。
設定情報記憶部108は、物体200およびユーザの種類に対応づけて、類型IDを保持する。ここで、物体200の種類は、物体200が古いか新しいかによって分類される。物体200が古いか新しいかは、たとえば物体200の製造年月日に基づき判断することができる。また、ユーザの種類は、ユーザが子供か、大人か、老人かによって分類することができる。ユーザの分類は、たとえばユーザの年齢に基づき判断することができる。
FIG. 3 is a diagram illustrating an example of an internal configuration of the setting information storage unit 108.
The setting information storage unit 108 holds a type ID in association with the type of the object 200 and the user. Here, the type of the object 200 is classified according to whether the object 200 is old or new. Whether the object 200 is old or new can be determined based on the date of manufacture of the object 200, for example. The type of user can be classified according to whether the user is a child, an adult, or an elderly person. The classification of the user can be determined based on the age of the user, for example.

たとえば、物体200が古いもので、ユーザが子供の場合、類型設定処理部106は、物体200を擬人化した場合の類型を「1」に設定する。類型「1」は、たとえば孫等と会話する老人である。   For example, if the object 200 is old and the user is a child, the type setting processing unit 106 sets the type when the object 200 is anthropomorphic to “1”. The type “1” is an elderly person who talks with, for example, a grandchild.

また、物体200が新しいもので、ユーザが子供の場合、類型設定処理部106は、物体200を擬人化した場合の類型を「4」に設定する。類型「4」は、たとえば子供の友達と会話する子供である。   When the object 200 is new and the user is a child, the type setting processing unit 106 sets the type when the object 200 is anthropomorphic to “4”. The type “4” is, for example, a child who talks with a child's friend.

また、物体200が新しいもので、ユーザが老人の場合、類型設定処理部106は、物体200を擬人化した場合の類型を「6」に設定する。類型「6」は、たとえば祖父母と会話する孫である。   When the object 200 is new and the user is an elderly person, the type setting processing unit 106 sets the type when the object 200 is anthropomorphic to “6”. Type “6” is, for example, a grandchild who talks with grandparents.

図1に戻り、音声認識部116は、ユーザからの問いかけを音声信号として取得し、音声認識を行う。また、音声認識部116は、音声認識を行った結果の言葉を、応答読出処理部114に通知する。   Returning to FIG. 1, the voice recognition unit 116 acquires a question from the user as a voice signal and performs voice recognition. In addition, the voice recognition unit 116 notifies the response read processing unit 114 of the words resulting from the voice recognition.

応答例記憶部112は、ユーザからの種々の問いかけに対する複数の応答例を記憶する。本実施の形態において、応答例記憶部112は、各応答例について、類型IDに対応づけて複数の応答例を保持する。   The response example storage unit 112 stores a plurality of response examples for various questions from the user. In the present embodiment, the response example storage unit 112 holds a plurality of response examples for each response example in association with the type ID.

図4は、応答例記憶部112の内部構成の一部の一例を示す図である。図4は、音声出力装置100が、物体200の自己紹介をする場合の応答例を示す図である。たとえば、物体200の類型が4、5、または6のいずれかに設定された場合、自己紹介として、「ぼくは<名称>だよ」という言葉が類型IDに対応づけて記憶されている。また、物体200の類型が1、2、または3のいずれかに設定された場合、自己紹介として、「わしは<名称>じゃ」という言葉が類型IDに対応づけて記憶されている。また、応答例記憶部112は、物体200の類型が設定されていない場合の標準として、「私は<名称>です」という言葉も記憶することができる。物体200の類型を設定することができない場合やユーザの指示により、標準が選択された場合、応答読出処理部114は、応答例記憶部112から「標準」に対応づけられた言葉を読み出す。ここで、<名称>の部分には、物体情報取得部102が物体情報記憶部202から取得した説明情報の物体200の名称が入れられる。   FIG. 4 is a diagram illustrating an example of a part of the internal configuration of the response example storage unit 112. FIG. 4 is a diagram illustrating a response example when the audio output device 100 introduces the object 200 by itself. For example, when the type of the object 200 is set to any of 4, 5, or 6, the word “I am <name>” is stored in association with the type ID as a self-introduction. When the type of the object 200 is set to 1, 2, or 3, the word “I am <name>” is stored in association with the type ID as a self-introduction. In addition, the response example storage unit 112 can also store a word “I am <name>” as a standard when the type of the object 200 is not set. When the type of the object 200 cannot be set or when a standard is selected according to a user instruction, the response read processing unit 114 reads a word associated with “standard” from the response example storage unit 112. Here, in the <name> portion, the name of the object 200 of the description information acquired by the object information acquisition unit 102 from the object information storage unit 202 is entered.

図1に戻り、応答読出処理部114は、音声認識部116から通知された言葉に基づいて、応答例記憶部112から読み出す言葉の内容を決定する。   Returning to FIG. 1, the response read processing unit 114 determines the content of the words to be read from the response example storage unit 112 based on the words notified from the voice recognition unit 116.

たとえばユーザが「名前なんて言うの?」と聞いた場合、応答読出処理部114は、応答例記憶部112から、物体200の自己紹介を読み出すことを決定する。このとき、既に物体200の類型が設定されている場合、応答読出処理部114は、対応する類型IDに対応づけられた応答例を読み出す。   For example, when the user asks “What is your name?”, The response read processing unit 114 determines to read the self-introduction of the object 200 from the response example storage unit 112. At this time, if the type of the object 200 has already been set, the response read processing unit 114 reads the response example associated with the corresponding type ID.

また、応答読出処理部114は、応答例記憶部112から読み出した言葉の中に、物体200の説明情報の項目に関する情報を加える必要がある場合に、取得情報記憶部111も参照して、対応する項目に対応づけられた物体200の説明情報を読み出す。たとえば、図4に示した例では、応答読出処理部114は、「私は<名称>です」という言葉を読み出すが、この中には、<名称>という項目が含まれる。応答読出処理部114は、取得情報記憶部111から名称に対応づけられたたとえば「ホワイトボード」という説明情報を読み出す。応答読出処理部114は、「私は<名称>です」と「ホワイトボード」とをあわせて「私はホワイトボードです」という文章を作成する。   The response read processing unit 114 also refers to the acquired information storage unit 111 when it is necessary to add information related to the item of the description information of the object 200 to the words read from the response example storage unit 112. The description information of the object 200 associated with the item to be read is read out. For example, in the example shown in FIG. 4, the response read processing unit 114 reads the word “I am <name>”, and includes an item <name>. The response read processing unit 114 reads, for example, explanation information “whiteboard” associated with the name from the acquired information storage unit 111. The response read processing unit 114 creates a sentence “I am a whiteboard” by combining “I am <name>” and “whiteboard”.

音声出力部110は、応答読出処理部114が読み出した言葉、または応答読出処理部114が作成した文章を音声出力する。   The voice output unit 110 outputs the words read by the response read processing unit 114 or the sentences created by the response read processing unit 114 as voices.

類型設定処理部106は、物体200の製造年月日から現在までの経過時間に応じて、物体200が古いか新しいかを決定することができる。ここでは、類型設定処理部106が物体200が新しいと決定したと仮定する。類型設定処理部106が設定する類型は、ユーザの種類によっても異なるが、図3に示した例では、類型4、5、または6のいずれかになる。この場合、応答読出処理部114は、音声出力装置100が物体200の自己紹介をする場合の応答例として、応答例記憶部112から、「ぼくは<名称>だよ」という言葉を読み出す。また、応答読出処理部114は、取得情報記憶部111から、<名称>に該当する「ホワイトボード」という言葉を読み出す。応答読出処理部114はこれらをあわせて、音声出力装置100が物体200の自己紹介をする場合の応答例として「ぼくはホワイトボードだよ」という文章を作成する。音声出力部110は、「ぼくはホワイトボードだよ」という音声を出力する。   The type setting processing unit 106 can determine whether the object 200 is old or new according to the elapsed time from the date of manufacture of the object 200 to the present. Here, it is assumed that the type setting processing unit 106 has determined that the object 200 is new. The type set by the type setting processing unit 106 differs depending on the type of user, but in the example shown in FIG. In this case, the response read processing unit 114 reads the word “I am <name>” from the response example storage unit 112 as a response example when the audio output device 100 introduces the object 200 by itself. In addition, the response reading processing unit 114 reads the word “whiteboard” corresponding to <name> from the acquired information storage unit 111. The response readout processing unit 114 combines these to create a sentence “I am a whiteboard” as an example of a response when the audio output device 100 introduces the object 200. The sound output unit 110 outputs a sound “I am a whiteboard”.

図5は、音声出力装置100が、物体200の説明情報を音声出力する手順の一例を示すフローチャートである。
ユーザから音声出力の指示があると(S100のYES)、物体情報取得部102は、物体200の物体情報記憶部202から説明情報を取得する(S102)。つづいて、ユーザ情報取得部104は、ユーザに関する情報を取得する(S104)。ユーザに関する情報は、たとえば、物体200の類型が設定される前の状態で、音声出力部110からユーザに「あなたの年齢はいくつですか?」等の問いかけを行い、ユーザに答えさせることにより取得することができる。
FIG. 5 is a flowchart illustrating an example of a procedure in which the audio output device 100 outputs the description information of the object 200 as audio.
When there is a voice output instruction from the user (YES in S100), the object information acquisition unit 102 acquires description information from the object information storage unit 202 of the object 200 (S102). Subsequently, the user information acquisition unit 104 acquires information about the user (S104). Information about the user is acquired by, for example, asking the user “What is your age?” From the audio output unit 110 in a state before the type of the object 200 is set, and letting the user answer the question. can do.

類型設定処理部106は、物体情報取得部102が取得した物体200の説明情報およびユーザ情報取得部104が取得したユーザに関する情報に基づき、物体200の類型を設定する(S106)。   The type setting processing unit 106 sets the type of the object 200 based on the description information of the object 200 acquired by the object information acquisition unit 102 and the information about the user acquired by the user information acquisition unit 104 (S106).

この後、音声認識部116がユーザからの問いかけを認識し、応答読出処理部114がその問いかけに対する応答を取得情報記憶部111および応答例記憶部112から読み出す。このとき、応答読出処理部114は、ステップS106で設定された類型IDに対応づけられた応答を応答例記憶部112から読み出す。応答読出処理部114は、応答例記憶部112から読み出した応答例と取得情報記憶部111から読み出した説明情報とをあわせてユーザへの応答を作成する。音声出力部110が、応答読出処理部114が作成した応答を音声出力することにより、ユーザとの対話が行われる(S108)。   Thereafter, the voice recognition unit 116 recognizes the inquiry from the user, and the response read processing unit 114 reads the response to the inquiry from the acquired information storage unit 111 and the response example storage unit 112. At this time, the response read processing unit 114 reads the response associated with the type ID set in step S106 from the response example storage unit 112. The response read processing unit 114 creates a response to the user by combining the response example read from the response example storage unit 112 and the explanation information read from the acquired information storage unit 111. The voice output unit 110 outputs the response created by the response read processing unit 114 as a voice, whereby a dialogue with the user is performed (S108).

ユーザから終了の指示があると(S110のYES)、この処理を終了する。   If there is an end instruction from the user (YES in S110), this process ends.

図6は、音声出力装置100が、物体200の説明情報を音声出力する手順の他の例を示すフローチャートである。
図5に示したのと同様、ユーザから音声出力の指示があると(S120のYES)、物体情報取得部102は、物体200の物体情報記憶部202から説明情報を取得する(S122)。ここで、類型設定処理部106は、物体情報取得部102が取得した説明情報に基づき、一時的な第一次類型を設定する(S124)。次いで、ユーザ情報取得部104は、ユーザに関する情報を取得する(S126)。ここで、ユーザに関する情報は、ステップS124で設定された第一次類型で、音声出力部110からユーザに「あなたの年齢はいくつですか?」等の問いかけを行い、ユーザに答えさせることにより取得することができる。
FIG. 6 is a flowchart illustrating another example of a procedure in which the audio output device 100 outputs the description information of the object 200 as audio.
Similarly to the case illustrated in FIG. 5, when a voice output instruction is issued from the user (YES in S120), the object information acquisition unit 102 acquires the description information from the object information storage unit 202 of the object 200 (S122). Here, the type setting processing unit 106 sets a temporary primary type based on the description information acquired by the object information acquisition unit 102 (S124). Next, the user information acquisition unit 104 acquires information about the user (S126). Here, the information about the user is the primary type set in step S124, and is obtained by asking the user such as “What is your age?” From the audio output unit 110 and letting the user answer. can do.

その後、類型設定処理部106は、物体情報取得部102が取得した物体200の説明情報およびユーザ情報取得部104が取得したユーザに関する情報に基づき、物体200の類型を設定する(S128)。   Thereafter, the type setting processing unit 106 sets the type of the object 200 based on the description information of the object 200 acquired by the object information acquisition unit 102 and the information about the user acquired by the user information acquisition unit 104 (S128).

この後は、図5で説明したステップS108およびステップS110と同様の処理が行われる(S130およびS132)。   Thereafter, the same processing as Step S108 and Step S110 described in FIG. 5 is performed (S130 and S132).

図7は、以上で説明した音声出力装置100を物体200に取り付けた場合の音声出力装置100の動作を示す模式図である。ここで、物体200はホワイトボードである。物体200には、物体情報記憶部202が取り付けられている。音声出力装置100は、物体情報記憶部202に電気的に接続されるように構成される。   FIG. 7 is a schematic diagram illustrating the operation of the audio output device 100 when the audio output device 100 described above is attached to the object 200. Here, the object 200 is a whiteboard. An object information storage unit 202 is attached to the object 200. The audio output device 100 is configured to be electrically connected to the object information storage unit 202.

音声出力装置100は、図5または図6を用いて説明した手順で、物体情報記憶部202から説明情報を取得する。ここで、物体(ホワイトボード)200は新しいものであるとする。音声出力装置100は、物体200の類型を子供に設定する。   The audio output device 100 acquires the description information from the object information storage unit 202 in the procedure described with reference to FIG. Here, it is assumed that the object (whiteboard) 200 is new. The audio output device 100 sets the type of the object 200 to a child.

ここでは、ユーザも子供である場合を例として説明する。
ユーザが何か問いかけると、音声出力装置100の音声認識部116は、ユーザからの問いかけを音声信号として取得し、音声認識を行う。応答読出処理部114は、音声認識部116の音声認識結果に応じて、ユーザの問いかけに対する応答を応答例記憶部112から読み出す。ここで、応答例記憶部112には、類型IDに対応づけて、応答例が記憶されているので、応答読出処理部114は、物体200が子供である場合の類型の応答例を応答例記憶部112から読み出す。また、応答読出処理部114は、読み出した応答例の中に、物体200の説明情報を含める必要がある場合は、取得情報記憶部111を参照して、該当する情報を読み出し、応答例記憶部112から読み出した応答例とあわせて応答例を生成する。
Here, a case where the user is also a child will be described as an example.
When the user asks something, the voice recognition unit 116 of the voice output device 100 acquires the question from the user as a voice signal and performs voice recognition. The response read processing unit 114 reads a response to the user's inquiry from the response example storage unit 112 according to the voice recognition result of the voice recognition unit 116. Here, since the response example is stored in the response example storage unit 112 in association with the type ID, the response read processing unit 114 stores the type of response example when the object 200 is a child. Read from unit 112. Further, when it is necessary to include the description information of the object 200 in the read response example, the response read processing unit 114 reads the corresponding information with reference to the acquisition information storage unit 111, and the response example storage unit A response example is generated together with the response example read from 112.

たとえば、ユーザが「名前なんて言うの?」と聞いた場合、応答読出処理部114は、音声認識部116の音声認識結果に応じて、「自己紹介をする」ことを決定する。応答読出処理部114は、応答例記憶部112から、設定された類型IDに対応づけられた自己紹介の応答例を読み出す。ここで、応答読出処理部114は「ぼくは<名称>だよ」という応答例を読み出す。<名称>の部分は、物体200の説明情報であるので、応答読出処理部114は、取得情報記憶部111から<名称>に対応する「ホワイトボード」を読み出す。応答読出処理部114は、これらをあわせて、「ぼくはホワイトボードだよ」という文章を作成する。音声出力部110は、「ぼくはホワイトボードだよ」という音声を出力する。   For example, when the user asks “What is your name?”, The response readout processing unit 114 determines to introduce itself according to the speech recognition result of the speech recognition unit 116. The response read processing unit 114 reads the response example of the self-introduction associated with the set type ID from the response example storage unit 112. Here, the response read processing unit 114 reads a response example “I am <name>”. Since the <name> portion is descriptive information of the object 200, the response read processing unit 114 reads “whiteboard” corresponding to <name> from the acquired information storage unit 111. The response read processing unit 114 combines these to create a sentence “I am a whiteboard”. The sound output unit 110 outputs a sound “I am a whiteboard”.

同様にして、音声認識部116は、ユーザからの問いかけを認識し、応答読出処理部114は、ユーザへの応答を読み出し、音声出力部110が音声を出力する処理を繰り返す。たとえば、ユーザが「もうお絵かきはやめようかな。」等の言葉を発すると、音声認識部116がその言葉を認識し、応答読出処理部114が対応する応答例を取得情報記憶部111および応答例記憶部112から応答例を読み出す。音声出力部110は、たとえば、「お絵かきした後はちゃんと消してね。」等の音声を出力する。ユーザが「消したよ。」等の言葉を発すると、同様の処理により、音声出力部110は、「バイバイ、また遊ぼうね。」等の音声を出力する。   Similarly, the voice recognition unit 116 recognizes an inquiry from the user, the response read processing unit 114 reads the response to the user, and the voice output unit 110 repeats the process of outputting the voice. For example, when the user utters words such as “I should stop drawing”, the speech recognition unit 116 recognizes the words, and the response read processing unit 114 responds to the acquired information storage unit 111 and the response example. A response example is read from the storage unit 112. The audio output unit 110 outputs, for example, audio such as “Please erase properly after drawing”. When the user utters a word such as “I'm gone”, the voice output unit 110 outputs a voice such as “Bye-bye, let's play again” by the same processing.

また、このホワイトボードに印刷機能がある場合、応答読出処理部114は、取得情報記憶部111および応答例記憶部112から応答例を読み出し、たとえば、音声出力部110は、「ぼくはすごいんだよ、書いたものを印刷することができるんだ。」等の機能を紹介する音声を出力する。また、このホワイトボードが台湾製である場合、音声出力部110は、「ぼくは台湾から来たんだよ。」等の生産地を紹介する音声を出力する。   When the whiteboard has a printing function, the response read processing unit 114 reads out the response example from the acquired information storage unit 111 and the response example storage unit 112. For example, the voice output unit 110 reads “I am amazing. You can print out what you've written. " When this whiteboard is made in Taiwan, the audio output unit 110 outputs audio introducing the production place such as “I am from Taiwan”.

以上のように、本実施の形態における音声出力装置100によれば、説明対象の物体200を擬人化して、所定の類型の人間に設定した場合に、その類型の人間が話すことが想定される言葉で物体200の説明情報が音声出力される。そのため、ユーザを、あたかも物体200と話しているような気分にさせることができる。また、ユーザの種類に応じて物体200の類型が変わるので、ユーザが親しみを持って対話をすることができる。これにより、とくに子供や老人等が退屈することなく、物体200についての情報を取得することができる。また、本実施の形態における音声出力装置100は、子供が物やそれに関連することについて学習する際に利用することもできる。このような場合に音声出力装置100を利用することにより、子供が興味を持って物やそれに関連することについての知識を得ることができる。   As described above, according to the audio output device 100 in the present embodiment, when the object 200 to be explained is anthropomorphic and set to a predetermined type of human, it is assumed that the human of that type speaks. The explanation information of the object 200 is output as speech. Therefore, the user can feel as if talking with the object 200. In addition, since the type of the object 200 changes according to the type of user, the user can have a friendly conversation. Thereby, the information about the object 200 can be acquired without a child, an elderly person, etc. getting bored. In addition, the audio output device 100 according to the present embodiment can be used when a child learns about an object or a thing related thereto. In such a case, by using the audio output device 100, it is possible to obtain knowledge about an object and a thing related to it with an interest of the child.

(第二の実施の形態)
本実施の形態における音声出力装置は、物体に取り付けられた情報記憶デバイスから、その物体の識別情報を取得し、その識別情報に基づき、他の装置からその物体の説明情報を取得する点で第一の実施の形態における音声出力装置と異なる。本実施の形態において、第一の実施の形態と同様の構成要素には同様の符号を付し、適宜説明を省略する。
(Second embodiment)
The audio output device according to the present embodiment is the first in that it acquires the identification information of the object from the information storage device attached to the object, and acquires the description information of the object from another device based on the identification information. It differs from the audio output device in one embodiment. In the present embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

図8は、本実施の形態における音声出力装置の構成を示すブロック図である。
本実施の形態における音声出力装置100は、図1に示した構成に加えて、物体識別情報取得部118をさらに含む。また、本実施の形態において、物体200は、物体の識別情報を記憶する物体識別情報記憶部204を含む。物体識別情報記憶部204は、たとえばRFID(Radio Frequency Identification)、ICタグ等の情報記憶デバイスとすることができる。
FIG. 8 is a block diagram showing the configuration of the audio output device according to this embodiment.
Audio output apparatus 100 in the present embodiment further includes an object identification information acquisition unit 118 in addition to the configuration shown in FIG. In the present embodiment, the object 200 includes an object identification information storage unit 204 that stores object identification information. The object identification information storage unit 204 may be an information storage device such as an RFID (Radio Frequency Identification) or an IC tag.

物体情報記憶部300は、物体の識別情報に対応づけて、その物体の説明情報を記憶する。物体情報記憶部300は、たとえば、複数の物体の識別情報と、それらの物体の説明情報とをそれぞれ対応づけて保持するサーバとすることができる。   The object information storage unit 300 stores the description information of the object in association with the identification information of the object. The object information storage unit 300 can be, for example, a server that holds identification information of a plurality of objects and explanation information of these objects in association with each other.

物体識別情報取得部118は、たとえば無線や有線で、物体識別情報記憶部204から物体200の識別情報を取得することができる物体識別情報取得部118が無線で物体識別情報記憶部204から物体200の識別情報を取得する際に、物体識別情報記憶部が取り付けられた複数の他の物体が近傍にある場合、物体識別情報取得部118は、複数の物体にそれぞれ取り付けられた物体識別情報記憶部のうち、最も強度の強い物体識別情報記憶部の情報を読み取るように構成することができる。物体情報取得部102は、物体識別情報取得部118が取得した物体200の識別情報に基づき、物体情報記憶部300から物体200の説明情報を取得する。   The object identification information acquisition unit 118 can acquire the identification information of the object 200 from the object identification information storage unit 204, for example, wirelessly or by wire. The object identification information acquisition unit 118 can wirelessly acquire the object 200 from the object identification information storage unit 204. When a plurality of other objects to which the object identification information storage unit is attached are nearby, the object identification information acquisition unit 118 includes an object identification information storage unit attached to each of the plurality of objects. Among them, it can be configured to read the information in the object identification information storage unit having the strongest strength. The object information acquisition unit 102 acquires the description information of the object 200 from the object information storage unit 300 based on the identification information of the object 200 acquired by the object identification information acquisition unit 118.

それ以外の処理は、第一の実施の形態と同様であるので説明を省略する。   Since other processes are the same as those in the first embodiment, description thereof is omitted.

図9は、本実施の形態における音声出力装置100を利用して物体200の説明情報をユーザに知らせる手順の一例を示すフローチャートである。
ユーザからの音声出力の指示があると(S140のYES)、物体識別情報取得部118は、物体200の物体識別情報記憶部204から物体200の識別情報を取得する(S142)。つづいて、物体情報取得部102は、物体識別情報取得部118が取得した識別情報に基づき、物体情報記憶部300から物体200の説明情報を取得する(S144)。
FIG. 9 is a flowchart illustrating an example of a procedure for notifying the user of the description information of the object 200 using the audio output device 100 according to the present embodiment.
When there is a voice output instruction from the user (YES in S140), the object identification information acquisition unit 118 acquires the identification information of the object 200 from the object identification information storage unit 204 of the object 200 (S142). Subsequently, the object information acquisition unit 102 acquires the description information of the object 200 from the object information storage unit 300 based on the identification information acquired by the object identification information acquisition unit 118 (S144).

この後は、第一の実施の形態において図5で説明したステップS104〜ステップS110と同様の処理が行われる(S146〜S152)。   Thereafter, the same processing as Step S104 to Step S110 described in FIG. 5 in the first embodiment is performed (S146 to S152).

また、第一の実施の形態において、図6で説明したステップS124〜ステップS132と同様の処理が行われてもよい(不図示)。   In the first embodiment, the same processing as in steps S124 to S132 described in FIG. 6 may be performed (not shown).

以上のように、本実施の形態における音声出力装置100によっても、第一の実施の形態における音声出力装置100と同様の効果が得られる。また、物体情報記憶部300を外部サーバに保持させることにより、物体情報記憶部300に格納されている物体の説明情報の更新が容易となり、適宜更新を行うことができる。   As described above, the audio output device 100 according to the present embodiment can provide the same effects as those of the audio output device 100 according to the first embodiment. In addition, by holding the object information storage unit 300 in an external server, it is easy to update the description information of the object stored in the object information storage unit 300, and the information can be updated as appropriate.

(第三の実施の形態)
本実施の形態における音声出力装置は、ユーザに関する情報を、ユーザの識別情報に対応づけて記憶する記憶部をさらに含む点で第一および第二の実施の形態と異なる。これにより、ユーザがいずれかの物品について、過去に説明情報を聞いたことがあるような場合に、さらに詳しい情報や新しい情報を提供したり、ユーザとの親密度に応じて対話したりすることができる。本実施の形態において、第一または第二の実施の形態と同様の構成要素には同様の符号を付し、適宜説明を省略する。
(Third embodiment)
The audio output device according to the present embodiment is different from the first and second embodiments in that it further includes a storage unit that stores information relating to the user in association with the identification information of the user. As a result, when the user has heard explanation information about any item in the past, the user can provide more detailed information or new information, or interact with the user according to the degree of intimacy Can do. In the present embodiment, the same components as those in the first or second embodiment are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

図10は、本実施の形態における音声出力装置100の構成を示すブロック図である。
本実施の形態における音声出力装置100は、図8に示した音声出力装置100のユーザ情報取得部104にかえて、ユーザ認識部120およびユーザ情報記憶部122を含む。
FIG. 10 is a block diagram illustrating a configuration of the audio output device 100 according to the present embodiment.
The audio output device 100 according to the present embodiment includes a user recognition unit 120 and a user information storage unit 122 in place of the user information acquisition unit 104 of the audio output device 100 shown in FIG.

ユーザ情報記憶部122は、ユーザに関する情報を記憶する。ユーザに関する情報は、たとえば、ユーザID、年齢、性別、名前等を含む。ここで、ユーザIDは、ユーザに固有の文字列や数字列、ユーザの顔画像データや音声データ等とすることができる。また、ユーザ情報記憶部122は、ユーザIDに対応づけて、そのユーザが過去にいずれかの物体200の説明情報を聞いたことがある場合の履歴を記憶することができる。   The user information storage unit 122 stores information about the user. Information about the user includes, for example, a user ID, age, sex, name, and the like. Here, the user ID may be a character string or numeric string unique to the user, user face image data, voice data, or the like. Further, the user information storage unit 122 can store a history when the user has heard the explanation information of any object 200 in the past in association with the user ID.

図11は、ユーザ情報記憶部122の内部構成の一例を示す図である。
ユーザ情報記憶部122は、ユーザID欄、年齢欄、性別欄、名前欄、および履歴欄を有する。ユーザ情報記憶部122は、ユーザIDに対応づけて、ユーザの年齢、性別、名前等のユーザに関する情報、およびそのユーザが過去に説明情報を聞いたことがある物体の識別情報を保持する。また、ユーザ情報記憶部122は、物体の識別情報に対応づけて、ユーザがその物体と過去にどのようなやりとりをしたかに関する情報や、その物体とユーザとの親密度等を示す数値を記憶することもできる。ここでは、物体とユーザとの親密度等を数値化した例を示す。数字が大きいほうが親密度が高いように設定されている。
FIG. 11 is a diagram illustrating an example of an internal configuration of the user information storage unit 122.
The user information storage unit 122 includes a user ID column, an age column, a gender column, a name column, and a history column. The user information storage unit 122 stores information related to the user such as the user's age, sex, and name, and identification information of an object that the user has heard of explanation information in the past, in association with the user ID. In addition, the user information storage unit 122 stores information regarding how the user has interacted with the object in the past, and numerical values indicating the familiarity between the object and the user, in association with the object identification information. You can also Here, an example is shown in which the intimacy between the object and the user is digitized. The higher the number, the higher the familiarity.

たとえば、ユーザID「0001」のユーザの年齢は5歳で、性別は男性、名前はタロウである。このユーザは、音声出力装置100を用いて、過去に物体ID0001や物体ID0005の物体の説明情報を聞いたことがある。また、このユーザと物体ID0001の物体との親密度は「2」、物体ID0005の物体との親密度は「4」である。   For example, the user with the user ID “0001” has an age of 5 years, a gender of male, and a name of Taro. This user has heard the explanation information of the object with the object ID 0001 or the object ID 0005 in the past using the audio output device 100. The closeness between the user and the object with the object ID 0001 is “2”, and the closeness with the object with the object ID 0005 is “4”.

たとえば、ユーザID「0003」のユーザの年齢は25歳で、性別は女性、名前はハナである。このユーザは、音声出力装置100を用いて、過去に物体ID0005の物体の説明情報を聞いたことがある。また、このユーザと物体ID0005の物体との親密度は「1」である。親密度は、たとえばユーザが物体とアクセスした回数や時間等に応じて設定することができる。   For example, the user with the user ID “0003” has an age of 25, a gender of female, and a name of Hana. This user has heard the description information of the object having the object ID 0005 in the past using the audio output device 100. The closeness between the user and the object with the object ID 0005 is “1”. The intimacy can be set according to, for example, the number of times the user accessed the object, the time, and the like.

図10に戻り、ユーザ認識部120は、ユーザ情報取得部104(図8等参照)と同様、ユーザに関する情報を取得する。ユーザ認識部120は、ユーザ情報記憶部122を参照して、音声出力装置100のユーザを認識する処理を行う。ユーザIDが顔画像データの場合、ユーザ認識部120は、たとえばカメラを含むことができ、カメラにより撮影されたユーザの顔画像データとユーザ情報記憶部122に記憶された顔画像データとをマッチングすることにより、ユーザを認識することができる。また、ユーザ認識部120は、音声認識部116から入力されたユーザの音声データとユーザ情報記憶部122に記憶された音声データとをマッチングすることにより、ユーザを認識することもできる。また、ユーザにユーザIDを入力させて、ユーザ情報記憶部122に記憶されたユーザIDと比較することにより、ユーザを認識することもできる。   Returning to FIG. 10, the user recognizing unit 120 acquires information about the user, similar to the user information acquiring unit 104 (see FIG. 8, etc.). The user recognition unit 120 refers to the user information storage unit 122 and performs processing for recognizing the user of the audio output device 100. When the user ID is face image data, the user recognition unit 120 can include, for example, a camera, and matches the user's face image data captured by the camera with the face image data stored in the user information storage unit 122. Thus, the user can be recognized. The user recognition unit 120 can also recognize the user by matching the user's voice data input from the voice recognition unit 116 with the voice data stored in the user information storage unit 122. In addition, the user can be recognized by inputting the user ID and comparing the user ID with the user ID stored in the user information storage unit 122.

ユーザに関する情報がユーザ情報記憶部122に記憶されていない場合、ユーザ認識部120は、そのユーザが新規なユーザであるとして、新たなユーザIDを付与し、そのユーザに関する情報をユーザ認識部120に記憶する。   When the information about the user is not stored in the user information storage unit 122, the user recognition unit 120 assigns a new user ID, assuming that the user is a new user, and sends the information about the user to the user recognition unit 120. Remember.

ユーザに関する情報がユーザ情報記憶部122に記憶されている場合、ユーザ認識部120は、ユーザ情報記憶部122からそのユーザに関する情報を読み出し、類型設定処理部106に通知する。   When information about a user is stored in the user information storage unit 122, the user recognition unit 120 reads out information about the user from the user information storage unit 122 and notifies the type setting processing unit 106.

応答例記憶部112は、第一の実施の形態で説明したように、複数の類型毎に、各類型に対応付けて応答例を記憶する。また、本実施の形態において、応答例記憶部112は、さらに、ユーザと物体との親密度に応じて分類された複数の類型毎に、各類型に対応付けて応答例を記憶する。設定情報記憶部108は、物体およびユーザの種類、および物体とユーザとの親密度に対応付けて、類型IDを保持する。類型設定処理部106は、物体情報取得部102が取得した物体200の説明情報およびユーザ情報記憶部122から読み出されたユーザに関する情報に基づき、設定情報記憶部108を参照して、物体の類型の設定を行う。   As described in the first embodiment, the response example storage unit 112 stores a response example in association with each type for each of a plurality of types. In the present embodiment, the response example storage unit 112 further stores a response example in association with each type for each of a plurality of types classified according to the familiarity between the user and the object. The setting information storage unit 108 holds a type ID in association with the type of the object and the user and the closeness between the object and the user. The type setting processing unit 106 refers to the setting information storage unit 108 based on the description information of the object 200 acquired by the object information acquisition unit 102 and the information about the user read from the user information storage unit 122, and the type of the object. Set up.

図12は、音声出力装置100を利用して物体200の説明情報をユーザに知らせる手順の一例を示すフローチャートである。
ユーザからの音声出力の指示があると(S160のYES)、物体識別情報取得部118は、物体200の物体識別情報記憶部204から物体200の識別情報を取得する(S162)。つづいて、物体情報取得部102は、物体識別情報取得部118が取得した識別情報に基づき、物体情報記憶部300から物体200の説明情報を取得する(S164)。
FIG. 12 is a flowchart illustrating an example of a procedure for notifying the user of the description information of the object 200 using the audio output device 100.
When there is a voice output instruction from the user (YES in S160), the object identification information acquisition unit 118 acquires the identification information of the object 200 from the object identification information storage unit 204 of the object 200 (S162). Subsequently, the object information acquisition unit 102 acquires the description information of the object 200 from the object information storage unit 300 based on the identification information acquired by the object identification information acquisition unit 118 (S164).

ユーザ認識部120は、ユーザに関する情報を取得する(S166)。ユーザ認識部120は、ユーザ情報記憶部122を参照して、そのユーザに関する情報が既に記憶されているか否かを判断する(S168)。ユーザが新規な場合(S168のYES)、ユーザ認識部120は、ユーザにユーザIDを付与する(S170)。ここで、ユーザIDは、ユーザに通知されてもよく、単にユーザ情報記憶部122に新たなユーザIDの項目を記憶する処理を行うだけでもよい。   The user recognition unit 120 acquires information about the user (S166). The user recognition unit 120 refers to the user information storage unit 122 and determines whether information about the user has already been stored (S168). When the user is new (YES in S168), the user recognition unit 120 assigns a user ID to the user (S170). Here, the user ID may be notified to the user, or simply a process of storing a new user ID item in the user information storage unit 122 may be performed.

ステップS168において、ユーザが新規ではない場合(S168のNO)、ユーザ認識部120は、ユーザID等に基づき、ユーザ情報記憶部122からそのユーザに関する情報を読み出す。この場合は、ユーザの年齢や性別等が既にわかっているので、ユーザに問いかけ等を行うことなく、次のステップに進むことができる。   In step S168, when the user is not new (NO in S168), the user recognition unit 120 reads out information related to the user from the user information storage unit 122 based on the user ID and the like. In this case, since the user's age, sex, etc. are already known, it is possible to proceed to the next step without asking the user.

つづいて、類型設定処理部106は、物体情報取得部102が取得した物体200の説明情報およびユーザ認識部120が取得したユーザに関する情報に基づき、物体200の類型を設定する(S174)。また、本実施の形態において、類型設定処理部106は、ユーザ情報記憶部122を参照して、そのユーザと、物体200との関係に関する情報を取得し、その情報にも基づいて物体200の類型を設定する。   Subsequently, the type setting processing unit 106 sets the type of the object 200 based on the description information of the object 200 acquired by the object information acquisition unit 102 and the information about the user acquired by the user recognition unit 120 (S174). Further, in the present embodiment, the type setting processing unit 106 refers to the user information storage unit 122 to acquire information on the relationship between the user and the object 200, and based on the information, the type setting of the object 200 Set.

この後、音声認識部116がユーザからの問いかけを認識し、応答読出処理部114がその問いかけに対する応答を取得情報記憶部111および応答例記憶部112から読み出し、音声出力部110が音声を出力することにより、ユーザとの対話が行われる(S176)。   Thereafter, the voice recognition unit 116 recognizes the question from the user, the response read processing unit 114 reads the response to the question from the acquired information storage unit 111 and the response example storage unit 112, and the voice output unit 110 outputs the voice. Thus, a dialogue with the user is performed (S176).

ユーザから終了の指示があると(S178のYES)、応答読出処理部114は、ユーザ情報記憶部122を更新する(S180)。応答読出処理部114は、ユーザが音声出力装置100を介して物体200と対話を行った回数や時間等に応じて、物体200とユーザとの親密度の数値を更新することができる。また、応答読出処理部114は、ステップS176において、ユーザが対話をしている間に、対話内容をユーザ情報記憶部122に記憶しておくこともできる。   When there is an end instruction from the user (YES in S178), the response read processing unit 114 updates the user information storage unit 122 (S180). The response read processing unit 114 can update the numerical value of the familiarity between the object 200 and the user according to the number of times the user has interacted with the object 200 via the audio output device 100, the time, and the like. In addition, in step S176, the response read processing unit 114 can store the dialog contents in the user information storage unit 122 while the user is performing the dialog.

本実施の形態における音声出力装置100によれば、ユーザと物体200との関係に応じて、物体200の類型が設定されるので、ユーザがより親しみを持って対話をすることができる。本実施の形態における音声出力装置100を子供の学習に利用すると、子供がより興味をもって物やそれに関連することについて学習を行うことができる。   According to the audio output device 100 in the present embodiment, since the type of the object 200 is set according to the relationship between the user and the object 200, the user can have a more friendly dialogue. When the audio output device 100 according to the present embodiment is used for learning of a child, the child can learn more about an object and a thing related to it with more interest.

(第四の実施の形態)
以上の実施の形態においては、出力される音声の類型が物体の説明情報等に応じて変化する音声出力装置の例を説明したが、本実施の形態において、キャラクタ画像を表示する表示部を含むキャラクタ画像表示装置の例を説明する。本実施の形態におけるキャラクタ画像表示装置は、上記の実施の形態で説明した音声出力装置と同様の機能を有し、音声出力が可能である。本実施の形態において、第一〜第三の実施の形態と同様の構成要素には同様の符号を付し、適宜説明を省略する。
(Fourth embodiment)
In the above embodiment, the example of the sound output device in which the type of sound to be output changes according to the description information of the object has been described. However, the present embodiment includes a display unit that displays a character image. An example of a character image display device will be described. The character image display device in the present embodiment has the same function as the sound output device described in the above embodiment, and can output sound. In the present embodiment, the same components as those in the first to third embodiments are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

本実施の形態においては、表示部に表示されたキャラクタ画像の類型が、物体の属性情報に応じて変化する。このようにすることにより、ユーザは、キャラクタ画像が物体の説明をしてくれているような気分で説明を聞くことができる。また、キャラクタ画像の類型が、物体の属性に関する情報やユーザの種類に応じて変化するので、ユーザが親しみを持って対話をすることができる。   In the present embodiment, the type of the character image displayed on the display unit changes according to the attribute information of the object. In this way, the user can listen to the explanation as if the character image explained the object. Further, since the type of the character image changes according to the information regarding the attribute of the object and the type of the user, the user can have a friendly conversation.

図13は、本実施の形態におけるキャラクタ画像表示装置の構成を示すブロック図である。   FIG. 13 is a block diagram showing the configuration of the character image display device in the present embodiment.

キャラクタ画像表示装置130は、物体情報取得部102、ユーザ情報取得部104、類型設定処理部106、設定情報記憶部108、音声出力部110、取得情報記憶部111、応答例記憶部112、音声認識部116、物体識別情報取得部118、表示部132、キャラクタ画像情報記憶部134、およびキャラクタ形成処理部136を含む。   The character image display device 130 includes an object information acquisition unit 102, a user information acquisition unit 104, a type setting processing unit 106, a setting information storage unit 108, a voice output unit 110, an acquisition information storage unit 111, a response example storage unit 112, and voice recognition. Unit 116, object identification information acquisition unit 118, display unit 132, character image information storage unit 134, and character formation processing unit 136.

キャラクタ画像表示装置130は、音声出力機能を有し、キャラクタ画像を表示可能な装置であれば何でもよい。たとえば以下の機能を有する携帯電話端末とすることもできる。   The character image display device 130 may be anything as long as it has an audio output function and can display a character image. For example, a mobile phone terminal having the following functions may be used.

キャラクタ画像情報記憶部134は、表示部132に表示されるキャラクタ画像に関する情報を記憶する。キャラクタ画像情報記憶部134は、複数の類型毎に、キャラクタ画像を記憶することができる。たとえば、物体200の類型が子供の場合、子供服を着たキャラクタ画像を記憶する。また、物体200の類型が老人の場合、キャラクタ画像の顔にしわがあるキャラクタ画像を記憶する。   The character image information storage unit 134 stores information related to the character image displayed on the display unit 132. The character image information storage unit 134 can store a character image for each of a plurality of types. For example, when the type of the object 200 is a child, a character image wearing children's clothes is stored. In addition, when the type of the object 200 is an elderly person, a character image having wrinkles on the face of the character image is stored.

キャラクタ形成処理部136は、応答例記憶部112およびキャラクタ画像情報記憶部134から、類型設定処理部106により設定された類型に対応する応答例およびキャラクタ画像を読み出す。   The character formation processing unit 136 reads out a response example and a character image corresponding to the type set by the type setting processing unit 106 from the response example storage unit 112 and the character image information storage unit 134.

キャラクタ画像情報記憶部134は、予めキャラクタ画像を記憶しておくこともできるが、たとえば、物体情報取得部102がキャラクタ画像を取得することもできる。   The character image information storage unit 134 can store a character image in advance. For example, the object information acquisition unit 102 can acquire a character image.

本実施の形態におけるキャラクタ画像表示装置130によれば、表示部132に表示されたキャラクタ画像の類型が、物体200の属性情報に応じて変化する。このようにすることにより、ユーザは、キャラクタ画像が物体の説明をしてくれているような気分で説明を聞くことができる。また、キャラクタ画像の類型が、物体の属性に関する情報やユーザの種類に応じて変化するので、ユーザが親しみを持って対話をすることができる。   According to character image display device 130 in the present embodiment, the type of character image displayed on display unit 132 changes according to the attribute information of object 200. In this way, the user can listen to the explanation as if the character image explained the object. Further, since the type of the character image changes according to the information regarding the attribute of the object and the type of the user, the user can have a friendly conversation.

(第五の実施の形態)
本実施の形態において、キャラクタ画像表示装置は、第四の実施の形態で説明したキャラクタ画像表示装置130と同様の構成を有する。キャラクタ画像は、物体に付された識別情報に対応づけられた属性に関する情報に基づき、所定の類型に設定される。
(Fifth embodiment)
In the present embodiment, the character image display device has the same configuration as the character image display device 130 described in the fourth embodiment. The character image is set to a predetermined type based on information related to the attribute associated with the identification information attached to the object.

以下、そのような例を説明する。
たとえば、店舗等で商品を購入すると、おもちゃのおまけ等がついてくることがある。これと同様に、本実施の形態において、商品に識別情報を付しておき、その識別情報に基づき、購入者に、キャラクタ画像およびそのキャラクタ画像の属性に関する情報が付与されるようにすることができる。
Such an example will be described below.
For example, when a product is purchased at a store or the like, a toy bonus or the like may follow. Similarly, in the present embodiment, identification information is attached to a product, and based on the identification information, information regarding the character image and the attribute of the character image may be given to the purchaser. it can.

図14は、商品に付された識別情報に基づき、購入者にキャラクタ画像およびそのキャラクタ画像の属性に関する情報が送信される様子を示す図である。ここで、キャラクタ画像表示装置130は携帯電話である。   FIG. 14 is a diagram illustrating a state in which the character image and information regarding the attribute of the character image are transmitted to the purchaser based on the identification information attached to the product. Here, the character image display device 130 is a mobile phone.

店舗等でペットボトル入りの飲料400(物体200)を購入した購入者は、ペットボトルに付された商品ID402を携帯電話404(キャラクタ画像表示装置130)を介して物体情報記憶部300(図13参照)を保持するセンター406に送信する。センター406からは、商品ID402に応じて設定されたキャラクタ画像およびそのキャラクタ画像の属性に関する情報が携帯電話404に送信される。   A purchaser who purchases a beverage 400 (object 200) containing a plastic bottle at a store or the like receives the product ID 402 attached to the plastic bottle via the mobile phone 404 (character image display device 130) and the object information storage unit 300 (FIG. 13). Reference) is transmitted to the center 406 that holds the information. From the center 406, the character image set according to the product ID 402 and information related to the attribute of the character image are transmitted to the mobile phone 404.

商品ID402は、文字列や数字列等とすることもでき、この場合、購入者は、文字列や数字列を携帯電話404に入力してセンター406に送信する。また、商品ID402は、二次元等のバーコードとすることもでき、この場合、購入者は、携帯電話404のカメラ機能を用いて商品ID402を撮影し、その画像をセンター406に送信することもできる。商品ID402は、商品を識別できるものであればどのようなものであってもよい。また、商品が購入される前に未購入者が商品ID402をセンター406に送信するようなことがないように、商品ID402は、商品配列時には何らかのカバーがされており、購入後にカバーを取り外すようにしておくことが好ましい。   The product ID 402 may be a character string, a number string, or the like. In this case, the purchaser inputs the character string or the number string into the mobile phone 404 and transmits it to the center 406. The product ID 402 can also be a two-dimensional barcode. In this case, the purchaser can take the product ID 402 using the camera function of the mobile phone 404 and send the image to the center 406. it can. The product ID 402 may be any product as long as it can identify the product. In addition, the product ID 402 is covered in some way when the product is arranged so that the unpurchased person does not send the product ID 402 to the center 406 before the product is purchased. It is preferable to keep it.

図15は、購入者が取得したキャラクタ画像を示す図である。携帯電話404の表示部408には、商品ID402に応じて設定されたキャラクタ画像が表示される。   FIG. 15 is a diagram illustrating a character image acquired by the purchaser. A character image set in accordance with the product ID 402 is displayed on the display unit 408 of the mobile phone 404.

たとえば、図15(a)に示した例では、「ニコニコくま」が表示されている。携帯電話404は、「ニコニコくま」の画像とともに、「ニコニコくま」の属性に関する情報も取得する。   For example, in the example shown in FIG. 15A, “Nico Nico Bear” is displayed. The mobile phone 404 also acquires information regarding the attribute of “Nico Nico Bear” along with the image of “Nico Nico Bear”.

また、図15(b)に示した例では、「天使くま」が表示されている。たとえば同じ商品でも、数十本に一本の割合等で、「天使くま」や「いじわるくま」等珍しいキャラクタ画像が得られるように設定しておくことができる。これにより、購入者の購買意欲を高めることができる。   In the example shown in FIG. 15B, “Angel bear” is displayed. For example, even for the same product, it can be set so that an unusual character image such as “Angel Bear” or “Ijiwaru Bear” can be obtained at a ratio of one to several tens. Thereby, a purchase intention of a purchaser can be raised.

なお、以上の例では、ユーザが商品に付された商品IDをセンターに送信すると、携帯電話は、キャラクタ画像とその属性に関する情報を取得する例を説明したが、同一商品を複数回購入すると、キャラクタ画像の属性に関する情報のみが送付され、キャラクタ画像の性格が変わっていくようにすることもできる。   In the above example, when the user transmits the product ID attached to the product to the center, the mobile phone describes an example of acquiring information on the character image and its attribute. However, if the same product is purchased multiple times, Only the information related to the attribute of the character image is sent, and the character image can be changed in character.

本実施の形態におけるキャラクタ画像表示装置130によれば、消費者の購買意欲を高めることができる。   According to character image display device 130 in the present embodiment, consumers' willingness to purchase can be increased.

また、以上の第一〜第五の実施の形態で説明した音声出力装置100およびキャラクタ画像表示装置130の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶ユニット、ネットワーク接続用インターフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。以上で説明した各図は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。   The constituent elements of the audio output device 100 and the character image display device 130 described in the first to fifth embodiments are the constituent elements of this figure loaded in the CPU, memory, and memory of an arbitrary computer. And a storage unit such as a hard disk for storing the program, and an interface for network connection, which are realized by an arbitrary combination of hardware and software. It will be understood by those skilled in the art that there are various modifications to the implementation method and apparatus. Each figure described above shows a functional unit block, not a hardware unit configuration.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。   As mentioned above, although embodiment of this invention was described with reference to drawings, these are the illustrations of this invention, Various structures other than the above are also employable.

第二の実施の形態において、物体200に情報記憶デバイス等の物体識別情報記憶部204が取り付けられた形態を説明したが、物体200には、物体識別情報記憶部204のかわりに、一次元バーコードや二次元バーコード等、物体200を識別できる他の識別情報が付されていてもよい。この場合、物体識別情報取得部118は、たとえばカメラ機能や入力手段を用いて識別情報を読み取ることができる。このようにすれば、RFIDやICタグ等の読み取り機能を有しない端末を用いても、物体200の説明情報を取得することができる。   In the second embodiment, the form in which the object identification information storage unit 204 such as an information storage device is attached to the object 200 has been described. However, the object 200 has a one-dimensional bar instead of the object identification information storage unit 204. Other identification information that can identify the object 200 such as a code or a two-dimensional barcode may be attached. In this case, the object identification information acquisition unit 118 can read the identification information using, for example, a camera function or input means. In this way, the description information of the object 200 can be acquired even using a terminal that does not have a reading function, such as an RFID or an IC tag.

また、第二の実施の形態においても、第一の実施の形態と同様、物体情報取得部102は、物体情報記憶部202が取り付けられている物体200からは、物体情報記憶部300を介することなく、物体200の物体情報記憶部202から説明情報を取得することができる。   Also in the second embodiment, as in the first embodiment, the object information acquisition unit 102 passes the object information storage unit 300 from the object 200 to which the object information storage unit 202 is attached. Instead, the description information can be acquired from the object information storage unit 202 of the object 200.

また、音声出力装置100やキャラクタ画像表示装置130は、物体200に接触することにより、物体200を構成する材料を認識するように構成することもできる。この場合、物体200は、物体情報記憶部202や物体識別情報記憶部204を有しない構成とすることもできる。   Further, the audio output device 100 and the character image display device 130 can be configured to recognize the material constituting the object 200 by contacting the object 200. In this case, the object 200 may be configured without the object information storage unit 202 and the object identification information storage unit 204.

また、音声出力装置100やキャラクタ画像表示装置130は、外国語音声出力機能や翻訳処理機能を有することもでき、たとえば、物体200の生産国に応じて、その生産国の言葉で音声を出力するようにすることもできる。   The voice output device 100 and the character image display device 130 can also have a foreign language voice output function and a translation processing function. For example, according to the country of production of the object 200, the voice is output in the language of the country of production. It can also be done.

なお、以上の実施の形態では、音声出力装置100およびキャラクタ画像表示装置130が、対話型である形態を示したが、音声出力装置100およびキャラクタ画像表示装置130は、説明を出力するだけのものとすることもできる。この場合でも、説明を音声出力する際に、物体の類型に応じて異なる言葉で説明がされるので、ユーザが興味を持って説明を聞くことができる。   In the above embodiment, the voice output device 100 and the character image display device 130 are interactive. However, the voice output device 100 and the character image display device 130 only output a description. It can also be. Even in this case, when the explanation is output by voice, the explanation is given in different words depending on the type of the object, so that the user can listen to the explanation with interest.

音声出力装置100およびキャラクタ画像表示装置130において、物体の類型に応じて、音声出力部110が出力する音声の高低、トーンや速度等が変化するようにすることもできる。   In the audio output device 100 and the character image display device 130, the level, tone, speed, and the like of the audio output by the audio output unit 110 may be changed according to the type of the object.

実施の形態における音声出力装置の構成を示すブロック図である。It is a block diagram which shows the structure of the audio | voice output apparatus in embodiment. 取得情報記憶部の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of an acquisition information storage part. 設定情報記憶部の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of a setting information storage part. 応答例記憶部の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of a response example memory | storage part. 音声出力装置が、物体の説明情報を音声出力する手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure in which an audio | voice output apparatus carries out the audio | voice output of the description information of an object. 音声出力装置が、物体の説明情報を音声出力する手順の他の例を示すフローチャートである。It is a flowchart which shows the other example of the procedure in which an audio | voice output apparatus carries out the audio | voice output of the description information of an object. 音声出力装置を物体に取り付けた場合の音声出力装置の動作を示す模式図である。It is a schematic diagram which shows operation | movement of the audio | voice output apparatus at the time of attaching an audio | voice output apparatus to an object. 実施の形態における音声出力装置の構成を示すブロック図である。It is a block diagram which shows the structure of the audio | voice output apparatus in embodiment. 音声出力装置が、物体の説明情報を音声出力する手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure in which an audio | voice output apparatus carries out the audio | voice output of the description information of an object. 実施の形態における音声出力装置の構成を示すブロック図である。It is a block diagram which shows the structure of the audio | voice output apparatus in embodiment. ユーザ情報記憶部の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of a user information storage part. 音声出力装置が、物体の説明情報を音声出力する手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure in which the audio | voice output apparatus outputs the description information of an object by audio | voice. 実施の形態におけるキャラクタ画像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the character image display apparatus in embodiment. 商品に付された識別情報に基づき、購入者にキャラクタ画像およびそのキャラクタ画像の属性に関する情報が送信される様子を示す図である。It is a figure which shows a mode that the information regarding the character image and the attribute of the character image is transmitted to a purchaser based on the identification information attached | subjected to goods. 購入者が取得したキャラクタ画像を示す図である。It is a figure which shows the character image which the purchaser acquired.

符号の説明Explanation of symbols

100 音声出力装置
102 物体情報取得部
104 ユーザ情報取得部
106 類型設定処理部
108 設定情報記憶部
110 音声出力部
111 取得情報記憶部
112 応答例記憶部
114 応答読出処理部
116 音声認識部
118 物体識別情報取得部
120 ユーザ認識部
122 ユーザ情報記憶部
130 キャラクタ画像表示装置
132 表示部
134 キャラクタ画像情報記憶部
136 キャラクタ形成処理部
300 物体情報記憶部
400 飲料
402 商品ID
404 携帯電話
406 センター
408 表示部
DESCRIPTION OF SYMBOLS 100 Audio | voice output apparatus 102 Object information acquisition part 104 User information acquisition part 106 Type setting process part 108 Setting information storage part 110 Voice output part 111 Acquisition information storage part 112 Response example storage part 114 Response reading process part 116 Voice recognition part 118 Object identification Information acquisition unit 120 User recognition unit 122 User information storage unit 130 Character image display device 132 Display unit 134 Character image information storage unit 136 Character formation processing unit 300 Object information storage unit 400 Beverage 402 Product ID
404 Mobile phone 406 Center 408 Display unit

Claims (20)

近傍に位置する物体の属性に関する情報を含む前記物体の説明情報を取得する説明情報取得部と、
前記属性に関する情報に基づき、前記物体を擬人化した場合の人間の類型を示す類型情報を設定する類型設定処理部と、
前記類型情報に基づき、その類型の人間が話すことが想定される言葉で、前記説明情報を音声出力する音声出力部と、
を含むことを特徴とする音声出力装置。
A description information acquisition unit for acquiring description information of the object including information on attributes of an object located in the vicinity;
A type setting processing unit that sets type information indicating a human type when the object is anthropomorphic based on the information about the attribute;
Based on the type information, a speech output unit that outputs the explanation information in a language that is supposed to be spoken by a human of that type;
An audio output device comprising:
請求項1に記載の音声出力装置において、
前記類型情報毎にその類型の人間が話すことが想定される言葉を、当該類型情報に対応づけて記憶する言葉記憶部と、
前記音声出力部が出力する前記説明情報の内容を決定するとともに、前記言葉記憶部から、前記説明情報の内容に対応する言葉であって、前記物体の類型情報に対応づけられた、その類型の人間が話すことが想定される言葉を読み出す読出処理部と、
をさらに含み、
前記音声出力部は、前記読出処理部が読み出した言葉を音声出力することを特徴とする音声出力装置。
The audio output device according to claim 1,
A word storage unit that stores words that are assumed to be spoken by a person of that type for each type information, in association with the type information;
The content of the explanation information output by the voice output unit is determined, and the word corresponding to the content of the explanation information from the word storage unit and associated with the type information of the object. A readout processing unit for reading out words that humans are supposed to speak;
Further including
The voice output device, wherein the voice output unit outputs the words read by the read processing unit.
請求項2に記載の音声出力装置において、
所定の項目毎にその項目に関する前記物体の説明情報を、当該項目に対応づけて記憶する説明情報記憶部をさらに含み、
前記読出処理部は、前記言葉記憶部から、所望の言葉を読み出すとともに、読み出した言葉の中に、いずれかの前記項目に関する前記物体の説明情報を加える箇所がある場合に、前記説明情報記憶部から対応する項目に対応づけられた前記説明情報を読み出し、前記言葉と前記説明情報をあわせて文章を作成し、
前記音声出力部は、前記読出処理部が作成した文章を音声出力することを特徴とする音声出力装置。
The audio output device according to claim 2,
A description information storage unit that stores the description information of the object related to the item for each predetermined item in association with the item;
The reading processing unit reads out a desired word from the word storage unit, and when there is a place to add the description information of the object related to any of the items in the read word, the explanation information storage unit Read the explanation information associated with the corresponding item from, create a sentence combining the word and the explanation information,
The voice output device, wherein the voice output unit outputs a voice of the sentence created by the read processing unit.
請求項1乃至3いずれかに記載の音声出力装置において、
前記属性に関する情報は、前記類型情報を含み、
前記類型情報設定処理部は、前記類型情報に基づき、前記物体の類型情報を設定することを特徴とする音声出力装置。
The audio output device according to any one of claims 1 to 3,
The information on the attribute includes the type information,
The type information setting processing unit sets type information of the object based on the type information.
請求項1乃至4いずれかに記載の音声出力装置において、
物体に取り付け可能に構成された取付部をさらに含み、
前記説明情報取得部は、前記取付部が取り付けられた物体の前記説明情報を取得することを特徴とする音声出力装置。
The audio output device according to any one of claims 1 to 4,
A mounting portion configured to be attachable to the object;
The audio output device, wherein the explanation information acquisition unit acquires the explanation information of an object to which the attachment unit is attached.
請求項1乃至5いずれかに記載の音声出力装置において、
前記説明情報取得部は、前記物体に取り付けられた情報記憶部から、当該物体の前記説明情報を取得することを特徴とする音声出力装置。
The audio output device according to any one of claims 1 to 5,
The audio output device, wherein the explanation information acquisition unit acquires the explanation information of the object from an information storage unit attached to the object.
請求項6に記載の音声出力装置において、
前記説明情報取得部は、前記物体に取り付けられた前記情報記憶部から無線で前記説明情報を読み取り可能に構成され、それぞれ前記情報記憶部が取り付けられた複数の物体が近傍にある場合に、前記複数の物体にそれぞれ取り付けられた前記情報記憶部のうち、最も強度の強い前記情報記憶部の情報を読み取ることを特徴とする音声出力装置。
The audio output device according to claim 6,
The explanation information acquisition unit is configured to be able to read the explanation information wirelessly from the information storage unit attached to the object, and when the plurality of objects to which the information storage unit is attached are in the vicinity, An audio output device that reads information in the information storage unit having the strongest strength among the information storage units attached to a plurality of objects.
請求項1乃至7いずれかに記載の音声出力装置において、
前記物体から、当該物体を識別する識別情報を取得する識別情報取得部をさらに含み、
前記説明情報取得部は、前記識別情報取得部が取得した前記識別情報に基づき、他の装置から、前記物体の前記説明情報を取得することを特徴とする音声出力装置。
The audio output device according to any one of claims 1 to 7,
An identification information acquisition unit for acquiring identification information for identifying the object from the object;
The audio information output device, wherein the explanation information acquisition unit acquires the explanation information of the object from another device based on the identification information acquired by the identification information acquisition unit.
請求項8に記載の音声出力装置において、
前記識別情報記憶部は、前記物体に取り付けられた識別情報記憶部から無線で前記識別情報を読み取り可能に構成され、それぞれ前記識別情報記憶部が取り付けられた複数の物体が近傍にある場合に、前記複数の物体にそれぞれ取り付けられた前記識別情報記憶部のうち、最も強度の強い前記識別情報記憶部の情報を読み取ることを特徴とする音声出力装置。
The audio output device according to claim 8, wherein
The identification information storage unit is configured to be able to read the identification information wirelessly from an identification information storage unit attached to the object, and when there are a plurality of objects each having the identification information storage unit attached thereto, An audio output apparatus that reads information of the identification information storage unit having the strongest intensity among the identification information storage units attached to the plurality of objects.
請求項1乃至9いずれかに記載の音声出力装置において、
近傍にいるユーザに関する情報を取得するユーザ情報取得部をさらに含み、
前記音声出力部は、前記ユーザ情報取得部が取得したユーザに関する情報に基づき、当該ユーザを所定の類型に分類した場合に、前記物体が設定された類型の人間が、前記ユーザの類型の人間と話すことが想定される言葉で、前記物体の前記説明情報を音声出力することを特徴とする音声出力装置。
The audio output device according to any one of claims 1 to 9,
It further includes a user information acquisition unit that acquires information about users in the vicinity,
The voice output unit, when the user is classified into a predetermined type based on information about the user acquired by the user information acquisition unit, the type of person set with the object is A voice output device that outputs the explanation information of the object in a voice that is supposed to be spoken.
請求項1乃至10いずれかに記載の音声出力装置において、
キャラクタ画像を表示する表示部をさらに含み、
前記音声出力部は、前記キャラクタ画像の声として、前記説明情報を音声出力することを特徴とする音声出力装置。
The audio output device according to any one of claims 1 to 10,
A display unit for displaying a character image;
The voice output device, wherein the voice output unit outputs the explanation information as voice of the character image.
請求項1乃至11いずれかに記載の音声出力装置において、
ユーザの音声を認識する音声認識部をさらに含み、
前記音声出力部は、前記音声認識部により認識されたユーザの音声に応答する音声を出力することを特徴とする音声出力装置。
The audio output device according to any one of claims 1 to 11,
A voice recognition unit for recognizing the user's voice;
The voice output device, wherein the voice output unit outputs a voice in response to a user voice recognized by the voice recognition unit.
表示部と、
前記表示部に表示させるキャラクタ画像の属性に関する情報を取得するキャラクタ情報取得部と、
前記属性に関する情報に基づき、前記キャラクタ画像を擬人化した場合の類型を示す類型情報を設定する類型設定処理部と、
前記類型情報に基づき、その類型の人間が話すことが想定される言葉で、前記キャラクタ画像の音声を出力する音声出力部と、
を含むことを特徴とするキャラクタ画像表示装置。
A display unit;
A character information acquisition unit for acquiring information on the attribute of the character image to be displayed on the display unit;
A type setting processing unit that sets type information indicating a type when the character image is anthropomorphized based on the information about the attribute;
Based on the type information, a voice output unit that outputs the voice of the character image in words that are supposed to be spoken by that type of human,
A character image display device comprising:
請求項13に記載のキャラクタ画像表示装置において、
前記キャラクタ画像に関する情報を記憶する画像記憶部をさらに含むことを特徴とするキャラクタ画像表示装置。
The character image display device according to claim 13,
A character image display device, further comprising an image storage unit for storing information relating to the character image.
請求項13に記載のキャラクタ画像表示装置において、
前記キャラクタ情報取得部は、前記キャラクタ画像および当該キャラクタ画像の属性に関する情報を取得することを特徴とするキャラクタ画像表示装置。
The character image display device according to claim 13,
The character information acquisition unit acquires information about the character image and attributes of the character image.
請求項13乃至15いずれかに記載のキャラクタ画像表示装置において、
ユーザの音声を認識する音声認識部をさらに含み、
前記音声出力部は、前記音声認識部により認識されたユーザの音声に応答する音声を出力することを特徴とするキャラクタ画像表示装置。
The character image display device according to any one of claims 13 to 15,
A voice recognition unit for recognizing the user's voice;
The character image display device, wherein the voice output unit outputs a voice in response to a user voice recognized by the voice recognition unit.
説明情報取得部と、類型設定処理部と、および音声出力部と、を含む音声出力装置を用いて、
前記説明情報取得部が、近傍に位置する物体の属性に関する情報を含む前記物体の説明情報を取得するステップと、
前記類型設定処理部が、前記属性に関する情報に基づき、前記物体を擬人化した場合の人間の類型を示す類型情報を設定するステップと、
前記音声出力部が、前記類型情報に基づき、その類型の人間が話すことが想定される言葉で、前記説明情報を音声出力するステップと、
を含むことを特徴とする音声出力方法。
Using an audio output device including an explanation information acquisition unit, a type setting processing unit, and an audio output unit,
The description information acquisition unit acquires description information of the object including information related to attributes of an object located in the vicinity;
The type setting processing unit setting type information indicating a human type when the object is anthropomorphic based on the information on the attribute;
The voice output unit, based on the type information, outputting the explanation information in a voice that is assumed to be spoken by a human of that type;
An audio output method comprising:
表示部と、キャラクタ情報取得部と、類型設定処理部と、音声出力部と、を含むキャラクタ画像表示装置を用いて、
キャラクタ情報取得部が、前記表示部に表示させるキャラクタ画像の属性に関する情報を取得するステップと、
前記類型設定処理部が、前記属性に関する情報に基づき、前記キャラクタ画像を擬人化した場合の類型を示す類型情報を設定するステップと、
前記音声出力部が、前記類型情報に基づき、その類型の人間が話すことが想定される言葉で、前記キャラクタ画像の音声を出力するステップと、
を含むことを特徴とするキャラクタ画像表示方法。
Using a character image display device including a display unit, a character information acquisition unit, a type setting processing unit, and an audio output unit,
A character information obtaining unit obtaining information on attributes of a character image to be displayed on the display unit;
The type setting processing unit setting type information indicating a type when the character image is anthropomorphized based on the information on the attribute;
The voice output unit, based on the type information, outputting the voice of the character image in a word that is supposed to be spoken by a human of that type;
A character image display method comprising:
コンピュータを、
近傍に位置する物体の属性に関する情報を含む前記物体の説明情報を取得する説明情報取得手段と、
前記属性に関する情報に基づき、前記物体を擬人化した場合の人間の類型を示す類型情報を設定する類型設定処理手段と、
前記類型情報に基づき、その類型の人間が話すことが想定される言葉で、前記説明情報を音声出力する音声出力手段と、
して機能させることを特徴とするプログラム。
Computer
Description information acquisition means for acquiring description information of the object including information related to attributes of an object located in the vicinity;
Type setting processing means for setting type information indicating a human type when the object is anthropomorphic based on information on the attribute;
Based on the type information, a voice output means for outputting the explanation information in a voice that is assumed to be spoken by a human of that type;
A program characterized by making it function.
コンピュータを、
表示部に表示させるキャラクタ画像の属性に関する情報を取得するキャラクタ情報取得手段と、
前記属性に関する情報に基づき、前記キャラクタ画像を擬人化した場合の類型を示す類型情報を設定する類型設定処理手段と、
前記類型情報に基づき、その類型の人間が話すことが想定される言葉で、前記キャラクタ画像の音声を出力する音声出力手段と、
して機能させることを特徴とするプログラム。
Computer
Character information acquisition means for acquiring information on the attribute of the character image to be displayed on the display unit;
Type setting processing means for setting type information indicating a type when the character image is anthropomorphized based on the information on the attribute;
Based on the type information, a voice output means for outputting the voice of the character image in a language that is assumed to be spoken by a human of that type;
A program characterized by making it function.
JP2004207270A 2004-07-14 2004-07-14 Audio output device, character image display device, audio output method, and character image display method Expired - Fee Related JP4741817B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004207270A JP4741817B2 (en) 2004-07-14 2004-07-14 Audio output device, character image display device, audio output method, and character image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004207270A JP4741817B2 (en) 2004-07-14 2004-07-14 Audio output device, character image display device, audio output method, and character image display method

Publications (2)

Publication Number Publication Date
JP2006030464A true JP2006030464A (en) 2006-02-02
JP4741817B2 JP4741817B2 (en) 2011-08-10

Family

ID=35896919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004207270A Expired - Fee Related JP4741817B2 (en) 2004-07-14 2004-07-14 Audio output device, character image display device, audio output method, and character image display method

Country Status (1)

Country Link
JP (1) JP4741817B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009224837A (en) * 2008-03-13 2009-10-01 Nippon Telegr & Teleph Corp <Ntt> Content playback system
JP2015114559A (en) * 2013-12-13 2015-06-22 眞理子 溝口 Method for recording two-dimensional code and two-dimensional code readout device
JP2016009072A (en) * 2014-06-24 2016-01-18 シャープ株式会社 Database, method of utilizing database, program, system, terminal, terminal program, and voice data output device
WO2020017165A1 (en) * 2018-07-20 2020-01-23 ソニー株式会社 Information processing device, information processing system, information processing method, and program
WO2021061450A1 (en) * 2019-09-27 2021-04-01 Qsinx Management Llc Scene-to-text conversion
US12033381B2 (en) 2021-09-03 2024-07-09 Apple Inc. Scene-to-text conversion

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0326151U (en) * 1989-07-25 1991-03-18
JPH1168628A (en) * 1997-08-12 1999-03-09 Tokin Corp Local information service system
JP2000308763A (en) * 1999-02-26 2000-11-07 Snk Corp Game device
JP2001077746A (en) * 1999-09-07 2001-03-23 Matsushita Electric Ind Co Ltd Article guidance system
JP2001134642A (en) * 1999-11-02 2001-05-18 Atr Media Integration & Communications Res Lab Agent system utilizing social response characteristic
JP2002108380A (en) * 2000-10-02 2002-04-10 Canon Inc Information presenting device and its control method, and computer-readable memory
JP2002108378A (en) * 2000-10-02 2002-04-10 Nippon Telegraph & Telephone East Corp Document reading-aloud device
JP2002123276A (en) * 2000-10-17 2002-04-26 Dainippon Printing Co Ltd Ic tagged article for collection, ic tag and tag reader

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0326151U (en) * 1989-07-25 1991-03-18
JPH1168628A (en) * 1997-08-12 1999-03-09 Tokin Corp Local information service system
JP2000308763A (en) * 1999-02-26 2000-11-07 Snk Corp Game device
JP2001077746A (en) * 1999-09-07 2001-03-23 Matsushita Electric Ind Co Ltd Article guidance system
JP2001134642A (en) * 1999-11-02 2001-05-18 Atr Media Integration & Communications Res Lab Agent system utilizing social response characteristic
JP2002108380A (en) * 2000-10-02 2002-04-10 Canon Inc Information presenting device and its control method, and computer-readable memory
JP2002108378A (en) * 2000-10-02 2002-04-10 Nippon Telegraph & Telephone East Corp Document reading-aloud device
JP2002123276A (en) * 2000-10-17 2002-04-26 Dainippon Printing Co Ltd Ic tagged article for collection, ic tag and tag reader

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009224837A (en) * 2008-03-13 2009-10-01 Nippon Telegr & Teleph Corp <Ntt> Content playback system
JP2015114559A (en) * 2013-12-13 2015-06-22 眞理子 溝口 Method for recording two-dimensional code and two-dimensional code readout device
JP2016009072A (en) * 2014-06-24 2016-01-18 シャープ株式会社 Database, method of utilizing database, program, system, terminal, terminal program, and voice data output device
WO2020017165A1 (en) * 2018-07-20 2020-01-23 ソニー株式会社 Information processing device, information processing system, information processing method, and program
WO2021061450A1 (en) * 2019-09-27 2021-04-01 Qsinx Management Llc Scene-to-text conversion
US12033381B2 (en) 2021-09-03 2024-07-09 Apple Inc. Scene-to-text conversion

Also Published As

Publication number Publication date
JP4741817B2 (en) 2011-08-10

Similar Documents

Publication Publication Date Title
EP3766066B1 (en) Generating response in conversation
US20220148567A1 (en) Method and electronic device for translating speech signal
JP2000187435A (en) Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method
CN102598084A (en) Remote communication system and method
WO2018043112A1 (en) Information presentation apparatus and information presentation method
JP7276129B2 (en) Information processing device, information processing system, information processing method, and program
JP2009151766A (en) Life adviser support system, adviser side terminal system, authentication server, server, support method and program
JPWO2017163515A1 (en) Information processing system, information processing apparatus, information processing method, and recording medium
JP6310796B2 (en) Control device, control method, and control program
JP6462628B2 (en) Product sales support system and product sales support method
CN109326284A (en) The method, apparatus and storage medium of phonetic search
CN111339881A (en) Baby growth monitoring method and system based on emotion recognition
JP4741817B2 (en) Audio output device, character image display device, audio output method, and character image display method
CN114048299A (en) Dialogue method, apparatus, device, computer-readable storage medium, and program product
JP7095684B2 (en) Information processing equipment, information processing method, program
JP2019215502A (en) Server, sound data evaluation method, program, and communication system
KR20180042116A (en) System, apparatus and method for providing service of an orally narrated fairy tale
CN100449544C (en) Conversation aid-device
JP4079275B2 (en) Conversation support device
CN110959174A (en) Information processing apparatus, information processing method, and program
KR102388465B1 (en) Virtual contents creation method
KR101987644B1 (en) System for providing effect based on a reading
JP6774438B2 (en) Information processing systems, information processing methods, and programs
JP5882972B2 (en) Information processing apparatus and program
JP7182997B2 (en) picture book display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110509

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4741817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees