JP4741817B2 - 音声出力装置、キャラクタ画像表示装置、音声出力方法、およびキャラクタ画像表示方法 - Google Patents

音声出力装置、キャラクタ画像表示装置、音声出力方法、およびキャラクタ画像表示方法 Download PDF

Info

Publication number
JP4741817B2
JP4741817B2 JP2004207270A JP2004207270A JP4741817B2 JP 4741817 B2 JP4741817 B2 JP 4741817B2 JP 2004207270 A JP2004207270 A JP 2004207270A JP 2004207270 A JP2004207270 A JP 2004207270A JP 4741817 B2 JP4741817 B2 JP 4741817B2
Authority
JP
Japan
Prior art keywords
information
type
user
storage unit
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004207270A
Other languages
English (en)
Other versions
JP2006030464A (ja
Inventor
慎一 大中
昭夫 吉橋
純一 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2004207270A priority Critical patent/JP4741817B2/ja
Publication of JP2006030464A publication Critical patent/JP2006030464A/ja
Application granted granted Critical
Publication of JP4741817B2 publication Critical patent/JP4741817B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、音声出力装置、キャラクタ画像表示装置、音声出力方法、およびキャラクタ画像表示方法に関する。
従来、美術館等や博物館等において、展示物の説明情報を再生する音声ガイダンス装置が知られている。
特許文献1には、説明の対象となる展示物の近くに、展示物を識別する識別情報を無線信号として発生する識別情報発生装置を配置し、利用者が再生装置を携帯し移動するように構成されたシステムが記載されている。再生装置は、複数の展示物についての説明情報を記憶した記憶手段と、無線信号の識別情報を検出する受信回路と、受信回路で検出された識別情報に対応する展示物についての説明情報を上記記憶手段から選択する選択回路と、選択された説明情報を利用者の操作によって出力する出力手段とを持つ。これにより、説明員の削減による人件費の削減や利用者の満足感を実現することができる。
特開平5−333799号公報
上述したような音声ガイダンス装置を用いることにより、ユーザは美術館や博物館等で、展示物の説明を聞くことができ、展示物の情報を知ることができる。しかし、従来の音声ガイダンス装置は、一方的に展示物の説明が流れるだけだった。そのため、たとえば美術館等の展示品に興味のあるユーザにとっては便利なものだが、子供やあまり展示品に興味のないユーザにとっては退屈に感じることもあった。
本発明は上記事情を踏まえてなされたものであり、本発明の目的は、種々のユーザが興味を持って音声情報を聞くことができるように構成された音声出力装置およびキャラクタ画像表示装置を提供することにある。
本発明によれば、近傍に位置する物体の属性に関する情報を含む物体の説明情報を取得する説明情報取得部と、属性に関する情報に基づき、物体を擬人化した場合の人間の類型を示す類型情報を設定する類型設定処理部と、類型情報に基づき、その類型の人間が話すことが想定される言葉で、説明情報を音声出力する音声出力部と、を含むことを特徴とする音声出力装置が提供される。
ここで、属性に関する情報は、たとえば、物体の製品名や名称、製造年月日、生産国(生産地)、機能・用途、材質等である。所定の類型の人間とは、年齢や性別によって分類される類型とすることもでき、また性格等によって分類される類型とすることもできる。たとえば、物体が新しい物であれば、その物体の類型は子供と設定され、音声出力部は、子供が話すような言葉で説明情報を音声出力する。また、たとえば、物体が古い物であれば、その物体の類型は老人と設定され、音声出力部は、老人が話すような言葉で説明情報を音声出力する。また、属性に関する情報は、物体の類型そのものを示す情報を含むこともできる。
説明情報取得部は、たとえば、物体または物体の近傍に配置された情報記憶デバイスから物体の説明情報を取得することができる。また、音声出力装置は、物体または物体の近傍に配置された情報記憶デバイスから、物体の識別情報を取得し、説明情報取得部は、その識別情報に基づき、他の装置から物体の説明情報を取得することもできる。この場合、情報記憶デバイスは、たとえばRFID等のICタグとすることができる。さらに、音声出力装置は、物体または物体の近傍に配置されたバーコード等の識別情報を読み取り、その、識別情報に基づき、他の装置から物体の説明情報を取得することもできる。
さらに、説明情報取得部は、物体に接触することにより、物体を構成する材料を認識するように構成されてもよい。この場合、たとえば、物体を構成する材料の材質等に応じて、物体の類型を設定することができる。たとえば、物体が柔らかい物であれば、その物体の類型は優しい人と設定され、音声出力部は、優しい言葉で説明情報を音声出力する。また、たとえば、物体がかたい物であれば、その物体の類型は真面目な人と設定され、音声出力部は、真面目な言葉で説明情報を音声出力する。
以上のように、本発明の音声出力装置によれば、物体の属性に関する情報に応じて物体の類型が異なるので、ユーザは、あたかも物体自身の声を聞いているような気持ちになることができ、興味を持って物体の説明情報を聞くことができる。
本発明の音声出力装置は、類型毎にその類型の人間が話すことが想定される言葉を、当該類型に対応づけて記憶する言葉記憶部と、音声出力部が出力する説明情報の内容を決定するとともに、言葉記憶部から、説明情報の内容に対応する言葉であって、物体の類型に対応づけられた、その類型の人間が話す言葉を読み出す読出処理部と、をさらに含むことができ、音声出力部は、読出処理部が読み出した言葉を音声出力することができる。
本発明の音声出力装置は、所定の項目毎にその項目に関する前記物体の説明情報を、当該項目に対応づけて記憶する説明情報記憶部をさらに含むことができ、読出処理部は、言葉記憶部から、所望の言葉を読み出すとともに、読み出した言葉の中に、いずれかの前記項目に関する前記物体の説明情報を加える箇所がある場合に、前記説明情報記憶部から対応する項目に対応づけられた説明情報を読み出し、前記言葉と前記説明情報をあわせて文章を作成してよく、音声出力部は、読出処理部が作成した文章を音声出力することができる。
読出処理部は、言葉情報記憶部から読み出した言葉の中に、物体の説明情報を加える箇所があるか否かを判断する。たとえば、単に「はい、そうです」という言葉を読み出した場合等、物体の説明情報を加える箇所がない場合、読出処理部は、そのままの言葉を音声出力部に通知する。この場合、音声出力部は、「はい、そうです」という言葉を音声出力する。また、たとえば「私は「○○」です」のように、「○○」の部分に、物体の説明情報である物体の名称等を加えなければならない場合、読出処理部は、説明情報記憶部から、物体の名称を読み出す。読出処理部は、「私は「○○」です」の「○○」に、物体の名称、たとえば「ホワイトボード」を加え、「私はホワイトボードです」という文章を作成する。この場合、音声出力部は、「私はホワイトボードです」という文章を音声出力する。
このようにすれば、同じ項目に対応する物体の説明情報を音声出力する場合でも、物体の類型に応じて、異なる文章で音声出力される。これにより、ユーザは、あたかも物体自身の声を聞いているような気持ちになることができ、興味を持って物体の説明情報を聞くことができる。
本発明の音声出力装置において、属性に関する情報は、物体を擬人化した場合の人間の類型に関する情報を含むことができる。
本発明の音声出力装置は、物体に取り付け可能に構成された取付部をさらに含むことができ、説明情報取得部は、取付部が取り付けられた物体の説明情報を取得することができる。
このようにすれば、ユーザはあたかも物体から直接説明情報を聞いているような気分になることができる。これにより、とくに子供や老人等が興味を持って物体の説明情報を聞くことができる。
本発明の音声出力装置において、説明情報取得部は、物体に取り付けられた情報記憶部から、当該物体の説明情報を取得することができる。
本発明の音声出力装置において、説明情報取得部は、物体に取り付けられた情報記憶部から無線で説明情報を読み取り可能に構成することができ、それぞれ情報記憶部が取り付けられた複数の物体が近傍にある場合に、複数の物体にそれぞれ取り付けられた情報記憶部のうち、最も強度の強い情報記憶部の情報を読み取ることができる。
このようにすれば、それぞれ情報記憶部が取り付けられた複数の物体が近傍にある場合でも、所望の物体が最も近くなる位置に音声出力部を配置することにより、所望の物体の説明情報を取得することができる。
本発明の音声出力装置は、物体から、当該物体を識別する識別情報を取得する識別情報取得部をさらに含むことができ、説明情報取得部は、識別情報取得部が取得した識別情報に基づき、他の装置から、物体の説明情報を取得することができる。
本発明の音声出力装置において、識別情報取得部は、物体に取り付けられた識別情報記憶部から無線で識別情報を読み取り可能に構成することができ、それぞれ識別情報記憶部が取り付けられた複数の物体が近傍にある場合に、複数の物体にそれぞれ取り付けられた識別情報記憶部のうち、最も強度の強い識別情報記憶部の情報を読み取ることができる。
このようにすれば、それぞれ識別情報記憶部が取り付けられた複数の物体が近傍にある場合でも、所望の物体が最も近くなる位置に音声出力部を配置することにより、所望の物体の識別情報を取得することができる。
本発明の音声出力装置は、近傍にいるユーザに関する情報を取得するユーザ情報取得部をさらに含むことができ、音声出力部は、ユーザ情報取得部が取得したユーザに関する情報に基づき、当該ユーザを所定の類型に分類した場合に、物体が設定された類型の人間が、ユーザの類型の人間と話すことが想定される言葉で、物体の説明情報を音声出力することができる。
このようにすれば、ユーザがより親しみを感じるようにすることができる。音声出力部は、たとえば、ユーザが子供や老人のときには、わかりやすいような言葉で説明情報を音声出力することができる。また、音声出力部は、ユーザが大人のときには、たとえば物体に関するコマーシャル等を音声出力するようにすることもできる。
本発明の音声出力装置は、キャラクタ画像を表示する表示部をさらに含むことができ、音声出力部は、キャラクタ画像の声として、説明情報を音声出力することができる。
ここで、音声出力装置は、予めキャラクタ画像を記憶しておくこともできる。この場合、キャラクタ画像の類型が物体の属性に関する情報に応じて異なるので、ユーザはキャラクタ画像との会話を楽しみつつ、物体の説明情報を聞くことができる。
本発明の音声出力装置は、ユーザの音声を認識する音声認識部をさらに含むことができ、音声出力部は、音声認識部により認識されたユーザの音声に応答する音声を出力することができる。
このようにすれば、ユーザは、音声出力装置を用いることにより、あたかも物体と会話をしているような気分になることができ、物体の説明情報を興味深く聞くことができる。
本発明によれば、表示部と、表示部に表示させるキャラクタ画像の属性に関する情報を取得するキャラクタ情報取得部と、属性に関する情報に基づき、キャラクタ画像を擬人化した場合の類型を示す類型情報を設定する類型設定処理部と、類型情報に基づき、その類型の人間が話すことが想定される言葉で、キャラクタ画像の音声を出力する音声出力部と、を含むことを特徴とするキャラクタ画像表示装置が提供される。
本発明のキャラクタ画像表示装置によれば、キャラクタ画像の属性に関する情報に応じて、キャラクタ画像の類型が変化するので、ユーザはキャラクタ画像とのコミュニケーションを楽しむことができる。
本発明のキャラクタ画像表示装置は、キャラクタ画像に関する情報を記憶する画像記憶部をさらに含むことができる。
キャラクタ画像表示装置は、予め画像記憶部にキャラクタ画像に関する情報を記憶しておき、キャラクタ情報取得部は、キャラクタ画像の属性に関する情報のみを新たに取得し、新たに取得したキャラクタ画像の属性に関する情報に基づいて、キャラクタ画像の類型を異ならせることができる。このようにすれば、そのときどきによってキャラクタ画像の類型が異なるので、ユーザが飽きることなく、キャラクタ画像とのコミュニケーションを楽しむことができる。
本発明のキャラクタ画像表示装置において、キャラクタ情報取得部は、キャラクタ画像および当該キャラクタ画像の属性に関する情報を取得することができる。
ここで、たとえば、店舗等で販売される商品に識別情報を付しておき、商品購入者がその識別情報を所定のセンターに送信すると、識別情報に応じて、キャラクタ画像表示装置にキャラクタ画像および当該キャラクタ画像の属性に関する情報が送信されるようにすることもできる。このようにすれば、購入者が所望の類型のキャラクタ画像を入手するために、商品を購入することが期待され、商品の販売促進を図ることができる。
本発明のキャラクタ画像表示装置は、ユーザの音声を認識する音声認識部をさらに含むことができ、音声出力部は、音声認識部により認識されたユーザの音声に応答する音声を出力することができる。
このようにすれば、ユーザは、キャラクタ画像表示装置を用いることにより、あたかもキャラクタ画像と会話をしているような気分になることができる。
本発明によれば、説明情報取得部と、類型設定処理部と、および音声出力部と、を含む音声出力装置を用いて、説明情報取得部が、近傍に位置する物体の属性に関する情報を含む物体の説明情報を取得するステップと、類型設定処理部が、属性に関する情報に基づき、物体を擬人化した場合の人間の類型を示す類型情報を設定するステップと、音声出力部が、類型情報に基づき、その類型の人間が話すことが想定される言葉で、説明情報を音声出力するステップと、を含むことを特徴とする音声出力方法が提供される。
本発明によれば、表示部と、キャラクタ情報取得部と、類型設定処理部と、音声出力部と、を含むキャラクタ画像表示装置を用いて、キャラクタ情報取得部が、表示部に表示させるキャラクタ画像の属性に関する情報を取得するステップと、類型設定処理部が、属性に関する情報に基づき、キャラクタ画像を擬人化した場合の類型を示す類型情報を設定するステップと、音声出力部が、類型情報に基づき、その類型の人間が話すことが想定される言葉で、キャラクタ画像の音声を出力するステップと、を含むことを特徴とするキャラクタ画像表示方法が提供される。
本発明によれば、音声出力装置およびキャラクタ画像表示装置において、しゃべり方を異ならせて音声を出力することにより、種々のユーザが興味を持って音声情報を聞くようにすることができる。
次に、本発明の実施の形態について図面を参照して詳細に説明する。
(第一の実施の形態)
本実施の形態における音声出力装置は、物体に取り付けられた情報記憶デバイスから、その物体の属性に関する情報を含む説明情報を取得し、その属性に関する情報に基づき、物体を擬人化して所定の類型の人間に設定した場合に、その類型の人間が話すことが想定される言葉で、物体の説明情報を音声出力する。たとえば、物体が新しいものである場合、物体の類型は子供に設定される。また、物体が古いものである場合、物体の類型は老人に設定される。
図1は、本実施の形態における音声出力装置の構成を示すブロック図である。
音声出力装置100は、物体情報取得部102、ユーザ情報取得部104、類型設定処理部106、設定情報記憶部108、音声出力部110、取得情報記憶部111、応答例記憶部112、応答読出処理部114、および音声認識部116を含む。
音声出力装置100は、音声出力機能を有する装置であれば何でもよい。たとえば以下の機能を有する携帯電話端末とすることもできる。
本実施の形態において、物体200は、物体の説明情報を記憶する物体情報記憶部202を含む。物体情報記憶部202は、たとえばRFID等の情報記憶デバイスである。物体情報取得部102は、物体情報記憶部202から物体200の説明情報を取得する。ここで、説明情報は、たとえば、物体200の製品名や名称、製造年月日、生産国(生産地)、機能・用途等の物体の属性に関する情報を含む。物体情報取得部102は、取得した説明情報を取得情報記憶部111に記憶する。
図2は、取得情報記憶部111の内部構成の一例を示す図である。ここでは、物体200の説明情報として、物体200の「名称」、「製造年月日」、「生産国」、「機能」等の項目にそれぞれ対応づけて、「ホワイトボード」、「2004/6/1」、「台湾」、「プリンタ」が記憶されている。物体200の物体情報記憶部202は、物体200の説明情報をこのように項目に対応づけて記憶しておくことができる。また、物体情報記憶部202から取得した説明情報が項目に対応づけられていない場合、物体情報取得部102は、説明情報から各項目に対応する情報を抽出して、項目に対応づけて取得情報記憶部111に記憶することもできる。
図1に戻り、物体情報取得部102は、たとえば無線で物体情報記憶部202から物体200の説明情報を取得することができる。物体情報取得部102が無線で物体情報記憶部202から物体200の情報を取得する際に、物体情報記憶部が取り付けられた複数の他の物体が近傍にある場合、物体情報取得部102は、複数の物体にそれぞれ取り付けられた物体情報記憶部のうち、最も強度の強い物体情報記憶部の情報を読み取るように構成することができる。また、音声出力装置100自体を物体200に取り付け、物体情報取得部102と物体情報記憶部202とを電気的に接続させて、有線で物体情報記憶部202から物体200の説明情報を取得するようにすることもできる。
ユーザ情報取得部104は、ユーザに関する情報を取得する。ユーザに関する情報とは、たとえばユーザの年齢や性別等である。
類型設定処理部106は、物体情報取得部102が取得した物体200の説明情報およびユーザ情報取得部104が取得したユーザに関する情報に基づき、設定情報記憶部108を参照して、物体の類型の設定を行う。設定情報記憶部108には、物体200の属性およびユーザの種類に応じて、異なる類型が対応づけられている。
図3は、設定情報記憶部108の内部構成の一例を示す図である。
設定情報記憶部108は、物体200およびユーザの種類に対応づけて、類型IDを保持する。ここで、物体200の種類は、物体200が古いか新しいかによって分類される。物体200が古いか新しいかは、たとえば物体200の製造年月日に基づき判断することができる。また、ユーザの種類は、ユーザが子供か、大人か、老人かによって分類することができる。ユーザの分類は、たとえばユーザの年齢に基づき判断することができる。
たとえば、物体200が古いもので、ユーザが子供の場合、類型設定処理部106は、物体200を擬人化した場合の類型を「1」に設定する。類型「1」は、たとえば孫等と会話する老人である。
また、物体200が新しいもので、ユーザが子供の場合、類型設定処理部106は、物体200を擬人化した場合の類型を「4」に設定する。類型「4」は、たとえば子供の友達と会話する子供である。
また、物体200が新しいもので、ユーザが老人の場合、類型設定処理部106は、物体200を擬人化した場合の類型を「6」に設定する。類型「6」は、たとえば祖父母と会話する孫である。
図1に戻り、音声認識部116は、ユーザからの問いかけを音声信号として取得し、音声認識を行う。また、音声認識部116は、音声認識を行った結果の言葉を、応答読出処理部114に通知する。
応答例記憶部112は、ユーザからの種々の問いかけに対する複数の応答例を記憶する。本実施の形態において、応答例記憶部112は、各応答例について、類型IDに対応づけて複数の応答例を保持する。
図4は、応答例記憶部112の内部構成の一部の一例を示す図である。図4は、音声出力装置100が、物体200の自己紹介をする場合の応答例を示す図である。たとえば、物体200の類型が4、5、または6のいずれかに設定された場合、自己紹介として、「ぼくは<名称>だよ」という言葉が類型IDに対応づけて記憶されている。また、物体200の類型が1、2、または3のいずれかに設定された場合、自己紹介として、「わしは<名称>じゃ」という言葉が類型IDに対応づけて記憶されている。また、応答例記憶部112は、物体200の類型が設定されていない場合の標準として、「私は<名称>です」という言葉も記憶することができる。物体200の類型を設定することができない場合やユーザの指示により、標準が選択された場合、応答読出処理部114は、応答例記憶部112から「標準」に対応づけられた言葉を読み出す。ここで、<名称>の部分には、物体情報取得部102が物体情報記憶部202から取得した説明情報の物体200の名称が入れられる。
図1に戻り、応答読出処理部114は、音声認識部116から通知された言葉に基づいて、応答例記憶部112から読み出す言葉の内容を決定する。
たとえばユーザが「名前なんて言うの?」と聞いた場合、応答読出処理部114は、応答例記憶部112から、物体200の自己紹介を読み出すことを決定する。このとき、既に物体200の類型が設定されている場合、応答読出処理部114は、対応する類型IDに対応づけられた応答例を読み出す。
また、応答読出処理部114は、応答例記憶部112から読み出した言葉の中に、物体200の説明情報の項目に関する情報を加える必要がある場合に、取得情報記憶部111も参照して、対応する項目に対応づけられた物体200の説明情報を読み出す。たとえば、図4に示した例では、応答読出処理部114は、「私は<名称>です」という言葉を読み出すが、この中には、<名称>という項目が含まれる。応答読出処理部114は、取得情報記憶部111から名称に対応づけられたたとえば「ホワイトボード」という説明情報を読み出す。応答読出処理部114は、「私は<名称>です」と「ホワイトボード」とをあわせて「私はホワイトボードです」という文章を作成する。
音声出力部110は、応答読出処理部114が読み出した言葉、または応答読出処理部114が作成した文章を音声出力する。
類型設定処理部106は、物体200の製造年月日から現在までの経過時間に応じて、物体200が古いか新しいかを決定することができる。ここでは、類型設定処理部106が物体200が新しいと決定したと仮定する。類型設定処理部106が設定する類型は、ユーザの種類によっても異なるが、図3に示した例では、類型4、5、または6のいずれかになる。この場合、応答読出処理部114は、音声出力装置100が物体200の自己紹介をする場合の応答例として、応答例記憶部112から、「ぼくは<名称>だよ」という言葉を読み出す。また、応答読出処理部114は、取得情報記憶部111から、<名称>に該当する「ホワイトボード」という言葉を読み出す。応答読出処理部114はこれらをあわせて、音声出力装置100が物体200の自己紹介をする場合の応答例として「ぼくはホワイトボードだよ」という文章を作成する。音声出力部110は、「ぼくはホワイトボードだよ」という音声を出力する。
図5は、音声出力装置100が、物体200の説明情報を音声出力する手順の一例を示すフローチャートである。
ユーザから音声出力の指示があると(S100のYES)、物体情報取得部102は、物体200の物体情報記憶部202から説明情報を取得する(S102)。つづいて、ユーザ情報取得部104は、ユーザに関する情報を取得する(S104)。ユーザに関する情報は、たとえば、物体200の類型が設定される前の状態で、音声出力部110からユーザに「あなたの年齢はいくつですか?」等の問いかけを行い、ユーザに答えさせることにより取得することができる。
類型設定処理部106は、物体情報取得部102が取得した物体200の説明情報およびユーザ情報取得部104が取得したユーザに関する情報に基づき、物体200の類型を設定する(S106)。
この後、音声認識部116がユーザからの問いかけを認識し、応答読出処理部114がその問いかけに対する応答を取得情報記憶部111および応答例記憶部112から読み出す。このとき、応答読出処理部114は、ステップS106で設定された類型IDに対応づけられた応答を応答例記憶部112から読み出す。応答読出処理部114は、応答例記憶部112から読み出した応答例と取得情報記憶部111から読み出した説明情報とをあわせてユーザへの応答を作成する。音声出力部110が、応答読出処理部114が作成した応答を音声出力することにより、ユーザとの対話が行われる(S108)。
ユーザから終了の指示があると(S110のYES)、この処理を終了する。
図6は、音声出力装置100が、物体200の説明情報を音声出力する手順の他の例を示すフローチャートである。
図5に示したのと同様、ユーザから音声出力の指示があると(S120のYES)、物体情報取得部102は、物体200の物体情報記憶部202から説明情報を取得する(S122)。ここで、類型設定処理部106は、物体情報取得部102が取得した説明情報に基づき、一時的な第一次類型を設定する(S124)。次いで、ユーザ情報取得部104は、ユーザに関する情報を取得する(S126)。ここで、ユーザに関する情報は、ステップS124で設定された第一次類型で、音声出力部110からユーザに「あなたの年齢はいくつですか?」等の問いかけを行い、ユーザに答えさせることにより取得することができる。
その後、類型設定処理部106は、物体情報取得部102が取得した物体200の説明情報およびユーザ情報取得部104が取得したユーザに関する情報に基づき、物体200の類型を設定する(S128)。
この後は、図5で説明したステップS108およびステップS110と同様の処理が行われる(S130およびS132)。
図7は、以上で説明した音声出力装置100を物体200に取り付けた場合の音声出力装置100の動作を示す模式図である。ここで、物体200はホワイトボードである。物体200には、物体情報記憶部202が取り付けられている。音声出力装置100は、物体情報記憶部202に電気的に接続されるように構成される。
音声出力装置100は、図5または図6を用いて説明した手順で、物体情報記憶部202から説明情報を取得する。ここで、物体(ホワイトボード)200は新しいものであるとする。音声出力装置100は、物体200の類型を子供に設定する。
ここでは、ユーザも子供である場合を例として説明する。
ユーザが何か問いかけると、音声出力装置100の音声認識部116は、ユーザからの問いかけを音声信号として取得し、音声認識を行う。応答読出処理部114は、音声認識部116の音声認識結果に応じて、ユーザの問いかけに対する応答を応答例記憶部112から読み出す。ここで、応答例記憶部112には、類型IDに対応づけて、応答例が記憶されているので、応答読出処理部114は、物体200が子供である場合の類型の応答例を応答例記憶部112から読み出す。また、応答読出処理部114は、読み出した応答例の中に、物体200の説明情報を含める必要がある場合は、取得情報記憶部111を参照して、該当する情報を読み出し、応答例記憶部112から読み出した応答例とあわせて応答例を生成する。
たとえば、ユーザが「名前なんて言うの?」と聞いた場合、応答読出処理部114は、音声認識部116の音声認識結果に応じて、「自己紹介をする」ことを決定する。応答読出処理部114は、応答例記憶部112から、設定された類型IDに対応づけられた自己紹介の応答例を読み出す。ここで、応答読出処理部114は「ぼくは<名称>だよ」という応答例を読み出す。<名称>の部分は、物体200の説明情報であるので、応答読出処理部114は、取得情報記憶部111から<名称>に対応する「ホワイトボード」を読み出す。応答読出処理部114は、これらをあわせて、「ぼくはホワイトボードだよ」という文章を作成する。音声出力部110は、「ぼくはホワイトボードだよ」という音声を出力する。
同様にして、音声認識部116は、ユーザからの問いかけを認識し、応答読出処理部114は、ユーザへの応答を読み出し、音声出力部110が音声を出力する処理を繰り返す。たとえば、ユーザが「もうお絵かきはやめようかな。」等の言葉を発すると、音声認識部116がその言葉を認識し、応答読出処理部114が対応する応答例を取得情報記憶部111および応答例記憶部112から応答例を読み出す。音声出力部110は、たとえば、「お絵かきした後はちゃんと消してね。」等の音声を出力する。ユーザが「消したよ。」等の言葉を発すると、同様の処理により、音声出力部110は、「バイバイ、また遊ぼうね。」等の音声を出力する。
また、このホワイトボードに印刷機能がある場合、応答読出処理部114は、取得情報記憶部111および応答例記憶部112から応答例を読み出し、たとえば、音声出力部110は、「ぼくはすごいんだよ、書いたものを印刷することができるんだ。」等の機能を紹介する音声を出力する。また、このホワイトボードが台湾製である場合、音声出力部110は、「ぼくは台湾から来たんだよ。」等の生産地を紹介する音声を出力する。
以上のように、本実施の形態における音声出力装置100によれば、説明対象の物体200を擬人化して、所定の類型の人間に設定した場合に、その類型の人間が話すことが想定される言葉で物体200の説明情報が音声出力される。そのため、ユーザを、あたかも物体200と話しているような気分にさせることができる。また、ユーザの種類に応じて物体200の類型が変わるので、ユーザが親しみを持って対話をすることができる。これにより、とくに子供や老人等が退屈することなく、物体200についての情報を取得することができる。また、本実施の形態における音声出力装置100は、子供が物やそれに関連することについて学習する際に利用することもできる。このような場合に音声出力装置100を利用することにより、子供が興味を持って物やそれに関連することについての知識を得ることができる。
(第二の実施の形態)
本実施の形態における音声出力装置は、物体に取り付けられた情報記憶デバイスから、その物体の識別情報を取得し、その識別情報に基づき、他の装置からその物体の説明情報を取得する点で第一の実施の形態における音声出力装置と異なる。本実施の形態において、第一の実施の形態と同様の構成要素には同様の符号を付し、適宜説明を省略する。
図8は、本実施の形態における音声出力装置の構成を示すブロック図である。
本実施の形態における音声出力装置100は、図1に示した構成に加えて、物体識別情報取得部118をさらに含む。また、本実施の形態において、物体200は、物体の識別情報を記憶する物体識別情報記憶部204を含む。物体識別情報記憶部204は、たとえばRFID(Radio Frequency Identification)、ICタグ等の情報記憶デバイスとすることができる。
物体情報記憶部300は、物体の識別情報に対応づけて、その物体の説明情報を記憶する。物体情報記憶部300は、たとえば、複数の物体の識別情報と、それらの物体の説明情報とをそれぞれ対応づけて保持するサーバとすることができる。
物体識別情報取得部118は、たとえば無線や有線で、物体識別情報記憶部204から物体200の識別情報を取得することができる物体識別情報取得部118が無線で物体識別情報記憶部204から物体200の識別情報を取得する際に、物体識別情報記憶部が取り付けられた複数の他の物体が近傍にある場合、物体識別情報取得部118は、複数の物体にそれぞれ取り付けられた物体識別情報記憶部のうち、最も強度の強い物体識別情報記憶部の情報を読み取るように構成することができる。物体情報取得部102は、物体識別情報取得部118が取得した物体200の識別情報に基づき、物体情報記憶部300から物体200の説明情報を取得する。
それ以外の処理は、第一の実施の形態と同様であるので説明を省略する。
図9は、本実施の形態における音声出力装置100を利用して物体200の説明情報をユーザに知らせる手順の一例を示すフローチャートである。
ユーザからの音声出力の指示があると(S140のYES)、物体識別情報取得部118は、物体200の物体識別情報記憶部204から物体200の識別情報を取得する(S142)。つづいて、物体情報取得部102は、物体識別情報取得部118が取得した識別情報に基づき、物体情報記憶部300から物体200の説明情報を取得する(S144)。
この後は、第一の実施の形態において図5で説明したステップS104〜ステップS110と同様の処理が行われる(S146〜S152)。
また、第一の実施の形態において、図6で説明したステップS124〜ステップS132と同様の処理が行われてもよい(不図示)。
以上のように、本実施の形態における音声出力装置100によっても、第一の実施の形態における音声出力装置100と同様の効果が得られる。また、物体情報記憶部300を外部サーバに保持させることにより、物体情報記憶部300に格納されている物体の説明情報の更新が容易となり、適宜更新を行うことができる。
(第三の実施の形態)
本実施の形態における音声出力装置は、ユーザに関する情報を、ユーザの識別情報に対応づけて記憶する記憶部をさらに含む点で第一および第二の実施の形態と異なる。これにより、ユーザがいずれかの物品について、過去に説明情報を聞いたことがあるような場合に、さらに詳しい情報や新しい情報を提供したり、ユーザとの親密度に応じて対話したりすることができる。本実施の形態において、第一または第二の実施の形態と同様の構成要素には同様の符号を付し、適宜説明を省略する。
図10は、本実施の形態における音声出力装置100の構成を示すブロック図である。
本実施の形態における音声出力装置100は、図8に示した音声出力装置100のユーザ情報取得部104にかえて、ユーザ認識部120およびユーザ情報記憶部122を含む。
ユーザ情報記憶部122は、ユーザに関する情報を記憶する。ユーザに関する情報は、たとえば、ユーザID、年齢、性別、名前等を含む。ここで、ユーザIDは、ユーザに固有の文字列や数字列、ユーザの顔画像データや音声データ等とすることができる。また、ユーザ情報記憶部122は、ユーザIDに対応づけて、そのユーザが過去にいずれかの物体200の説明情報を聞いたことがある場合の履歴を記憶することができる。
図11は、ユーザ情報記憶部122の内部構成の一例を示す図である。
ユーザ情報記憶部122は、ユーザID欄、年齢欄、性別欄、名前欄、および履歴欄を有する。ユーザ情報記憶部122は、ユーザIDに対応づけて、ユーザの年齢、性別、名前等のユーザに関する情報、およびそのユーザが過去に説明情報を聞いたことがある物体の識別情報を保持する。また、ユーザ情報記憶部122は、物体の識別情報に対応づけて、ユーザがその物体と過去にどのようなやりとりをしたかに関する情報や、その物体とユーザとの親密度等を示す数値を記憶することもできる。ここでは、物体とユーザとの親密度等を数値化した例を示す。数字が大きいほうが親密度が高いように設定されている。
たとえば、ユーザID「0001」のユーザの年齢は5歳で、性別は男性、名前はタロウである。このユーザは、音声出力装置100を用いて、過去に物体ID0001や物体ID0005の物体の説明情報を聞いたことがある。また、このユーザと物体ID0001の物体との親密度は「2」、物体ID0005の物体との親密度は「4」である。
たとえば、ユーザID「0003」のユーザの年齢は25歳で、性別は女性、名前はハナである。このユーザは、音声出力装置100を用いて、過去に物体ID0005の物体の説明情報を聞いたことがある。また、このユーザと物体ID0005の物体との親密度は「1」である。親密度は、たとえばユーザが物体とアクセスした回数や時間等に応じて設定することができる。
図10に戻り、ユーザ認識部120は、ユーザ情報取得部104(図8等参照)と同様、ユーザに関する情報を取得する。ユーザ認識部120は、ユーザ情報記憶部122を参照して、音声出力装置100のユーザを認識する処理を行う。ユーザIDが顔画像データの場合、ユーザ認識部120は、たとえばカメラを含むことができ、カメラにより撮影されたユーザの顔画像データとユーザ情報記憶部122に記憶された顔画像データとをマッチングすることにより、ユーザを認識することができる。また、ユーザ認識部120は、音声認識部116から入力されたユーザの音声データとユーザ情報記憶部122に記憶された音声データとをマッチングすることにより、ユーザを認識することもできる。また、ユーザにユーザIDを入力させて、ユーザ情報記憶部122に記憶されたユーザIDと比較することにより、ユーザを認識することもできる。
ユーザに関する情報がユーザ情報記憶部122に記憶されていない場合、ユーザ認識部120は、そのユーザが新規なユーザであるとして、新たなユーザIDを付与し、そのユーザに関する情報をユーザ認識部120に記憶する。
ユーザに関する情報がユーザ情報記憶部122に記憶されている場合、ユーザ認識部120は、ユーザ情報記憶部122からそのユーザに関する情報を読み出し、類型設定処理部106に通知する。
応答例記憶部112は、第一の実施の形態で説明したように、複数の類型毎に、各類型に対応付けて応答例を記憶する。また、本実施の形態において、応答例記憶部112は、さらに、ユーザと物体との親密度に応じて分類された複数の類型毎に、各類型に対応付けて応答例を記憶する。設定情報記憶部108は、物体およびユーザの種類、および物体とユーザとの親密度に対応付けて、類型IDを保持する。類型設定処理部106は、物体情報取得部102が取得した物体200の説明情報およびユーザ情報記憶部122から読み出されたユーザに関する情報に基づき、設定情報記憶部108を参照して、物体の類型の設定を行う。
図12は、音声出力装置100を利用して物体200の説明情報をユーザに知らせる手順の一例を示すフローチャートである。
ユーザからの音声出力の指示があると(S160のYES)、物体識別情報取得部118は、物体200の物体識別情報記憶部204から物体200の識別情報を取得する(S162)。つづいて、物体情報取得部102は、物体識別情報取得部118が取得した識別情報に基づき、物体情報記憶部300から物体200の説明情報を取得する(S164)。
ユーザ認識部120は、ユーザに関する情報を取得する(S166)。ユーザ認識部120は、ユーザ情報記憶部122を参照して、そのユーザに関する情報が既に記憶されているか否かを判断する(S168)。ユーザが新規な場合(S168のYES)、ユーザ認識部120は、ユーザにユーザIDを付与する(S170)。ここで、ユーザIDは、ユーザに通知されてもよく、単にユーザ情報記憶部122に新たなユーザIDの項目を記憶する処理を行うだけでもよい。
ステップS168において、ユーザが新規ではない場合(S168のNO)、ユーザ認識部120は、ユーザID等に基づき、ユーザ情報記憶部122からそのユーザに関する情報を読み出す。この場合は、ユーザの年齢や性別等が既にわかっているので、ユーザに問いかけ等を行うことなく、次のステップに進むことができる。
つづいて、類型設定処理部106は、物体情報取得部102が取得した物体200の説明情報およびユーザ認識部120が取得したユーザに関する情報に基づき、物体200の類型を設定する(S174)。また、本実施の形態において、類型設定処理部106は、ユーザ情報記憶部122を参照して、そのユーザと、物体200との関係に関する情報を取得し、その情報にも基づいて物体200の類型を設定する。
この後、音声認識部116がユーザからの問いかけを認識し、応答読出処理部114がその問いかけに対する応答を取得情報記憶部111および応答例記憶部112から読み出し、音声出力部110が音声を出力することにより、ユーザとの対話が行われる(S176)。
ユーザから終了の指示があると(S178のYES)、応答読出処理部114は、ユーザ情報記憶部122を更新する(S180)。応答読出処理部114は、ユーザが音声出力装置100を介して物体200と対話を行った回数や時間等に応じて、物体200とユーザとの親密度の数値を更新することができる。また、応答読出処理部114は、ステップS176において、ユーザが対話をしている間に、対話内容をユーザ情報記憶部122に記憶しておくこともできる。
本実施の形態における音声出力装置100によれば、ユーザと物体200との関係に応じて、物体200の類型が設定されるので、ユーザがより親しみを持って対話をすることができる。本実施の形態における音声出力装置100を子供の学習に利用すると、子供がより興味をもって物やそれに関連することについて学習を行うことができる。
(第四の実施の形態)
以上の実施の形態においては、出力される音声の類型が物体の説明情報等に応じて変化する音声出力装置の例を説明したが、本実施の形態において、キャラクタ画像を表示する表示部を含むキャラクタ画像表示装置の例を説明する。本実施の形態におけるキャラクタ画像表示装置は、上記の実施の形態で説明した音声出力装置と同様の機能を有し、音声出力が可能である。本実施の形態において、第一〜第三の実施の形態と同様の構成要素には同様の符号を付し、適宜説明を省略する。
本実施の形態においては、表示部に表示されたキャラクタ画像の類型が、物体の属性情報に応じて変化する。このようにすることにより、ユーザは、キャラクタ画像が物体の説明をしてくれているような気分で説明を聞くことができる。また、キャラクタ画像の類型が、物体の属性に関する情報やユーザの種類に応じて変化するので、ユーザが親しみを持って対話をすることができる。
図13は、本実施の形態におけるキャラクタ画像表示装置の構成を示すブロック図である。
キャラクタ画像表示装置130は、物体情報取得部102、ユーザ情報取得部104、類型設定処理部106、設定情報記憶部108、音声出力部110、取得情報記憶部111、応答例記憶部112、音声認識部116、物体識別情報取得部118、表示部132、キャラクタ画像情報記憶部134、およびキャラクタ形成処理部136を含む。
キャラクタ画像表示装置130は、音声出力機能を有し、キャラクタ画像を表示可能な装置であれば何でもよい。たとえば以下の機能を有する携帯電話端末とすることもできる。
キャラクタ画像情報記憶部134は、表示部132に表示されるキャラクタ画像に関する情報を記憶する。キャラクタ画像情報記憶部134は、複数の類型毎に、キャラクタ画像を記憶することができる。たとえば、物体200の類型が子供の場合、子供服を着たキャラクタ画像を記憶する。また、物体200の類型が老人の場合、キャラクタ画像の顔にしわがあるキャラクタ画像を記憶する。
キャラクタ形成処理部136は、応答例記憶部112およびキャラクタ画像情報記憶部134から、類型設定処理部106により設定された類型に対応する応答例およびキャラクタ画像を読み出す。
キャラクタ画像情報記憶部134は、予めキャラクタ画像を記憶しておくこともできるが、たとえば、物体情報取得部102がキャラクタ画像を取得することもできる。
本実施の形態におけるキャラクタ画像表示装置130によれば、表示部132に表示されたキャラクタ画像の類型が、物体200の属性情報に応じて変化する。このようにすることにより、ユーザは、キャラクタ画像が物体の説明をしてくれているような気分で説明を聞くことができる。また、キャラクタ画像の類型が、物体の属性に関する情報やユーザの種類に応じて変化するので、ユーザが親しみを持って対話をすることができる。
参考例
参考例において、キャラクタ画像表示装置は、第四の実施の形態で説明したキャラクタ画像表示装置130と同様の構成を有する。キャラクタ画像は、物体に付された識別情報に対応づけられた属性に関する情報に基づき、所定の類型に設定される。
以下、そのような例を説明する。
たとえば、店舗等で商品を購入すると、おもちゃのおまけ等がついてくることがある。これと同様に、本参考例において、商品に識別情報を付しておき、その識別情報に基づき、購入者に、キャラクタ画像およびそのキャラクタ画像の属性に関する情報が付与されるようにすることができる。
図14は、商品に付された識別情報に基づき、購入者にキャラクタ画像およびそのキャラクタ画像の属性に関する情報が送信される様子を示す図である。ここで、キャラクタ画像表示装置130は携帯電話である。
店舗等でペットボトル入りの飲料400(物体200)を購入した購入者は、ペットボトルに付された商品ID402を携帯電話404(キャラクタ画像表示装置130)を介して物体情報記憶部300(図13参照)を保持するセンター406に送信する。センター406からは、商品ID402に応じて設定されたキャラクタ画像およびそのキャラクタ画像の属性に関する情報が携帯電話404に送信される。
商品ID402は、文字列や数字列等とすることもでき、この場合、購入者は、文字列や数字列を携帯電話404に入力してセンター406に送信する。また、商品ID402は、二次元等のバーコードとすることもでき、この場合、購入者は、携帯電話404のカメラ機能を用いて商品ID402を撮影し、その画像をセンター406に送信することもできる。商品ID402は、商品を識別できるものであればどのようなものであってもよい。また、商品が購入される前に未購入者が商品ID402をセンター406に送信するようなことがないように、商品ID402は、商品配列時には何らかのカバーがされており、購入後にカバーを取り外すようにしておくことが好ましい。
図15は、購入者が取得したキャラクタ画像を示す図である。携帯電話404の表示部408には、商品ID402に応じて設定されたキャラクタ画像が表示される。
たとえば、図15(a)に示した例では、「ニコニコくま」が表示されている。携帯電話404は、「ニコニコくま」の画像とともに、「ニコニコくま」の属性に関する情報も取得する。
また、図15(b)に示した例では、「天使くま」が表示されている。たとえば同じ商品でも、数十本に一本の割合等で、「天使くま」や「いじわるくま」等珍しいキャラクタ画像が得られるように設定しておくことができる。これにより、購入者の購買意欲を高めることができる。
なお、以上の例では、ユーザが商品に付された商品IDをセンターに送信すると、携帯電話は、キャラクタ画像とその属性に関する情報を取得する例を説明したが、同一商品を複数回購入すると、キャラクタ画像の属性に関する情報のみが送付され、キャラクタ画像の性格が変わっていくようにすることもできる。
参考例におけるキャラクタ画像表示装置130によれば、消費者の購買意欲を高めることができる。
また、以上の第一〜第の実施の形態及び参考例で説明した音声出力装置100およびキャラクタ画像表示装置130の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶ユニット、ネットワーク接続用インターフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。以上で説明した各図は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
第二の実施の形態において、物体200に情報記憶デバイス等の物体識別情報記憶部204が取り付けられた形態を説明したが、物体200には、物体識別情報記憶部204のかわりに、一次元バーコードや二次元バーコード等、物体200を識別できる他の識別情報が付されていてもよい。この場合、物体識別情報取得部118は、たとえばカメラ機能や入力手段を用いて識別情報を読み取ることができる。このようにすれば、RFIDやICタグ等の読み取り機能を有しない端末を用いても、物体200の説明情報を取得することができる。
また、第二の実施の形態においても、第一の実施の形態と同様、物体情報取得部102は、物体情報記憶部202が取り付けられている物体200からは、物体情報記憶部300を介することなく、物体200の物体情報記憶部202から説明情報を取得することができる。
また、音声出力装置100やキャラクタ画像表示装置130は、物体200に接触することにより、物体200を構成する材料を認識するように構成することもできる。この場合、物体200は、物体情報記憶部202や物体識別情報記憶部204を有しない構成とすることもできる。
また、音声出力装置100やキャラクタ画像表示装置130は、外国語音声出力機能や翻訳処理機能を有することもでき、たとえば、物体200の生産国に応じて、その生産国の言葉で音声を出力するようにすることもできる。
なお、以上の実施の形態及び参考例では、音声出力装置100およびキャラクタ画像表示装置130が、対話型である形態を示したが、音声出力装置100およびキャラクタ画像表示装置130は、説明を出力するだけのものとすることもできる。この場合でも、説明を音声出力する際に、物体の類型に応じて異なる言葉で説明がされるので、ユーザが興味を持って説明を聞くことができる。
音声出力装置100およびキャラクタ画像表示装置130において、物体の類型に応じて、音声出力部110が出力する音声の高低、トーンや速度等が変化するようにすることもできる。
実施の形態における音声出力装置の構成を示すブロック図である。 取得情報記憶部の内部構成の一例を示す図である。 設定情報記憶部の内部構成の一例を示す図である。 応答例記憶部の内部構成の一例を示す図である。 音声出力装置が、物体の説明情報を音声出力する手順の一例を示すフローチャートである。 音声出力装置が、物体の説明情報を音声出力する手順の他の例を示すフローチャートである。 音声出力装置を物体に取り付けた場合の音声出力装置の動作を示す模式図である。 実施の形態における音声出力装置の構成を示すブロック図である。 音声出力装置が、物体の説明情報を音声出力する手順の一例を示すフローチャートである。 実施の形態における音声出力装置の構成を示すブロック図である。 ユーザ情報記憶部の内部構成の一例を示す図である。 音声出力装置が、物体の説明情報を音声出力する手順の一例を示すフローチャートである。 実施の形態におけるキャラクタ画像表示装置の構成を示すブロック図である。 商品に付された識別情報に基づき、購入者にキャラクタ画像およびそのキャラクタ画像の属性に関する情報が送信される様子を示す図である。 購入者が取得したキャラクタ画像を示す図である。
符号の説明
100 音声出力装置
102 物体情報取得部
104 ユーザ情報取得部
106 類型設定処理部
108 設定情報記憶部
110 音声出力部
111 取得情報記憶部
112 応答例記憶部
114 応答読出処理部
116 音声認識部
118 物体識別情報取得部
120 ユーザ認識部
122 ユーザ情報記憶部
130 キャラクタ画像表示装置
132 表示部
134 キャラクタ画像情報記憶部
136 キャラクタ形成処理部
300 物体情報記憶部
400 飲料
402 商品ID
404 携帯電話
406 センター
408 表示部

Claims (16)

  1. 物体が有する物体情報記憶部から前記物体の属性情報を取得するとともに、前記物体の説明情報を取得する説明情報取得部と、
    前記属性情報を類型IDに対応付けて記憶する設定情報記憶部から、前記説明情報取得部が取得した前記属性情報に対応する前記類型IDを読み出す類型設定処理部と、
    応答例を示す応答例データを前記類型IDに対応付けて記憶する応答例記憶部から、前記類型設定処理部が設定した類型IDに対応する応答例を読み出し、読み出した前記応答例を用いて前記説明情報を音声出力する音声出力部と、
    を含むことを特徴とする音声出力装置。
  2. 請求項1に記載の音声出力装置において、
    前記応答例記憶部は、前記類型ID毎にその類型の人間が話すことが想定される言葉を、当該類型IDに対応づけて記憶し、
    前記音声出力部が出力する前記説明情報の内容を決定するとともに、前記応答例記憶部から、前記説明情報の内容に対応する言葉であって、前記物体の類型IDに対応づけられた、その類型IDの人間が話すことが想定される言葉を読み出す読出処理部と、
    をさらに含み、
    前記音声出力部は、前記読出処理部が読み出した言葉を音声出力することを特徴とする音声出力装置。
  3. 請求項1又は2に記載の音声出力装置において、
    前記音声出力部は、前記応答例の予め定められた部分に前記説明情報を当てはめることにより、音声出力する文章データを生成する音声出力装置。
  4. 請求項1乃至3いずれかに記載の音声出力装置において、
    前記物体に取り付け可能に構成された取付部をさらに含み、
    前記説明情報取得部は、前記音声出力装置が取り付けられた前記物体の前記属性情報及び前記説明情報を取得することを特徴とする音声出力装置。
  5. 請求項1乃至4いずれかに記載の音声出力装置において、
    前記説明情報取得部は、前記物体に取り付けられた前記物体情報記憶部から無線で前記説明情報を読み取り可能に構成され、それぞれ前記物体情報記憶部が取り付けられた複数の物体が近傍にある場合に、前記複数の物体にそれぞれ取り付けられた前記物体情報記憶部のうち、最も強度の強い前記物体情報記憶部の情報を読み取ることを特徴とする音声出力装置。
  6. 請求項1乃至5いずれかに記載の音声出力装置において、
    前記物体から、当該物体を識別する識別情報を取得する識別情報取得部をさらに含み、
    前記説明情報取得部は、前記識別情報取得部が取得した前記識別情報に基づき、他の装置から、前記物体の前記説明情報を取得することを特徴とする音声出力装置。
  7. 請求項6に記載の音声出力装置において、
    前記識別情報取得部は、前記物体に取り付けられた識別情報記憶部から無線で前記識別情報を読み取り可能に構成され、それぞれ前記識別情報記憶部が取り付けられた複数の物体が近傍にある場合に、前記複数の物体にそれぞれ取り付けられた前記識別情報記憶部のうち、最も強度の強い前記識別情報記憶部の情報を読み取ることを特徴とする音声出力装置。
  8. 請求項1乃至7いずれかに記載の音声出力装置において、
    ユーザの種類を示す種類情報を取得するユーザ情報取得部をさらに備え、
    前記設定情報記憶部は、前記属性情報と前記種類情報の組み合わせを、類型IDに対応付けて記憶しており、
    前記類型設定処理部は、前記説明情報取得部が取得した前記属性情報と前記ユーザ情報取得部が取得した前記種類情報の組み合わせに対応する前記類型IDを読み出す音声出力装置。
  9. 請求項1乃至8いずれかに記載の音声出力装置において、
    前記類型IDに対応してキャラクタ画像を記憶するキャラクタ画像記憶部から、前記類型設定処理部が設定した前記類型IDに対応する前記キャラクタ画像を読み出すキャラクタ生成処理部と、
    前記キャラクタ生成処理部が読み出した前記キャラクタ画像を表示する表示部をさらに含み、
    前記音声出力部は、前記キャラクタ画像の声として、前記説明情報を音声出力することを特徴とする音声出力装置。
  10. 請求項8に記載の音声出力装置において、
    前記種類情報を前記ユーザの音声に対応付けて記憶するユーザ情報記憶部と、
    前記ユーザの音声を認識する音声認識部をさらに備え、
    前記ユーザ情報取得部は、前記音声認識部が前記ユーザの音声を認識したときに、認識した前記音声に対応して前記ユーザ情報記憶部に記憶されている前記種類情報を読み出す音声出力装置。
  11. 物体が有する物体情報記憶部から前記物体の属性情報を取得する説明情報取得部と、
    前記属性情報を類型IDに対応付けて記憶する設定情報記憶部から、前記説明情報取得部が取得した前記属性情報に対応する前記類型IDを読み出す類型設定処理部と、
    前記類型IDに対応してキャラクタ画像を記憶するキャラクタ画像記憶部から、前記類型設定処理部が設定した前記類型IDに対応する前記キャラクタ画像を読み出すキャラクタ生成処理部と、
    前記キャラクタ生成処理部が読み出した前記キャラクタ画像を表示する表示部と、
    を含み、
    前記説明情報取得部は、前記物体の説明情報を取得し、
    ユーザの種類を示す種類情報を前記ユーザの音声に対応付けて記憶するユーザ情報記憶部と、
    前記ユーザの音声を認識する音声認識部と、
    前記音声認識部が前記ユーザの音声を認識したときに、認識した前記音声に対応して前記ユーザ情報記憶部に記憶されている前記種類情報を読み出すユーザ情報取得部と、
    応答例を示す応答例データを前記類型IDと前記種類情報の組み合わせに対応付けて記憶する応答例記憶部から、前記類型設定処理部が設定した前記類型IDと前記ユーザ情報取得部が取得した前記種類情報の組み合わせに対応する応答例を読み出し、読み出した前記応答例を用いて前記説明情報を音声出力する音声出力部と、
    を含むことを特徴とするキャラクタ画像表示装置。
  12. 請求項11に記載のキャラクタ画像表示装置において、
    前記キャラクタ画像記憶部をさらに含むことを特徴とするキャラクタ画像表示装置。
  13. 物体が有する物体情報記憶部から前記物体の属性情報を取得するとともに、前記物体の説明情報を取得する取得ステップと、
    前記属性情報を類型IDに対応付けて記憶する設定情報記憶部から、前記取得ステップで取得した前記属性情報に対応する前記類型IDを読み出しする読出ステップと、
    応答例を示す応答例データを前記類型IDに対応付けて記憶する応答例記憶部から、前記読出ステップで読み出した類型IDに対応する応答例を読み出し、読み出した前記応答例を用いて前記説明情報を音声出力するステップと、
    を含むことを特徴とする音声出力方法。
  14. 物体が有する物体情報記憶部から前記物体の属性情報を取得する取得ステップと、
    前記属性情報を類型IDに対応付けて記憶する設定情報記憶部から、前記取得ステップで取得した前記属性情報に対応する前記類型IDを読み出す読出ステップと、
    前記類型IDに対応してキャラクタ画像を記憶するキャラクタ画像記憶部から、前記読出ステップで読み出した前記類型IDに対応する前記キャラクタ画像を読み出すキャラクタ生成ステップと、
    前記キャラクタ生成ステップで読み出した前記キャラクタ画像を表示する表示ステップと、
    を含み、
    前記取得ステップにおいて、前記物体の説明情報を取得し、
    前記キャラクタ生成ステップは、
    ユーザの音声を認識する音声認識ステップと、
    前記音声認識ステップにおいて前記ユーザの音声を認識したときに、ユーザの種類を示す種類情報を前記ユーザの音声に対応付けて記憶するユーザ情報記憶部から、認識した前記音声に対応する前記種類情報を読み出すユーザ情報取得ステップと、
    応答例を示す応答例データを前記類型IDと前記種類情報の組み合わせに対応付けて記憶する応答例記憶部から、前記読出ステップで読み出した前記類型IDと前記ユーザ情報取得ステップにおいて取得した前記種類情報の組み合わせに対応する応答例を読み出す読み出しステップと、
    を含み、
    前記表示ステップは、前記読み出しステップで読み出した前記応答例を用いて前記説明情報を音声出力する音声出力ステップを含むことを特徴とするキャラクタ画像表示方法。
  15. コンピュータを音声出力装置として機能させるためのプログラムであって、
    前記コンピュータに、
    物体が有する物体情報記憶部から前記物体の属性情報を取得するとともに、前記物体の説明情報を取得する取得機能と、
    前記属性情報を類型IDに対応付けて記憶する設定情報記憶部から、前記取得機能が取得した前記属性情報に対応する前記類型IDを読み出す読出機能と、
    応答例を示す応答例データを前記類型IDに対応付けて記憶する応答例記憶部から、前記読出機能が読み出した類型IDに対応する応答例を読み出し、読み出した前記応答例を用いて前記説明情報を音声出力する機能と、
    を実現させるプログラム。
  16. コンピュータをキャラクタ画像表示装置として機能させるためのプログラムであって、
    前記コンピュータに、
    物体が有する物体情報記憶部から前記物体の属性情報を取得する取得機能と、
    前記属性情報を類型IDに対応付けて記憶する設定情報記憶部から、前記取得機能が取得した前記属性情報に対応する前記類型IDを読み出す読出機能と、
    前記類型IDに対応してキャラクタ画像を記憶するキャラクタ画像記憶部から、前記読出機能が読み出した前記類型IDに対応する前記キャラクタ画像を読み出すキャラクタ生成機能と、
    前記キャラクタ生成機能が読み出した前記キャラクタ画像を表示する表示機能と、
    を実現させ、
    前記取得機能は、前記物体の説明情報を取得し、
    さらに、
    前記キャラクタ生成機能は、
    ユーザの音声を認識する音声認識機能と、
    前記音声認識機能において前記ユーザの音声を認識したときに、ユーザの種類を示す種類情報を前記ユーザの音声に対応付けて記憶するユーザ情報記憶部から、認識した前記音声に対応する前記種類情報を読み出すユーザ情報取得機能と、
    応答例を示す応答例データを前記類型IDと前記種類情報の組み合わせに対応付けて記憶する応答例記憶部から、前記読出ステップで読み出した前記類型IDと前記ユーザ情報取得ステップにおいて取得した前記種類情報の組み合わせに対応する応答例を読み出す機能と、
    を有し、
    前記表示機能は、
    前記読み出し機能が読み出した前記応答例を用いて前記説明情報を音声出力する音声出力機能を含むプログラム。
JP2004207270A 2004-07-14 2004-07-14 音声出力装置、キャラクタ画像表示装置、音声出力方法、およびキャラクタ画像表示方法 Expired - Fee Related JP4741817B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004207270A JP4741817B2 (ja) 2004-07-14 2004-07-14 音声出力装置、キャラクタ画像表示装置、音声出力方法、およびキャラクタ画像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004207270A JP4741817B2 (ja) 2004-07-14 2004-07-14 音声出力装置、キャラクタ画像表示装置、音声出力方法、およびキャラクタ画像表示方法

Publications (2)

Publication Number Publication Date
JP2006030464A JP2006030464A (ja) 2006-02-02
JP4741817B2 true JP4741817B2 (ja) 2011-08-10

Family

ID=35896919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004207270A Expired - Fee Related JP4741817B2 (ja) 2004-07-14 2004-07-14 音声出力装置、キャラクタ画像表示装置、音声出力方法、およびキャラクタ画像表示方法

Country Status (1)

Country Link
JP (1) JP4741817B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009224837A (ja) * 2008-03-13 2009-10-01 Nippon Telegr & Teleph Corp <Ntt> コンテンツ再生システム
JP6422647B2 (ja) * 2013-12-13 2018-11-14 眞理子 溝口 二次元コード記録方法及び該二次元コードの読み取り装置
JP6124844B2 (ja) * 2014-06-24 2017-05-10 シャープ株式会社 サーバ、データベースを利用する方法、プログラム、システム、端末、端末プログラムおよび音声データ出力装置
US12118991B2 (en) 2018-07-20 2024-10-15 Sony Corporation Information processing device, information processing system, and information processing method
WO2021061450A1 (en) 2019-09-27 2021-04-01 Qsinx Management Llc Scene-to-text conversion

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0326151U (ja) * 1989-07-25 1991-03-18
JPH1168628A (ja) * 1997-08-12 1999-03-09 Tokin Corp 局所情報提供システム
JP2000308763A (ja) * 1999-02-26 2000-11-07 Snk Corp ゲーム装置
JP3738620B2 (ja) * 1999-09-07 2006-01-25 松下電器産業株式会社 物品案内システム
JP2001134642A (ja) * 1999-11-02 2001-05-18 Atr Media Integration & Communications Res Lab 社会的反応特性を利用したエージェントシステム
JP2002108380A (ja) * 2000-10-02 2002-04-10 Canon Inc 情報提示装置及びその制御方法、コンピュータ可読メモリ
JP2002108378A (ja) * 2000-10-02 2002-04-10 Nippon Telegraph & Telephone East Corp 文書読み上げ装置
JP2002123276A (ja) * 2000-10-17 2002-04-26 Dainippon Printing Co Ltd 収集を目的とするicタグ付物品、icタグおよびタグリーダ

Also Published As

Publication number Publication date
JP2006030464A (ja) 2006-02-02

Similar Documents

Publication Publication Date Title
EP3766066B1 (en) Generating response in conversation
US11915684B2 (en) Method and electronic device for translating speech signal
CN105702248A (zh) 在话音合成中消除同形异音词的歧义
JP2000187435A (ja) 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法
US20060247932A1 (en) Conversation aid device
KR102628211B1 (ko) 전자 장치 및 그 제어 방법
JPWO2008007688A1 (ja) 音声認識機能を有する通話端末、その音声認識辞書の更新支援装置及び更新方法
JP7276129B2 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
KR101789057B1 (ko) 시각 장애인을 위한 자동 오디오 북 시스템 및 그 운영 방법
WO2018043112A1 (ja) 情報提示装置、および情報提示方法
JP6310796B2 (ja) 制御装置、制御方法および制御プログラム
CN109326284A (zh) 语音搜索的方法、装置和存储介质
JP7119615B2 (ja) サーバ、音データ評価方法、プログラム、通信システム
JP2003114692A (ja) 音源データの提供システム、端末、玩具、提供方法、プログラム、および媒体
JP4741817B2 (ja) 音声出力装置、キャラクタ画像表示装置、音声出力方法、およびキャラクタ画像表示方法
JP7095684B2 (ja) 情報処理装置、情報処理方法、プログラム
CN114048299A (zh) 对话方法、装置、设备、计算机可读存储介质及程序产品
CN100449544C (zh) 会话帮助装置
JP4079275B2 (ja) 会話支援装置
US11790913B2 (en) Information providing method, apparatus, and storage medium, that transmit related information to a remote terminal based on identification information received from the remote terminal
CN110959174A (zh) 信息处理装置、信息处理方法以及程序
KR101987644B1 (ko) 낭독 효과 제공시스템
JP6774438B2 (ja) 情報処理システム、情報処理方法、およびプログラム
JP5882972B2 (ja) 情報処理装置、及びプログラム
JP6434799B2 (ja) メッセージ処理装置、端末装置、及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110509

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4741817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees