JP2004191872A - 音声分析装置、音声制御方法及び音声制御プログラム - Google Patents

音声分析装置、音声制御方法及び音声制御プログラム Download PDF

Info

Publication number
JP2004191872A
JP2004191872A JP2002362855A JP2002362855A JP2004191872A JP 2004191872 A JP2004191872 A JP 2004191872A JP 2002362855 A JP2002362855 A JP 2002362855A JP 2002362855 A JP2002362855 A JP 2002362855A JP 2004191872 A JP2004191872 A JP 2004191872A
Authority
JP
Japan
Prior art keywords
voice
analysis
animal
unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002362855A
Other languages
English (en)
Other versions
JP4284989B2 (ja
Inventor
Yasuo Kuroki
保雄 黒木
Keisuke Tonomura
敬介 殿村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2002362855A priority Critical patent/JP4284989B2/ja
Priority to CN200310117284.4A priority patent/CN1261922C/zh
Publication of JP2004191872A publication Critical patent/JP2004191872A/ja
Application granted granted Critical
Publication of JP4284989B2 publication Critical patent/JP4284989B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】人間と動物間における双方向の感情の伝達をサポートする。
【解決手段】腕時計型音声分析装置100は、マイク部102で犬2(動物)の音声を入力して音声分析し、当該音声に含まれる感情を判別する。そして、分析結果を、モニタ部106で人間語のテキストを表示する。また、使用者4(人間)の音声をマイク部102で入力して音声分析し、当該音声に含まれる感情を判別する。そして、分析結果をスピーカ部104で動物語の音声で出力する。
【選択図】 図2

Description

【0001】
【発明の属する技術分野】
本発明は、動物の音声を分析する音声分析装置等に関する。
【0002】
【従来の技術】
犬やネコなど動物等をペットとして飼っている者にとっては、ペットは家族の一員であり、人間と同様にして感情や意思を疎通し、コミュニケーションしたいと言う願望がある。
【0003】
近年、音声分析技術、特に声紋分析の技術進歩に伴って、動物の鳴声に含まれる感情や意思に相当するもの(以下、単に「感情」と言う)を判別することが可能になった。例えば、ペットや家畜等の動物が発生する音声を音声分析してその特徴を抽出したパターン(例えば、ソノグラフ)を求める。そして、予め用意された動物行動学的に分析された基準の音声パターンと比較することによって、動物の感情を判別する。
【0004】
こうした音声分析技術をもとにして、例えば、動物の鳴声の音声と動物の動作(しぐさ)の映像とを入力し、予め動物行動学的に分析された音声と動作のデータと比較することにより動物の感情を判別して、人間が理解できる文字や画像として表示させるものも提案されている(例えば、特許文献1参照;全請求項に対応)。
【0005】
【特許文献1】
特開平10−3479号公報
【0006】
【発明が解決しようとする課題】
こうした技術によれば、飼主は、ある程度動物の感情を知ることが可能となり、動物からの要求がある場合には、それを理解し応えてあげることができる。しかし、従来技術によって実現される感情の伝達は、動物から人間への一方向のみであり、人間から動物への感情の伝達はサポートされていない。そのため、飼主とペットとがコミュニケーションをとっているとは言い難かった。
【0007】
本発明は、上記課題を鑑みて成されたものであり、その目的とするところは、人間と動物間における双方向の感情の伝達をサポートすることである。
【0008】
【課題を解決するための手段】
上記課題を解決するために、請求項1に記載の発明の音声分析装置は、動物の音声を入力する第1音声入力手段(例えば、図1のマイク部102、図3の音声入力部10、図12のステップS102)と、この第1音声入力手段により入力された音声を分析する第1音声分析手段(例えば、図1の制御ユニット120、図3の音声分析部12、図13の音声分析処理)と、この第1音声分析手段による分析結果を人間語で出力する第1出力手段(例えば、図1のモニタ部106、図3の表示部52、図18のテキスト表示部5b)と、
使用者の音声を入力する第2音声入力手段(例えば、図1のマイク部102、図3の音声入力部10、図12のステップS102)と、この第2音声入力手段により入力された音声を分析する第2音声分析手段(例えば、図1の制御ユニット120、図3の音声分析部12、図13の音声分析処理)と、この第2音声分析手段による分析結果を動物語で出力する第2出力手段(例えば、図1のスピーカ部104、図3の音出力部50、図15の動物語出力処理)と、を備えることを特徴とする。
【0009】
請求項12に記載の音声制御方法は、動物の音声を入力する第1音声入力ステップ(例えば、図12のステップS102)と、この第1音声入力ステップによって入力された音声を分析する第1音声分析ステップ(例えば、図12のステップS104、S108)と、この第1音声分析ステップの分析結果を人間語で出力する第1出力ステップ(例えば、図12のステップS112)と、
この第1出力ステップによって出力された内容に応答するために、使用者が音声を入力する第2音声入力ステップ(例えば、図12のステップS102)と、この第2音声入力ステップにより入力された音声を分析する第2音声分析ステップ(例えば、図12のステップS104、S108)と、この第2音声分析ステップの分析結果を動物語で出力する第2出力ステップ(例えば、図12のステップS116)と、を含むことを特徴とする。
【0010】
請求項14に記載の発明の音声制御プログラムは、動物の音声を入力する第1音声入力手段と、使用者の音声を入力する第2音声入力手段とを備えるコンピュータに、
前記第1音声入力手段により入力された音声を分析する第1音声分析機能(例えば、図3の音声分析部12、図12のステップS108)と、この第1音声分析機能による分析結果を人間語で出力する第1出力機能(例えば、図3の表示部52、図12のステップS112)と、前記第2音声入力手段により入力された音声を分析する第2音声分析機能(例えば、図3の音声分析部12、図12のステップS108)と、この第2音声分析機能による分析結果を動物語で出力する第2出力機能(例えば、図3の表示部52、図12のステップS116)とを実現させることを特徴とする。
【0011】
ここで言う、「動物の音声」とは鳴声の意味である。また、「人間語」とは、人間の音声や人間がその意味内容をできる言葉などのテキストや画像などの意である。また、「動物語」とは、同属や同グループ内において意思疎通を可能にする音パターンの意である。
【0012】
請求項1、12、14に記載の発明によれば、動物の音声を入力して分析した後、分析結果を人間語で出力することによって、使用者は動物の音声の意味を理解することができる。また、使用者の音声を入力して分析した後、分析結果を動物語で出力することによって、動物は使用者の音声の意味を理解することができる。従って、人間と動物間における双方向の感情の伝達をサポートし、コミュニケーションを実現させることができる。
【0013】
また、請求項6に記載の発明の音声分析装置は、動物の音声を入力する第1音声入力手段と、この第1音声入力手段により入力された音声を分析する第1音声分析手段と、この第1音声分析手段による分析結果を人間語で出力する第1出力手段と、予め記憶された人間語の言葉の中から何れかを選択する選択手段(例えば、図1のモニタ部106、キー操作部108、図3のキー入力部14、表示部52、図12のステップS120)と、この選択手段によって選択された言葉を動物語で出力する第3出力手段(例えば、図1のスピーカ部104、図3の音出力部50、図15のステップS422〜S424)と、を備えることを特徴とする。
【0014】
請求項13に記載の発明の音声制御方法は、動物の音声を入力する第1音声入力ステップと、この第1音声入力ステップによって入力された音声を分析する第1音声分析ステップと、この第1音声分析ステップの分析結果を人間語で出力する第1出力ステップと、この第1出力ステップによって出力された内容に応答するために、使用者が予め記憶された人間語の言葉の中から何れかを選択する選択ステップ(例えば、図12のステップS120)と、この選択ステップによって選択された言葉を動物語で出力する第3出力ステップ(例えば、図12のステップS116)と、を備えることを特徴とする。
【0015】
請求項15に記載の発明の音声制御プログラムは、動物の音声を入力する第1音声入力手段を備えるコンピュータに、前記第1音声入力手段により入力された音声を分析する第1音声分析機能と、この第1音声分析機能による分析結果を人間語で出力する第1出力機能と、予め記憶された人間語の言葉の中から何れかを選択する選択機能(例えば、図3のキー入力部14、表示部52、図12のステップS120)と、この選択機能によって選択された言葉を動物語で出力する第3出力機能(例えば、図3の音出力部50、図15のステップS422〜S424)と、を実現させることを特徴とする。
【0016】
また、請求項2に記載の発明のように、請求項1に記載の音声分析装置であって、予め記憶された人間語の言葉の中から何れかを選択する選択手段と、この選択手段によって選択された言葉を動物語で出力する第3出力手段と、を備えることとしても良い。
【0017】
請求項2、6、13、15に記載の発明によれば、動物の音声を入力して分析した後、分析結果を人間語で出力することによって、使用者は動物の音声の意味を理解することができる。また、使用者が予め記憶されている人間語の言葉の中から何れかを選択すると、この選択された言葉を動物語で出力するので、動物は使用者の音声の意味を理解することができる。従って、人間と動物間における双方向の感情の伝達をサポートし、コミュニケーションを実現させることができる。
【0018】
音声の分析において、より好適には、請求項3に記載の発明のように、請求項1又は2に記載音声分析装置であって、前記第1音声分析手段は、前記第1音声入力手段によって入力された音声のパターンと予め記憶された基準音声パターンとを比較することによって、当該音声に含まれる感情を判別して音声を分析する手段であり、前記第2音声分析手段は、前記第2音声入力手段によって入力された音声のパターンと予め記憶された基準音声パターンとを比較することによって、当該音声に含まれる感情を判別して音声を分析する手段である、こととしても良い。
【0019】
また、請求項7に記載の発明のように、請求項6に記載の音声分析装置であって、前記第1音声分析手段は、前記第1音声入力手段によって入力された音声のパターンと予め記憶された基準音声パターンとを比較することによって、当該音声に含まれる感情を判別して音声を分析する手段であることとしても良い。
【0020】
請求項4に記載の発明は、請求項1〜3の何れか一項に記載の音声分析装置であって、前記第2出力手段は、動物語での音出力を、人間にとっての可聴領域外の高周波音の出力で実現する手段(例えば、図1のスピーカ部104、図10の高周波音データ418e、図15のステップS412〜S414)を有する、ことを特徴とする。
【0021】
請求項4に記載の発明によれば、請求項1〜3の何れか一項に記載の発明と同様の効果を奏するとともに、動物語の出力として人間には聞こえない周波数域の音で出力することができる。従って、例えば、動物に向けて人間語で出力することがはばかられる状況などにおいても、コミュニケーションを実現させることができる。
【0022】
請求項5に記載の発明は、請求項1〜4の何れか一項に音声分析装置であって、使用者の声紋を登録する第1登録手段(例えば、図3のROM40、図8の声紋データ410)と、所定の意味内容の人間語による音声を登録する第2登録手段(例えば、図3のROM40、図8の人語動物語変換TBL418、図10の登録音声データ418f)と、前記第2音声入力手段により入力された音声と前記第1登録手段により登録された声紋とが一致するか否かを判定する判定手段(例えば、図1の制御ユニット120、図3のCPU20、図15のステップS416〜S418)と、この判定手段によって一致しないと判定された場合に、前記第2登録手段によって登録された音声を人間語で出力する第4出力手段(例えば、図1のスピーカ部104、図3のCPU20、音出力部50、図15の(ステップS418〜S420、S424)と、を備えることを特徴とする。
【0023】
請求項5に記載の発明によれば、請求項1〜4の何れか一項に記載の発明と同様の効果を奏するともに、使用者の音声が、予め登録されている声紋と異なる場合には、予め登録されている人間の音声を人間語で出力することができる。従って、動物に使用者の感情に対応する人間の音声を聞かせて、馴染ませる訓練効果が得られる。また、声紋を動物が最もなれた人物(例えば、飼主)の声紋とし、更に第2音声登録手段によって当該人物によって発せられた音声を登録した場合、使用者が当該人物と異なる場合に、動物に最もなれた人物の音声を聞かせることによって、動物を落ちつかせる効果が得られる。
【0024】
請求項8に記載の発明は、請求項1〜7の何れか一項に記載の音声分析装置であって、当該音声分析装置を使用者の身体に装着するための装着手段(例えば、図1のリストバンド部110、図24のクリップ部212)を備えることを特徴とする。
【0025】
請求項8に記載の発明によれば、請求項1〜7の何れか一項に記載の発明と同様の効果を奏するとともに、音声分析装置を身体に装着し、携行して使用することができる。従って、当該音声分析装置の使用時に、一々バックなどの中から取り出す必要も無く、使い勝手が向上する。
【0026】
請求項9に記載の発明は、請求項1〜8の何れか一項に記載の音声分析装置であって、前記第1音声入力手段によって入力された音声と、前記第1音声入力手段によって音声が入力された時刻とを対応付けて記憶する記憶手段(例えば、図3のCPU20、RAM30、図7の履歴データ322、図12のステップS117)を備えることを特徴とする。
【0027】
また、請求項10に記載の発明のように、請求項9に記載の音声分析装置であって、前記記憶手段によって記憶された音声と時刻とを対応付けて出力する第5出力手段(例えば、図1のモニタ部106、図3のCPU20、表示部52、図12のステップS128)を備えることとしても良い。
【0028】
請求項9に記載の発明によれば、請求項1〜8の何れか一項に記載の発明と同様の効果を奏するとともに、動物と人間との間で交わされたやりとりの履歴を記憶しておくことができる。そして、請求項10に記載の発明のように、動物と人間との間で交わされたやりとりの履歴を出力することによって、履歴を分析し利用することができる。
【0029】
請求項11に記載の発明は、請求項1〜10の何れか一項に記載の音声分析装置であって、前記第1音声分析手段による分析結果に対応して所定の振動を発生させる加振手段(例えば、図1のバイブレータ112、図3のCPU20、加振部54、図11の振動パターンTBL420)を備えることを特徴とする。
【0030】
請求項11に記載の発明によれば、請求項1〜10の何れか一項に記載の発明と同様の効果を奏するとともに、前記第1音声分析手段による分析結果に対応して所定の振動を発生させ、使用者に体感によって分析結果を知らせることができる。従って、使用者は、分析結果を人間語のテキストなどを読む必要がなく、使い勝手が向上し、よりスムーズなコミュニケーションを図ることが可能になる。また、視覚障害者や聴覚障害者などであっても、分析結果を知ることが可能になる。
【0031】
【発明の実施の形態】
〔第1の実施の形態〕
次に、図1〜図21を参照して、本発明を適用した音声分析装置の第1の実施の形態について説明する。尚、本実施の形態においては、動物を犬として説明するがこれに限定されるものではなく、例えば、ネコ、イルカ、オウムなど他の動物でも構わない。
【0032】
[構成の説明]
図1は、本発明を適用した腕時計型音声分析装置の外観の一例を示す図である。図1(a)に示すように、腕時計型音声分析装置100の外観は、全体として従来の腕時計と同様の形態を成している。そして、動物や人間の音声を入力するマイク部102と、音を出力するスピーカ部104と、テキストや画像を表示出力するモニタ部106と、種々の操作を入力するキー操作部108と、当該腕時型計音声分析装置100の携行時に人体等に装着するためのリストバンド部110と、バイブレータ112と、外部装置との無線通信を行うためのデータ通信部114と、腕時計型音声分析装置100を統合的に制御する制御ユニット120と、図示されない電源部とを備える。
【0033】
マイク部102は、集音装置であって、例えばマイクロフォン等によって実現される。同図では、単体とされているが複数あっても構わないし、着脱自在に分離し、本体と接続されるケーブルをクリップ等によって取り付け可能な構成としても良い。
【0034】
スピーカ部104は、音出力装置であって、例えばスピーカなどによって実現される。本実施の形態では、人間にとっての可聴域外の高周波音を出力する場合があるので、スピーカ部104は当該高周波域の音を出力できる仕様とする。
【0035】
モニタ部106は、例えばLCD(Liquid Crystal Display)やELD(Electronic Luminescent Display)などの表示素子及びバックライトや駆動回路等によって実現される表示出力手段である。モニタ部106は、制御ユニット120の制御によって文字(テキスト)や図形、画像などを表示することができる。同図では、モニタ部106は単数であるが複数備える構成であっても良い。
【0036】
キー操作部108は、例えば、ボタンスイッチやレバー、ダイヤル等によって実現される入力手段である。本実施の形態では、図1(b)に示すように、上方向キー108aと、下方向キー108cと、選択キー108bと、キャンセルキー108dとを備える。キーの押下時間や押下順の組合せによって、例えば、複数のメニュー等からの選択操作、決定及びキャンセル操作、所定機能の呼び出し操作などを入力できる。キー操作部108の数は、上記に限らず適宜設定して構わない。
【0037】
リストバンド部110は、使用者が携行する際に身体や持ち物等に装着・装備するための手段であって、例えば、腕時計のリストバンドと同様のもののほか、クリップや紐、チェーン、マジックテープ(登録商標)、マグネットなどであっても良い。
【0038】
バイブレータ112は、小型の加振装置である。本実施の形態では、制御ユニット120の制御によって犬2の音声に含まれる感情に対応したパターンで振動を発生させる。使用者4は、種々の振動パターンを体感することによって、モニタ部106を見なくとも犬2の感情や意思を知ることが可能となり、視覚障害者や聴覚障害者でも利用可能としている。
【0039】
データ通信部114は、パソコンなどの外部装置と無線通信によってデータの送受を実現するものであって、例えば、Bluetooth(登録商標)や、IrDAなどの規格に対応する通信モジュールや、有線通信用のジャック端子等によって実現される。
【0040】
制御ユニット120は、CPU(Central Processing Unit)や各種ICメモリ、水晶発振器などを備え、CPUがICメモリに記憶されているプログラム等を読み出し演算処理することによって腕時計型音声分析装置100を統合的に制御することができる。また、例えば水晶発振器などを用いて腕時計型音声分析装置100を腕時計として機能させることもできる。
【0041】
図2は、本実施の形態における使用方法の一例を示す概念図である。同図に示すように、使用者4は腕時計型音声分析装置100をリストバンド部110で、例えば、使用者4の手首等に装着して携行して使用する。腕時計型音声分析装置100を、腕時計のように携行することによって、装置を別途持ち歩く不便さや、使用時に装置を一々バックなどから取り出す不便さを解消することができる。
【0042】
そして、腕時計型音声分析装置100は、使用者4と使用者4の側にいるペットの犬2の音声を捉えて(検出して)、両者間の双方向のコミュニケーションをサポートする。即ち、マイク部102で犬2の音声を捉えた場合には、この音声を音声分析して犬2の感情を判別し、モニタ部106で使用者4が理解できるテキストや図(人間語)を表示する。反対に、使用者4の音声を捉えた場合には、音声分析して使用者4の感情を判別し、スピーカ部104から犬2が理解できる音(動物語)で出力する。
【0043】
[機能ブロックの説明]
図3は、本実施の形態における機能構成の一例を示す機能ブロック図である。
同図に示すように、腕時計型音声分析装置100は、音声入力部10と、音声分析部12と、キー入力部14と、音声分析用ROM(Read Only Memory)16と、CPU20と、RAM(Random Access Memory)30と、ROM40と、音出力部50と、表示部52と、加振部54と、通信部60と、システムバス90とを備える。
【0044】
音声入力部10は、犬2や使用者4の音声を入力し、音声信号を音声分析部12に出力する。図1ではマイク部102がこれに該当する。
【0045】
音声分析部12は、音声入力部10から入力された音声信号を音声分析する。より具体的には、例えば、音声信号に含まれるノイズ成分の除去処理や音声信号をA/D変換して所定形式の音声データに変換する処理、音声データの特徴抽出のためのパターン化処理、予め登録されている基準音声パターンとの比較処理等を実行する。これらの処理は、例えば、A/D変換器やフィルタ回路、DSP(Digital Signal Processor)などの演算処理用集積回路等によって実現できる。機能の一部または全部を、音声分析用ROM16に格納されているプログラムやデータを読み出して、演算処理することによって実現する(ソフトウェア的に実現する)構成であっても良い。音声分析部12は、図1では制御ユニット120に実装されている。
【0046】
音声分析用ROM16は、音声分析部12の各種処理に供されるプログラムやデータを記憶し、音声分析部12から参照される。図1では、音声分析用ROM16は制御ユニット120に実装されている。
【0047】
図4は、本実施の形態における音声分析用ROM16に記憶されている内容の一例を示す図である。同図に示すように、例えば、音声分析部12の各種処理を演算処理によって実現させるためのプログラムである音声分析プログラム162と、音声入力部10から入力された音声と比較する基準となるデータである動物基準音声パターン164及び人間基準音声パターン166とを記憶する。
【0048】
図5は、本実施の形態における動物基準音声パターン164のデータ構成の一例を示す図である。同図に示すように、動物基準音声パターン164は、動物の種類(動物属性コード)毎に予め用意され、適用される動物の種族を示す動物属性コード164aと、動物の感情を分類する情報である感情識別コード164bと、この感情を伝えるための動物語にあたる音声(鳴声)の基準音声パターン164cとを対応付けて格納する。基準音声パターン164cは、例えばソノグラフのデータである。動物語とは、同属や同グループ内において意思疎通を可能にする音パターンの意である。
【0049】
動物基準音声パターン164は、統計手法によって求められ、動物行動学的に分析された情報である。動物属性コード164aをもとに、対象とする動物に合致する動物基準音声パターン164を検索し、音声入力部10から入力された音声の音声データをパターン化して、基準音声パターン164cとマッチング判定することによって、この音声に含まれる動物の感情を判別することができる。
【0050】
人間基準音声パターン166は、使用者4の音声に含まれる感情を判別するための基準となる情報であり、適用される人間の属性に応じて予め用意される。ここで言う人間の属性とは、例えば、言語分類、性別、年齢などをパラメータとする分類である。
【0051】
人間基準音声パターン166は、例えば、図6に示すように、適用される人間の属性を示す人間属性コード166aと、人間の感情を分類する感情識別コード166bと、それに対応する人間の音声の基準音声パターン166cとを含む。
【0052】
基準音声パターン166cは、統計的に求められ分析された特徴的な音声パターンや感情を表現する単語を発音したときの音声パターンであって、例えばソノグラフのデータ等である。従って、使用者4に合致する人間属性コード166aの人間基準音声パターン166を検索して、音声入力部10から入力された音声の音声データをパターン化し、基準音声パターン166cとマッチング判定することによって、この音声に含まれる使用者4の感情を判別することができる。尚、人間基準音声パターン166に含まれるデータは上記に限らず、例えば、言葉の発音の速さ、音声の強弱などの判定値等、判別に要するデータを適宜含み、マッチングの判別に用いても構わない。
【0053】
キー入力部14は、例えば、ボタンスイッチやレバー、ダイヤル、タッチパネル、トラックパッドなどによって実現され、操作を入力して操作信号をCPU20に出力する。図1では、キー操作部108がこれに該当する。
【0054】
CPU20は、図1では制御ユニット120に実装されており、演算処理によって各ブロックを統合的に制御して各種処理を実行する。
【0055】
RAM30は、CPU20や音声分析部12が一時的にプログラムやデータを格納するICメモリであって、図1では制御ユニット120に実装されている。
【0056】
図7は、本実施の形態におけるRAM30に記憶される内容の一例を示す図である。同図に示すように、例えば、犬2の名称情報を格納する動物名302と、動物属性コード304と、人間属性コード306と、計時データ308と、音声データ310と、音声入力時刻データ312と、音声識別フラグ314と、感情識別コード316と、高周波モードフラグ318と、体感モードフラグ320と、履歴データ322とを記憶する。
【0057】
動物名302は犬2の名称を示す情報であり、動物属性コード304は犬2の種類を示す情報である。どちらも使用者4が使用前に登録する。動物名302は、後述する人語出力処理等においてモニタ部106に表示されて、犬2と使用者4との親密感を高める働きをする。
【0058】
人間属性コード306は、使用者4の属性(例えば、言語種類、性別、年齢など)を示す情報であって、使用者4が使用前に登録する。
【0059】
計時データ308は、日時情報を示す情報である。計時データ308を参照することによって、腕時計型音声分析装置100は時計やタイマーとしても機能できる。
【0060】
音声データ310は、音声入力部10から入力された音声が音声分析部12によって変換されたデジタルデータである。本実施の形態では、波形データとして記憶するが、その他、ソノグラフなど他のデータ形式であっても良い。音声データ310の元になった音声が入力された時刻は、音声入力時刻データ312に格納される。
【0061】
音声識別フラグ314と感情識別コード316は、音声データ310が音声分析部12によって音声分析された結果を格納する。音声識別フラグ314は、音声データが動物の音声か人間の音声かを示す情報である。感情識別コード316は、基準音声パターン164c又は166cとのマッチングによって判別された感情識別コード164b又は166bを格納する。
【0062】
高周波モードフラグ318は、後述する動物語出力処理において、使用者4の感情を判別し、動物語でスピーカ部104から音出力する際に、人間には聞こえず、犬2に聞こえる高周波音を出力するか否かを設定する情報である。例えば、動物が犬である場合には、高周波音は、所謂「犬笛」で出される音域の音に該当する。
【0063】
体感モードフラグ320は、後述する人語出力処理において、犬2の音声に含まれる感情を判別し、使用者4が理解できるテキストや図をモニタ部106に表示する際に、バイブレータ112によって振動を発生させるか否かを設定する情報である。
【0064】
履歴データ322は、音声入力と出力に関する履歴であって、音声入力時刻322aと、音声識別フラグ322bと、感情識別コード322cとを対応づけて格納する。従って、履歴データ322を参照することによって、いつ、誰(犬2又は使用者4)が、どういった感情のやりとり示したかを知ることができる。
【0065】
ROM40は、CPU20に演算処理によって種々の機能を実現させるためのプログラムとデータを記憶する。
【0066】
図8は、本実施の形態におけるROM40に記憶される内容の一例を示す図である。同図に示すように、プログラムとしては、システムプログラム400と、犬2(動物)の音声の音声分析結果に基づいて使用者4(人間)が理解できるテキストや図等(人語)として出力する人語出力処理を実行させるための人語出力プログラム402と、使用者4の音声の音声分析結果等に基づいて犬2が理解できる音を出力する動物語出力処理を実行させるための動物語出力プログラム404と、各種のモード切換に係る処理を実行させるためのモード切換プログラム406、履歴データ322に基づく履歴表示処理を実行させるための履歴出力プログラム408とを含む。
【0067】
データとしては、使用者4の本人確認に用いる声紋データ410と、モニタ部106に時計表示をさせるための時計表示データ412と、各種画面表示に必要な情報を格納する画面フレームデータ414と、動物語人語変換TBL(テーブル)416と、人語動物語変換TBL(テーブル)418と、振動パターンTBL(テーブル)420とを記憶する。
【0068】
声紋データ410は、犬2が日ごろ慣れ親しんだ人物の声紋、例えば飼主の声紋であって、例えば予め腕時計型音声分析装置のメーカ等において採取されて記憶される。尚、声紋データ410はROM40に記憶されるに限らず、RAM30に使用者4によって登録される構成であっても良いのは勿論である。
【0069】
動物語人語変換TBL416は、犬2の感情と人語を対応付けて格納し、人語動物語変換TBL418は、使用者4の感情と動物語とを対応づけて格納する辞書データに相当する情報である。
【0070】
図9は、本実施の形態における動物語人語変換TBL416のデータ構成の一例を示す図である。同図に示すように、動物語人語変換TBL416は、音声分析部12が犬2の音声を分析して判別した感情識別コード416aと、それに対応する人間が理解可能なテキストデータ416bと、動物の画像を表示させるための画像データ416cとを対応付けて格納する。尚、画像データ416cは、静止画情報でも良いし、アニメーションなどを表示させるための動画情報でも良い。
【0071】
図10は、本実施の形態における人語動物語変換TBL418のデータ構成の一例を示す図である。同図に示すように、人語動物語変換TBL418は、音声分析部12が使用者4の音声を分析して判別した感情識別コード418aと、それに対応する人間が理解可能なテキストデータ418bと、人間の画像を表示させるための画像データ418cと、動物(この場合、犬)の鳴声を人工的に合成した合成音データ418dと、人間の可聴域外の高周波音データ418eと、予め登録された使用者4の音声である登録音声データ418fとを対応付けて格納する。尚、画像データ418cは、静止画情報でも良いし、アニメーションなどを表示させるための動画情報でも良い。
【0072】
振動パターンTBL420は、例えば、図11に示すように、感情識別コード420aと、振動パターン420bとを対応付けて格納する。振動パターンTBL420を参照することによって、感情識別コード420aに対応する振動パターン420bでバイブレータ112を振動させることができる。
【0073】
音出力部50は、例えば、スピーカなどによって実現され、音を出力する。図1のスピーカ部104がこれに該当する。
【0074】
表示部52は、例えば、LCD、ELD、PDPなどの表示素子等によって実現され、画像を表示出力する。図1のモニタ部106がこれに該当する。
【0075】
加振部54は、例えばバイブレータなどの振動器などによって実現され、振動を発生させる。図1のバイブレータ112がこれに該当する。
【0076】
通信部60は、外部装置との無線通信を行うための送受信手段である。例えば、Bluetooth(登録商標)や、IrDAなどのモジュールや、有線用の通信ケーブルのジャックや制御回路などによって実現される。図1のデータ通信部114がこれに該当する。尚、通信部60が、通信時に供するプロトコルスタック等の情報は、ROM40に記憶されており(図示略)、適宜読み出して利用する。
【0077】
[処理の説明]
次に、図12〜図23を参照して、本実施の形態における処理の流れを説明する。
【0078】
図12は、本実施の形態における主たる処理の流れを説明するためのフローチャートである。同図に示すように、音声入力部10が音声の入力を検知したならば(ステップS102)、音声分析部12は音声入力部10から入力された音声信号にA/D変換やフィルタ処理を実行して、音声分析に適した適当な形式の音声データ310に変換する(ステップS104)。
次に、そのときの計時データ308を音声入力時刻データ312として音声データ310と対応付けて記憶し(ステップS106)、音声データ310の音声分析処理を実行する(ステップS108)。
【0079】
図13は、本実施の形態における音声分析処理の流れを説明するためのフローチャートである。同図に示すように、音声分析部12は、先ず記憶されている音声データ310を読み出し(ステップS202)、動物基準音声パターン164とのマッチングを実行する(ステップS204)。即ち、音声データ310をパターン化してソノグラフを求め、基準音声パターン164cのパターンと比較し、パターンの特徴が近似するものが有れば、マッチングするものが有ると判断する。
【0080】
動物基準音声パターン164中にマッチングするものがある場合(ステップS206;YES)、音声分析部12は音声識別フラグ314に動物の音声であることを示す「1」を格納し、マッチングした基準音声パターン164cに対応する感情識別コード164bをRAM30の感情識別コード316に格納させ(ステップS208)、音声分析処理を終了して、図12のフローに戻る。
【0081】
動物基準音声パターン164中にマッチングするものが無い場合(ステップS206;NO)、人間基準音声パターン166とのマッチングを実行する(ステップS210)。
【0082】
人間基準音声パターン166中にマッチングするものがある場合(ステップS212;YES)、音声分析部12は音声識別フラグ314に人間の音声であることを示す「0」を格納し、マッチングした基準音声パターン166cに対応する感情識別コード166bをRAM30の感情識別コード316に格納させ(ステップS214)、音声分析処理を終了して、図12のフローに戻る。
【0083】
人間基準音声パターン166中にマッチングするものが無い場合(ステップS212;NO)には、音声分析部12は音声識別フラグ314に「0」を格納し、RAM30の感情識別コード316に「0」を格納させ(ステップS216)、音声分析処理を終了して、図12のフローに戻る。
【0084】
音声分析処理を終了して、図12のフローに戻ったならば、CPU20は、音声識別フラグ314と感情識別コード316とを参照する。
音声識別フラグ314が「1」である場合、即ち動物である犬2の音声が入力された場合(ステップS110;YES)、人語出力処理を実行する(ステップS112)。音声識別フラグ314が「0」である場合、即ち人間である使用者4の音声が入力された場合(ステップS114;YES)、動物語出力処理を実行する(ステップS116)。音声識別フラグ314が「0」で、且つ感情識別コード316が「0」である場合、即ち動物の音声とも人間の音声とも判別できなかった場合には(ステップS114;NO)、人語出力処理も動物語出力処理にも移らない。
【0085】
図14は、本実施の形態における人語出力処理の流れを説明するためのフローチャートである。同図に示すように、CPU20は、先ず画面フレームデータ414を参照して、人語出力用のフレームを表示部52に表示させる(ステップS302)。
【0086】
次に、RAM30の感情識別コード316を参照し(ステップS304)、動物語人語変換TBL416から感情識別コード316に対応するテキストデータ416bと画像データ416cとを読み出し、人語出力用の画面内の所定位置に表示させる(ステップS306)。
【0087】
次に、音声データ310を読み出し、人語出力用の画面内の所定位置に音声データを表示させ(ステップS308)、音声入力時刻データ312を読み出して、音声が入力された日時を表示させる(ステップS310)。
【0088】
次に、CPU20は体感モードフラグ320を参照し、体感モードフラグが「1」である場合、即ち体感モードが「ON」に設定されている場合(ステップS312;YES)、振動パターンTBL420から、先に読み出した感情識別コード316に対応する振動パターン420bを読み出す。そして、読み出した振動パターン420bに従って加振部54を制御して振動を発生させ(ステップS314)、人語出力処理を終了し、図12のフローに戻る。そして、図12のフローに戻ったならば、CPU20は、履歴データ322を更新する(ステップS117)。
【0089】
図18は、本実施の形態における人語出力処理における画面の一例を示す図である。人語出力用の画面5では、タイトル表示5aで犬2から使用者4へのメッセージであることを示す。この際、例えば「(太郎)からのメッセージが届きました」のように、動物名302(ペットの名前)を表示に含めることで、使用者4により親密感を与える。
【0090】
動物語人語変換TBL416から読み出した感情識別コード316に対応するテキストデータ416bと画像データ416cは、それぞれテキスト表示部5bと画像表示部5cとに表示される。テキスト表示部5bは、例えば画像表示部5cからのフキダシ内に表示されると、より好適である。
【0091】
音声データ310は、音声データ表示部5dにグラフ表示される。波形データとして表示しても良いし、ソノグラフなど他の形式で表示しても良い。ここで音声データ310を表示することによって、使用者4が、この表示の特徴(グラフの形状など)を読み取るセンスを養い、ゆくゆくはテキスト表示部5bのテキストを読まずに、音声データ310のグラフ表示を見ただけで、犬2の感情や意思を理解できるようにする。このグラフの形状は、より微細な感情や意思を含んでおり、使用者4がグラフの特徴を読み取るセンスを得ると、感情識別コードによる分類よりもより細やかに犬2を理解してあげることができるようになる。
音声が入力された時刻が日時表示部5eは、例えば画面下部に表示される。
【0092】
図15は、本実施の形態における動物語出力処理の流れを説明するためのフローチャートである。同図に示すように、CPU20は、先ず画面フレームデータ414を参照して、動物語出力用のフレームを表示部52に表示させる(ステップS402)。
【0093】
次に、RAM30の感情識別コード316を参照し(ステップS404)、人語動物語変換TBL418から感情識別コード316に対応するテキストデータ418bと画像データ418cとを読み出し、動物語出力用の画面内の所定位置に表示させる(ステップS406)。
【0094】
次に、音声データ310を読み出し、動物語出力用の画面内の所定位置に音声データをグラフ表示させ(ステップS408)、音声入力時刻データ312を読み出して、音声が入力された日時を表示させる(ステップS410)。
【0095】
次に、CPU20は高周波モードフラグ318を参照し、高周波モードフラグが「1」である場合、即ち高周波モードが「ON」に設定されている場合(ステップS412;YES)、人語動物語変換TBL418から、先に参照した感情識別コード316に対応する高周波音データ418eを読み出し、音出力部50から出力させる(ステップS414)。
【0096】
次に、音声データ310を声紋データ410と照合し(ステップS416)、一致するか否かを判定する(ステップS418)。
【0097】
音声データ310が声紋データ410と一致し、本人の声であると判定された場合(ステップS418;YES)、人語動物語変換TBL418から感情識別コード316に対応する合成音データ418dを読み出し(ステップS422)、音出力部50から出力させる(ステップS424)。
【0098】
音声データ310が声紋データ410と一致しないと判定された場合(ステップS418;NO)、人語動物語変換TBL418から感情識別コード316に対応する登録音声データ418fを読み出し(ステップS420)、音出力部50から出力させる(ステップS424)。登録音声データ418fを出力することによって、飼主でない人が使用者4の場合に、日ごろ慣れ親しんだ人物の声を聴かせることによって、犬2の緊張や警戒心を和らげさせ、使用者4に犬2が慣れていない場合であっても、よりスムーズにコミュニケーションが行われるようにする。
【0099】
音出力部50から合成音データ418d又は登録音声データ418fを出力したならば、動物語出力処理を終了して図12のフローに戻る。そして、図12のフローに戻ったならば、CPU20は、履歴データ322を更新する(ステップS117)。
【0100】
図19は、本実施の形態における動物語出力処理における画面の一例を示す図である。動物語出力用の画面6では、タイトル表示6aで犬2へのメッセージであることを示す。この際、例えば「(太郎)へのメッセージを入力します」のように、動物名302(ペットの名前)を表示に含めることで、使用者4により親密感を与える。
【0101】
人語動物語変換TBL418から読み出した感情識別コード316に対応するテキストデータ418bと画像データ418cは、それぞれテキスト表示部6bと画像表示部6cとに表示される。テキスト表示部6bは、同図のように、例えば画像表示部6cからのフキダシ内に表示されると、より好適である。
【0102】
音声データ310は、音声データ表示部6dにグラフ表示され、音声が入力された時刻が画面下部の日時表示部6eに表示される。
【0103】
図12のフローにおいて、例えば、上方向キー108aまたは下方向キー108cが所定時間、比較的長く押下された場合(ステップS118;YES)、CPU20はキー入力処理を実行する(ステップS120)。
【0104】
図16は、本実施の形態におけるキー入力処理の流れを説明するためのフローチャートである。同図に示すように、CPU20は、先ず画面フレームデータ414を参照して、キー入力用のフレームを表示部52に表示させる(ステップS502)。キー入力用の画面では、例えば、人語動物語変換TBL418を参照して、テキストデータ418bの内容を選択可能にボタン表示する(ステップS116)。
【0105】
使用者4は、上方向キー108aまたは下方向キー108cで、所望する内容のボタンを選択し、選択キー108bを押下して選択決定する(ステップS504)。
【0106】
選択決定が入力されたならば、CPU20は、人語動物語変換TBL418から選択された内容に対応する感情識別コード418aを選択して、RAM30に記憶する(ステップS506)。そして、キー入力処理を終了し、図12のフローに戻る。図12のフローに戻ると、次にCPU20は動物語出力処理を実行する。
【0107】
図20は、本実施の形態におけるキー入力処理における画面の一例を示す図である。キー入力用の画面7では、タイトル表示7aで犬2へのメッセージであることを示す。
【0108】
人語動物語変換TBL418から読み出したテキストデータ418bを内容とする選択ボタン7bを表示する。全ての選択ボタン7bが1度に表示しきれない場合には、スクロール表示可能に表示させる。また、現在選択状態にある選択ボタン7bは、例えば反転表示する。
【0109】
また、画面7には、選択ボタン7cとキャンセルボタン7dとが表示され、それぞれ選択キー108b及びキャンセルキー108dが押下されると反転表示されて、該当するキーが入力されたことを使用者4に視覚的に通知する。
【0110】
図12のフローにおいて、例えば、選択キー108bが所定時間、比較的長く押下されている場合(ステップS122;YES)、CPU20はモード切換処理を実行する(ステップS124)。
【0111】
図17は、本実施の形態におけるモード切換処理の流れを説明するためのフローチャートである。同図に示すように、CPU20は、先ず画面フレームデータ414を参照して、モード切換用のフレームを表示部52に表示させる(ステップS602)。
【0112】
次に、高周波モードの切換の操作が入力された場合(ステップS604;YES)、CPU20は高周波モードフラグ318を切換える(ステップS606)。体感モードの切換の操作が入力された場合(ステップS608;YES)、CPU20は体感モードフラグ320を切換える(ステップS610)。そして、所定の終了操作が入力されたならば(ステップS612;YES)モード切換処理を終了して、図12のフローに戻る。
【0113】
図21は、本実施の形態におけるモード切換処理における画面の一例を示す図である。モード切換用の画面7では、タイトル表示8aでモード切換処理が実行されていることを示す。モード切換用の画面には、高周波モードのON/OFF表示8bと、体感モードのON/OFF表示8cとを表示する。ON/OFF表示8bと8cとは上方向キー108aまたは下方向キー108cの入力によって順次選択状態となる。選択状態において、選択キー108bを入力すると、当該モードの切換処理を入力したことになり、CPU20は、ONとOFFとを切換える。キャンセルキー108dを押下すると、モード切換処理の終了操作を入力できる。
【0114】
図12のフローにおいて、例えば、キャンセルキー108dが所定時間、比較的長く押下されている場合(ステップS126;YES)、CPU20は履歴表示処理を実行する(ステップS128)。
【0115】
図22は、本実施の形態における履歴表示処理における画面の一例を示す図である。同図に示すように、履歴表示処理では、履歴データ322を参照して履歴表示部9aを表示する。例えば、時刻9bと、犬2と使用者4の何れの音声であったかを示すアイコン9cと、内容9dとを表示する。アイコン9cは、音声識別フラグ322bに基づいて表示される。内容9dは、音声識別フラグ322bと感情識別コード322cとに基づいて、動物語人語変換テーブル416又は人語動物語変換TBL418からテキストデータ416b又は418bを読み出してテキスト表示する。
【0116】
また、履歴表示部9aを画面内に1度に表示し切れない場合は、上方向キー108aや下方向キー108cの入力によってスクロール表示可能に表示する。この際、現在表示されている履歴が、1日(24時間)の内のどの時間帯に該当するかをバー9eで表示すると好ましい。
【0117】
使用者4は、この履歴表示を見ることによって、例えば、犬2の性格やクセの理解、体調の変化などを知ることに役立てることができる。
【0118】
図12において、音声の入力が無かった場合(ステップS102;NO)や、音声が入力されたが動物の音声とも人間の音声とも判別できなかった場合(ステップS114;NO)、及び特定のキー操作が入力されなかった場合(ステップS118のNO→S112のNO→S126のNO)、CPU20は、例えば図23に示すように、表示部52に時計画面3を表示させる(ステップS130)。
【0119】
時計画面3には、例えば、アナログ時計3aと、日付3bと、曜日3cとが表示される。従って、使用者4は、腕時計型音声分析装置100を犬2とのコミュニケーション=ツールとして使用できるとともに、腕時計としても利用できる。
【0120】
〔第2の実施の形態〕
次に、本発明を適用した音声分析装置の第2の実施の形態について説明する。尚、本実施の形態は、基本的に第1の実施の形態と同様の構成によって実現可能であり、同様の構成要素には同じ符号を付け説明は省略するものとする。
【0121】
図24は、本実施の形態における、ドッグリーダ型音声分析装置200の外観の一例を示す図である。同図に示すように、ドッグリーダ型音声分析装置200は、犬2を散歩させる際に使用するリーダ202を、リール204によって引出し/巻取り自在に備えている。リーダ202の先端には、犬2の首輪207とリーダ202を着脱させる金具206とマイク部102とが設けられている。使用者4は、本体208を把持し、或いはクリップ部212でベルトなどに装着して使用する。
【0122】
マイク部102は、リーダ202内に配設された信号線210によって、本体208に内蔵された制御ユニット120及び電源と接続されている。マイク部102をリーダ202の先端部に設けることによって屋外など音声が拡散しやすい条件においてもより効率良く集音できる。
【0123】
尚、ドッグリーダ型音声分析装置200は、使用者4が装着する腕時計型音声分析装置100とデータ通信部114を介して、マイク部102で集音した音声信号を送信する構成としても良い。この場合、ドッグリーダ型音声分析装置200は、音声分析部12及び音声分析用ROM16、表示部52、加振部54を省略し、使用者4が装着する腕時計型音声分析装置100を利用する構成とすることができる。
【0124】
以上、本発明を適応した実施の形態を説明したが、本発明の適用がこれらに限定されるものではなく、発明の趣旨を逸脱しない限りにおいて、適宜構成要素の変更・追加・削除等を行っても構わない。
【0125】
例えば、音声分析装置は、パソコンやPDA(パーソナル・デジタル・アシスタント)、多機能形態電話機として実現しても良い。
【0126】
音声分析部12は、CPU20の演算処理によって実現される構成としても良く、音声分析用ROM16はROM40と同一であっても構わない。また、キー入力部14として、モニタ部106の表示面上にタッチパネルを設ける構成としても良い。
【0127】
また、動物語出力処理において、合成音データ418dは、使用者4の音声データが声紋データ410との照合結果に関係無く出力し、音声データが声紋データ410と一致しなかった場合に、登録音声データ418fを追加的に出力するフローとしても良い。
【0128】
【発明の効果】
本発明によれば、動物の音声を入力して分析した後、分析結果を人間語で出力することによって、使用者は動物の音声の意味を理解することができる。また、使用者の音声を入力して分析した後、分析結果を動物語で出力することによって、動物は使用者の音声の意味を理解することができる。または、使用者が予め記憶されている人間語の言葉の中から何れかを選択すると、この選択された言葉を動物語で出力するので、動物は使用者の音声の意味を理解することができる。
従って、人間と動物間における双方向の感情の伝達をサポートし、コミュニケーションを実現させることができる。
【0129】
また、動物語の出力の際、動物語の出力として人間には聞こえない周波数域の音で出力することで、動物に向けて人間語で出力することがはばかられる状況などにおいても、コミュニケーションを実現させることができる。
【0130】
また、使用者の音声を予め登録されている声紋と照合し、異なる場合には、予め登録されている人間の音声を人間語で出力することができる。従って、動物に使用者の感情に対応する人間の音声を出力することによって、動物に人間の音声を聞かせて、馴染ませる訓練効果が得られる。また、声紋を動物が最もなれた人物(例えば、飼主)の声紋とすると、使用者が当該人物と異なる場合であっても、動物を落ちつかせる効果が得られる。
【0131】
また、音声分析装置を身体に装着可能とすることによって、携行して使用することができる。従って、当該音声分析装置の使用時に一々バックなどの中から取り出す必要も無く、使い勝手が向上する。
【0132】
また、動物と人間との間で交わされたやりとりの履歴を記憶しておくことよって、動物と人間との間で交わされたやりとりの履歴を分析し利用することができる。
【0133】
また、動物の音声の分析結果に対応して所定の振動を発生させ、使用者に体感によって分析結果を知らせることによって、分析結果を人間語のテキストなどを読む必要がなく使い勝手が向上し、よりスムーズなコミュニケーションを図ることが可能になる。また、視覚障害者や聴覚障害者などであっても、分析結果を知ることが可能になる。
【図面の簡単な説明】
【図1】第1の実施の形態である腕時計型音声分析装置の外観の一例を示す図。
【図2】腕時計型音声分析装置の使用方法の一例を示す概念図。
【図3】機能構成の一例を示す機能ブロック図。
【図4】音声分析用ROMに記憶されている内容の一例を示す図。
【図5】動物基準音声パターンのデータ構成の一例を示す図。
【図6】人間基準音声パターンのデータ構成の一例を示す図。
【図7】RAMに記憶される内容の一例を示す図。
【図8】ROMに記憶される内容の一例を示す図。
【図9】動物語人語変換TBLのデータ構成の一例を示す図。
【図10】人語動物語変換TBLのデータ構成の一例を示す図。
【図11】振動パターンTBLのデータ構成の一例を示す図。
【図12】主たる処理の流れを説明するためのフローチャート。
【図13】音声分析処理の流れを説明するためのフローチャート。
【図14】人語出力処理の流れを説明するためのフローチャート。
【図15】動物語出力処理の流れを説明するためのフローチャート。
【図16】キー入力処理の流れを説明するためのフローチャート。
【図17】モード切換処理の流れを説明するためのフローチャート。
【図18】人語出力処理における画面の一例を示す図。
【図19】動物語出力処理における画面の一例を示す図。
【図20】キー入力処理における画面の一例を示す図。
【図21】モード切換処理における画面の一例を示す図。
【図22】履歴表示処理における画面の一例を示す図。
【図23】時計表示画面の一例を示す図。
【図24】第2の実施の形態であるドッグリーダ型音声分析装置の外観の一例を示す図。
【符号の説明】
2 犬
4 使用者
10 音声入力部
12 音声分析部
14 キー入力部
16 音声分析用ROM
162 音声分析プログラム
164 動物基準音声パターン
166 人間基準音声パターン
20 CPU
30 RAM
304 動物属性コード
306 人間属性コード
310 音声データ
312 音声入力時刻データ
314 音声識別フラグ
316 感情識別コード
318 高周波モードフラグ
320 体感モードフラグ
322 履歴データ
40 ROM
402 動物語出力プログラム
404 人語出力プログラム
406 モード切換プログラム
408 履歴出力処理プログラム
410 声紋データ
416 動物語人語変換TBL(テーブル)
418 人語動物語変換TBL(テーブル)
420 振動パターンTBL(テーブル)
50 音出力部
52 表示部
54 加振部
60 通信部
100 腕時計型音声分析装置
102 マイク部
104 スピーカ部
106 モニタ部
108 キー操作部
110 リストバンド部
112 バイブレータ
114 データ通信部
120 制御ユニット
200 ドッグリーダ型音声分析装置
202 リーダ
204 リール
206 金具
208 本体
210 信号線
212 クリップ部

Claims (15)

  1. 動物の音声を入力する第1音声入力手段と、
    この第1音声入力手段により入力された音声を分析する第1音声分析手段と、
    この第1音声分析手段による分析結果を人間語で出力する第1出力手段と、
    使用者の音声を入力する第2音声入力手段と、
    この第2音声入力手段により入力された音声を分析する第2音声分析手段と、この第2音声分析手段による分析結果を動物語で音出力する第2出力手段と、
    を備えることを特徴とする音声分析装置。
  2. 予め記憶された人間語の言葉の中から何れかを選択する選択手段と、
    この選択手段によって選択された言葉を動物語で出力する第3出力手段と、
    を備えることを特徴とする請求項1に記載の音声分析装置。
  3. 前記第1音声分析手段は、前記第1音声入力手段によって入力された音声のパターンと予め記憶された基準音声パターンとを比較することによって、当該音声に含まれる感情を判別して音声を分析する手段であり、
    前記第2音声分析手段は、前記第2音声入力手段によって入力された音声のパターンと予め記憶された基準音声パターンとを比較することによって、当該音声に含まれる感情を判別して音声を分析する手段である、ことを特徴とする請求項1又は2に記載の音声分析装置。
  4. 前記第2出力手段は、動物語での音出力を、人間にとっての可聴領域外の高周波音の出力で実現する手段を有する、ことを特徴とする請求項1〜3の何れか一項に記載の音声分析装置。
  5. 使用者の声紋を登録する第1登録手段と、
    所定の意味内容の人間語による音声を登録する第2登録手段と、
    前記第2音声入力手段により入力された音声と前記第1登録手段により登録された声紋とが一致するか否かを判定する判定手段と、
    この判定手段によって一致しないと判定された場合に、前記第2登録手段によって登録された音声を人間語で出力する第4出力手段と、
    を備えることを特徴とする請求項1〜4の何れか一項に記載の音声分析装置。
  6. 動物の音声を入力する第1音声入力手段と、
    この第1音声入力手段により入力された音声を分析する第1音声分析手段と、
    この第1音声分析手段による分析結果を人間語で出力する第1出力手段と、
    予め記憶された人間語の言葉の中から何れかを選択する選択手段と、
    この選択手段によって選択された言葉を動物語で出力する第3出力手段と、
    を備えることを特徴とする音声分析装置。
  7. 前記第1音声分析手段は、前記第1音声入力手段によって入力された音声のパターンと予め記憶された基準音声パターンとを比較することによって、当該音声に含まれる感情を判別して音声を分析する手段であることを特徴とする請求項6に記載の音声分析装置。
  8. 当該音声分析装置を使用者の身体に装着するための装着手段を備えることを特徴とする請求項1〜7の何れか一項に記載の音声分析装置。
  9. 前記第1音声入力手段によって入力された音声と、前記第1音声入力手段によって音声が入力された時刻とを対応付けて記憶する記憶手段を備えることを特徴とする請求項1〜8の何れか一項に記載の音声分析装置。
  10. 前記記憶手段によって記憶された音声と時刻とを対応付けて出力する第5出力手段を備えることを特徴とする請求項9に記載の音声分析装置。
  11. 前記第1音声分析手段による分析結果に対応して所定の振動を発生させる加振手段を備えることを特徴とする請求項1〜10の何れか一項に記載の音声分析装置。
  12. 動物の音声を入力する第1音声入力ステップと、
    この第1音声入力ステップによって入力された音声を分析する第1音声分析ステップと、
    この第1音声分析ステップの分析結果を人間語で出力する第1出力ステップと、
    この第1出力ステップによって出力された内容に応答するために、使用者が音声を入力する第2音声入力ステップと、
    この第2音声入力ステップにより入力された音声を分析する第2音声分析ステップと、
    この第2音声分析ステップの分析結果を動物語で出力する第2出力ステップと、
    を含むことを特徴とする音声制御方法。
  13. 動物の音声を入力する第1音声入力ステップと、
    この第1音声入力ステップによって入力された音声を分析する第1音声分析ステップと、
    この第1音声分析ステップの分析結果を人間語で出力する第1出力ステップと、
    この第1出力ステップによって出力された内容に応答するために、使用者が予め記憶された人間語の言葉の中から何れかを選択する選択ステップと、
    この選択ステップによって選択された言葉を動物語で出力する第3出力ステップと、
    を備えることを特徴とする音声制御方法。
  14. 動物の音声を入力する第1音声入力手段と、使用者の音声を入力する第2音声入力手段とを備えるコンピュータに、
    前記第1音声入力手段により入力された音声を分析する第1音声分析機能と、
    この第1音声分析機能による分析結果を人間語で出力する第1出力機能と、
    前記第2音声入力手段により入力された音声を分析する第2音声分析機能と、
    この第2音声分析機能による分析結果を動物語で出力する第2出力機能と、
    を実現させるための音声制御プログラム。
  15. 動物の音声を入力する第1音声入力手段を備えるコンピュータに、
    前記第1音声入力手段により入力された音声を分析する第1音声分析機能と、
    この第1音声分析機能による分析結果を人間語で出力する第1出力機能と、
    予め記憶された人間語の言葉の中から何れかを選択する選択機能と、
    この選択機能によって選択された言葉を動物語で出力する第3出力機能と、
    を実現させるための音声制御プログラム。
JP2002362855A 2002-12-13 2002-12-13 音声分析装置 Expired - Fee Related JP4284989B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002362855A JP4284989B2 (ja) 2002-12-13 2002-12-13 音声分析装置
CN200310117284.4A CN1261922C (zh) 2002-12-13 2003-12-10 声音分析装置及声音转换控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002362855A JP4284989B2 (ja) 2002-12-13 2002-12-13 音声分析装置

Publications (2)

Publication Number Publication Date
JP2004191872A true JP2004191872A (ja) 2004-07-08
JP4284989B2 JP4284989B2 (ja) 2009-06-24

Family

ID=32761186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002362855A Expired - Fee Related JP4284989B2 (ja) 2002-12-13 2002-12-13 音声分析装置

Country Status (2)

Country Link
JP (1) JP4284989B2 (ja)
CN (1) CN1261922C (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011024452A (ja) * 2009-07-23 2011-02-10 Casio Computer Co Ltd 動物の感情表示システム及び動物の感情表示方法
JP2011081383A (ja) * 2009-10-07 2011-04-21 Sony Corp 動物−機械間音声相互作用システム
WO2016125478A1 (ja) * 2015-02-06 2016-08-11 ソニー株式会社 情報処理装置、情報処理方法および情報処理システム
CN106531173A (zh) * 2016-11-11 2017-03-22 努比亚技术有限公司 一种基于终端的动物数据处理方法和终端
CN111508469A (zh) * 2020-04-26 2020-08-07 北京声智科技有限公司 一种文语转换方法及装置
CN112447170A (zh) * 2019-08-29 2021-03-05 北京声智科技有限公司 一种基于声音信息的安防方法、装置及电子设备

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101112940B (zh) * 2006-07-25 2011-04-20 京元电子股份有限公司 半导体构装元件的容器转换装置
CN102246705A (zh) * 2010-05-19 2011-11-23 张彩凤 一种利用信号处理技术分析动物行为的方法和系统
US9916738B2 (en) * 2014-03-27 2018-03-13 Philips Lighting Holding B.V. Detection and notification of pressure waves by lighting units
CN105941306B (zh) * 2016-04-29 2017-10-24 深圳市沃特沃德股份有限公司 一种检测动物尾巴动作的方法及其装置
WO2018039934A1 (zh) * 2016-08-30 2018-03-08 深圳市沃特沃德股份有限公司 安抚宠物的方法、装置及系统
CN107423821A (zh) * 2017-07-11 2017-12-01 李家宝 人类和动物交互的智能系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0293861A (ja) * 1988-09-30 1990-04-04 Toshiba Corp 動物との対話システム
JPH11169009A (ja) * 1997-12-12 1999-06-29 Main Kk ペット用訓練装置
JP3083915U (ja) * 2001-08-06 2002-02-22 株式会社インデックス 鳴声の音声的特徴分析に基づく犬の感情判別装置
JP2002278583A (ja) * 2001-03-14 2002-09-27 Teruo Ueno ペットの鳴き方の違いによる翻訳装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0293861A (ja) * 1988-09-30 1990-04-04 Toshiba Corp 動物との対話システム
JPH11169009A (ja) * 1997-12-12 1999-06-29 Main Kk ペット用訓練装置
JP2002278583A (ja) * 2001-03-14 2002-09-27 Teruo Ueno ペットの鳴き方の違いによる翻訳装置
JP3083915U (ja) * 2001-08-06 2002-02-22 株式会社インデックス 鳴声の音声的特徴分析に基づく犬の感情判別装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011024452A (ja) * 2009-07-23 2011-02-10 Casio Computer Co Ltd 動物の感情表示システム及び動物の感情表示方法
CN104396786A (zh) * 2009-07-23 2015-03-11 卡西欧计算机株式会社 信息发送终端、通知控制系统以及信息发送方法
CN104396786B (zh) * 2009-07-23 2017-05-03 卡西欧计算机株式会社 信息发送终端、通知控制系统以及信息发送方法
JP2011081383A (ja) * 2009-10-07 2011-04-21 Sony Corp 動物−機械間音声相互作用システム
US8838260B2 (en) 2009-10-07 2014-09-16 Sony Corporation Animal-machine audio interaction system
WO2016125478A1 (ja) * 2015-02-06 2016-08-11 ソニー株式会社 情報処理装置、情報処理方法および情報処理システム
CN106531173A (zh) * 2016-11-11 2017-03-22 努比亚技术有限公司 一种基于终端的动物数据处理方法和终端
CN112447170A (zh) * 2019-08-29 2021-03-05 北京声智科技有限公司 一种基于声音信息的安防方法、装置及电子设备
CN111508469A (zh) * 2020-04-26 2020-08-07 北京声智科技有限公司 一种文语转换方法及装置

Also Published As

Publication number Publication date
CN1506936A (zh) 2004-06-23
CN1261922C (zh) 2006-06-28
JP4284989B2 (ja) 2009-06-24

Similar Documents

Publication Publication Date Title
JP4284989B2 (ja) 音声分析装置
EP3041200B1 (en) Wristband-type information processing device, information processing system, information processing method, and program
US20050132290A1 (en) Transmitting information to a user's body
KR20110088520A (ko) 무드-기반 햅틱 피드백을 생성하기 위한 방법 및 장치
US7522031B2 (en) Apparatus and method for controlling alarm by motion recognition in a portable terminal
JP2005304044A (ja) 移動通信端末機用育成シミュレーション方法及び装置
CN104718740A (zh) 具有无线区域网络功能的移动装置附件
US10783359B2 (en) Headset with motion sensor
US20170330561A1 (en) Nonlinguistic input for natural language generation
CN106878390A (zh) 电子宠物互动控制方法、装置及可穿戴设备
JPH10295932A (ja) 携帯型ゲーム機
Mielke et al. AUDIS wear: A smartwatch based assistive device for ubiquitous awareness of environmental sounds
CN107027340A (zh) 可穿戴电子系统
KR20080057651A (ko) 청각장애인을 위한 소리 인식 보조 시스템 및 소리 인식방법
JP2000249569A (ja) 歩数計及び携帯型複合装置
JP2005074107A (ja) 生活管理システム
WO2016017616A1 (ja) 運動支援装置および運動支援方法
JP2004184161A (ja) 電子機器、時計装置および携帯端末
JP2009141721A (ja) 情報通信端末、情報通信端末の制御プログラム
JP2009206600A (ja) 携帯機器、処理決定方法およびプログラム
JP3543163B2 (ja) 受信装置及び着信報知方法
CA2976800C (en) Hand carried alerting sound generator device
US11983325B1 (en) Digital communication assembly
WO2024071186A1 (ja) 携帯情報端末
JPH0276422A (ja) 無線選択呼出受信機

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090316

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4284989

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140403

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees