JP4166134B2 - 乳児あやし支援処理方法、および乳児あやし支援処理システム用データ管理装置 - Google Patents

乳児あやし支援処理方法、および乳児あやし支援処理システム用データ管理装置 Download PDF

Info

Publication number
JP4166134B2
JP4166134B2 JP2003324039A JP2003324039A JP4166134B2 JP 4166134 B2 JP4166134 B2 JP 4166134B2 JP 2003324039 A JP2003324039 A JP 2003324039A JP 2003324039 A JP2003324039 A JP 2003324039A JP 4166134 B2 JP4166134 B2 JP 4166134B2
Authority
JP
Japan
Prior art keywords
data
information
infant
user
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003324039A
Other languages
English (en)
Other versions
JP2005087431A (ja
Inventor
和生 金井
義則 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2003324039A priority Critical patent/JP4166134B2/ja
Publication of JP2005087431A publication Critical patent/JP2005087431A/ja
Application granted granted Critical
Publication of JP4166134B2 publication Critical patent/JP4166134B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、乳児の育児支援技術にかかり、さらに詳しくは、音声データを用いて乳児をあやす行為を支援する処理方法、および乳児あやし支援処理システムで使用するデータ管理装置に関する。
むずかったり泣き出した乳児をあやす場合に、乳児を抱き上げる、声を掛ける、好きなおもちゃを見せる、好きな音を聞かせるなどの乳児が望むであろうことを経験から類推して行っている。
しかし、できる限り早く乳児を泣き止ませたり、機嫌を良くしたりするというような一定の効果を得られるように、常に乳児をあやすことは容易ではない。
一般的に、乳児をあやすのに最適な者は、母親、父親など、その乳児にとって一番身近な存在の者(以下、単に「母親」とする)であると考えられている。例えば、乳児が慣れ親しんだ環境の下で母親がやさしく乳児に呼びかける行為は、効果が高い対応であると考えられている。
したがって、予め母親の呼びかけの声や顔の画像などのデータを保存しておき、乳児をあやす必要が生じた場合に、保存しておいた母親の声データや画像データを再生して乳児に聞かせることにより、効果的に乳児をあやすことができると考えられる。
従来、利用者から識別情報を受信して、その識別情報に対応する画像データや音声データを利用者に提供する画像サービスシステムがあり、このようなシステムを、乳児をあやすための母親の声データや画像データの保存に利用することができる(例えば、特許文献1参照)。
特開2002−56079号公報
前記のように、母親の乳児への呼びかけは、乳児をあやすための対応として最適なものの一つであるとしても、常に効果的であるとは限らない。
例えば、母親がイライラしたり不安だったりしてストレスの高い精神状態のもとで乳児をあやす場合、旅行中や外出中など普段の乳児の生活環境と異なるような緊張した状況下であやす場合に、あやす側の大人の不安や緊張があやされる側の乳児に伝わってしまうことにより、乳児の機嫌が良くなるまで時間がかかったり、かえって乳児が興奮したりして逆効果となってしまうことが多いことは、経験上よく知られている。
したがって、母親が乳児に直接呼びかける代わりに、前記の画像サービスシステムを用いて保管しておいた母親の声や画像を用いるとしても、保管された声データに照れや焦りなどの自然でない状態を感じさせる気配がある場合には、乳児は不自然な気配を敏感に察知するため、効果的にあやすことができない。
本発明の目的は、母親が自然な状態で発話した呼びかけの声、乳児の好きな物の音など、乳児をあやす行為に適すると考えられる音声データを保管し、ユーザの要求に応じて保管しておいた音声データを提供することにより、どのような状況において乳児をあやす場合でも、一定の効果を得るように乳児をあやす行為を支援する処理方法、または前記処理方法を実現するための乳児あやし支援処理システム用のデータ管理装置を提供することである。
上記の問題を解決し目的を達成するため、本発明は、乳児をあやすために用いる乳児への呼びかけ声の音声データをデータ記憶手段に保管して、乳児をあやす行為を支援する処理方法であって、ユーザ端末を識別するユーザ情報および乳児への呼びかけ声の音声データを入力し、前記音声データの発話の状態を周波数の特性として示す韻律情報を取得し、乳児への呼びかけ声に適する韻律情報上の特性を示した適性度範囲を備えて、前記適性度範囲をもとに、前記音声データの韻律情報が前記適性度範囲にあるか否かを判定し、前記韻律情報が前記適性度範囲内である音声データを、前記ユーザ情報と対応させて前記データ記憶手段に格納し、前記ユーザ端末から利用要求を受け付けた場合に、前記ユーザ端末のユーザ情報に対応する前記音声データを出力することを特徴とする。
本発明では、ユーザが使用するユーザ端末から、ユーザ端末を識別するユーザ情報および乳児へ呼びかける母親の声の音声データを入力すると、この音声データを構成する要素ごとの特性を示す韻律情報を取得する。さらに、予め、例えばリラックスした状態で発話された母親の呼びかけの声のように、乳児への呼びかけ声に適した音声データの韻律情報上の特性を示した適性度範囲を備えておき、この適性度範囲をもとに、入力された音声データの韻律情報が適性度範囲にあるか否かを判定する。
そして、韻律情報が適性度範囲内であれば、この音声データを、ユーザ情報と対応させてデータ記憶手段に格納する。なお、適性度範囲内でないと判定された音声データは廃棄される。
その後、ユーザ端末から利用要求を受け付けた場合に、ユーザ端末のユーザ情報に対応する音声データを要求元のユーザ端末へ出力する。ユーザは、ユーザ端末から出力される呼びかけ声を乳児に聞かせることにより乳児をあやすことができる。
または、本発明の処理方法では、さらに、ユーザ情報および音声データを入力する場合に、さらに画像データを入力する。そして、音声データおよび画像データを複合して複合データ作成し、この複合データをユーザ情報と対応させてデータ記憶手段に格納する。
その後、ユーザ端末から利用要求を受け付けた場合に、ユーザ端末のユーザ情報に対応する複合データを要求元のユーザ端末へ出力する。
これにより、ユーザは、ユーザ端末から出力される呼びかけ声を乳児に聞かせ、同時に乳児のお気に入りの画像を見せることにより乳児をあやすことができる。
または、本発明の処理方法では、さらに、ユーザ情報とともに、音声データの出力を繰り返す回数および複数の音声データの出力の順序を定める再生条件を入力する。そして、ユーザ端末から利用要求を受け付けた場合に、ユーザ端末のユーザ情報に対応する再生条件に従って音声データを要求元のユーザ端末へ出力する。
これにより、ユーザは、複数の音声データが登録されている場合に、任意の出力順序および繰返回数を指定して、呼びかけ声を乳児に聞かせることにより乳児をあやすことができる。
または、本発明の処理方法では、さらに、ユーザ情報とともに、ユーザ連絡先を取得し、ユーザ端末から利用要求を受け付けた場合に、所定の期間内の利用要求回数および音声データの出力時間を求める。そして、利用要求回数が所定の回数を超えたときは、利用状況メッセージを作成して、ユーザ連絡先にこの利用状況メッセージを送信する。
例えば、乳児をあやすためのユーザ端末(例えば、父親の携帯電話)と異なるユーザ連絡先(母親の携帯電話の番号)を登録しておいた場合に、一定の時間内に父親が乳児をあやす回数が多くなったときには、母親の元へ利用状況メッセージが通知されるため、母親が外出中であっても、乳児の状況を知ることができる。
本発明によれば、データ管理センタは、ユーザ端末から、ユーザごとに乳児の母親の声や乳児の好きな音などの音声データを受信し、受信した声データから取得した韻律情報をもとに、その声データが、乳児をあやす際の呼びかけに適した声であるかどうかを判定し、適性があると判定した声データのみを保管する。
これにより、ユーザは、母親が不在であって不慣れな者が乳児をあやさなければならない場合や、母親が緊張や不安などストレスの高い状況におかれているにもかかわらず乳児をあやさなければならない場合でも、前もって保管された自然な状態で発話された母親の呼びかけの声を乳児に聞かせることができるため、乳児をあやすために効果的と考えられる行為を実現できるように支援することができる。
特に、ユーザ端末が携帯可能な端末である場合には、乳児が不安になりやすい外出中などでも、母親の声データを保管するデータ管理センタと通信するだけで、簡単に、母親の呼びかけの声を乳児に聞かせることができるため、特に大きな効果を期待することができる。
なお、本発明は、乳児をあやすという行為において、母親の代替となるものではなく、乳児をあやすための手段の一つとして、コンピュータおよび通信手段を利用した処理方法および処理システムを提供することにより、あやす行為を支援するものである。
以下、本発明を実施するための最良の形態を、図を用いて説明する。
図1に、本発明にかかる乳児あやし支援処理システムの構成例を示す。乳児あやし支援処理システムは、データ管理センタ1およびユーザ端末2から構成される。
データ管理センタ1は、ユーザ端末2から送信された音声データ31が声データvである場合に、その声データvが乳児をあやす際の呼びかけの声としての適性を備えるか否かを声データvの韻律情報を用いて判定し、所定の適性度を備える声データvと、ユーザが登録した画像データ33とを複合して生成した複合データ34を保管し、ユーザの要求に応じて該当する複合データ34をユーザ端末2へ送信するサーバコンピュータである。
ユーザ端末2は、録音もしくは入力した音声データ31、および録画もしくは入力した画像データ33をデータ管理センタ1へ送信し、またはデータ管理センタ1に保管された複合データ34を受信する端末である。ユーザ端末2として、携帯電話、PHS(Personal Handyphone System)端末、携帯情報端末などがある。
データ管理センタ1およびユーザ端末2は、携帯電話網、PHS網、インターネットなどのネットワーク4を通じて相互にデータの送受信を行う。
データ管理センタ1は、データ管理手段10、音声データ取得手段11、韻律情報取得手段12、適性度判定手段13、データ複合手段14、画像データ取得手段15、ユーザ管理手段16、およびデータ送信手段17から構成され、データ情報30、音声データ31、適性度判定基準32、画像データ33、複合データ34、ユーザ情報35、および利用ログ情報36を記憶する記憶部を備える。
データ管理手段10は、ユーザ端末2から送信された音声データ31、画像データ33、およびデータ複合手段14で複合された複合データ34を、データ情報30により管理する手段である。
データ情報30は、ユーザごとに、音声データ31の種別、パターン、識別情報、ならびに音声データ31に対応する画像データ33の識別情報、声の音声データ31の韻律情報、適性度判定結果(適性度情報)、およびデータ同士の繋ぎ合わせに関する情報からなる。
データの種別は、受信した音声データ31が人間の声であるか(種別=1)、声以外の音であるか(種別2)を示す情報である。なお、音声データ31のうち、種別=1の人間の声のデータを「声データv」、種別=2の声以外の音源のデータを「音データs」とする。
データのパターンは、音声データ31の内容の種別を示す情報であり、例えば、母親の声(AAAA)、おもちゃの音(BBBB)、動物の鳴き声(CCCC)、遊園地の音(DDDD)などの所定のパターンが用意される。
音声データ取得手段11は、ユーザ端末2から送信された音声データ31を取得する手段である。
韻律情報取得手段12は、音声データ31中の声データvを周波数に変換し、韻律情報を取得する手段である。
韻律情報は、音声の個人的相違を示す情報のひとつであり、発話者の音声の後天的特徴、すなわちアクセント、イントネーション、リズム、ポーズなどによる発話状態の違いを表す大局的特徴(韻律)を周波数の成分の特性として示す情報である。
韻律情報の各要素は、一般的に、以下の範囲の値をとる。
アクセント: 350〜500KHz、
イントネーション: 400〜800KHz、
リズム: 100〜500ms、
ポーズ: 100〜500ms。
なお、発話者の先天的特徴、すなわち声帯の形や長さなど音声器官の違いは、基本となる周波数(基本周波数)の高さに表れるとされ、通常、以下の範囲の値をとる。
基本周波数の平均的高さ: 400〜800KHz。
韻律情報取得手段12は、声データvの各フレーズごとに周波数分析を行って基本周波数を取得し、また、アクセント、イントネーション、リズム、ポーズなどの韻律情報を取得する。
適性度判定手段13は、適性度判定基準32をもとに、声データvが乳児をあやす際の呼びかけの声としての適性度を備えるか否かを判定する手段である。
適性度判定基準32は、緊張、興奮、不安などがない自然な状態で発話された声データの韻律情報から呼びかけに適した声の特性の範囲を統計的・経験的に求めた基準である。予め、韻律情報の各要素ごとに、適性度を備える範囲を示す適性しきい値を定めておく。
データ複合手段14は、音声データ(声データv/音データs)31と、画像データ33とを複合処理して複合データ34を生成し、さらに、複合データ34同士を繋ぎ合わせる手段である。
画像データ取得手段15は、ユーザ端末2から送信された画像データ33を取得する手段である。
ユーザ管理手段16は、ユーザ情報35および利用ログ情報36を管理し、一定の期間内に所定の回数以上で利用要求があった場合に、所定の連絡先へ利用状況メッセージを送信する手段である。
ユーザ情報35は、ユーザIDやパスワードなどのユーザ認証情報、ユーザ端末2の識別情報(携帯電話番号)、利用状況メッセージの送信先(通知先メールアドレス)などからなる。
利用ログ情報36は、ユーザ端末2がデータ管理センタ1で保管された種々のデータを受信した利用時間または利用回数などからなる。
データ送信手段17は、データ管理センタ1で保管されている複合データ34をユーザ端末2に送信する手段である。
本形態では、ユーザ端末2は、携帯電話であって、音声入力手段21、音声出力手段22、画像入力手段23、および画像出力手段24から構成される。
音声入力手段21は、声や音を録音し、音声データ31を外部から入力し、またはキー入力を行う手段である。音声出力手段22は、音声データ31または複合データ34の音声を出力する手段である。
画像入力手段23は、画像を撮影し、または画像データ33を外部から入力する手段である。画像出力手段24は、画像データ33または複合データ34の画像を出力する手段である。
図2を用いて、本発明の処理の流れの概要を説明する。
データ送信処理(ステップS1):
ユーザ端末2では、データ管理センタ1の利用登録をしたユーザ(母親)は、乳児をあやす時に使う呼びかけの声、おもちゃの音、動物の鳴き声などを録音するか、音声データ31を入力する。呼びかけの声を「声データv1」と、おもちゃの音を「音データs1」と、動物の鳴き声を「音データs2」と、別のおもちゃの音を「音データs3」とする。
また、呼びかけとともに表示させたい母親の顔や動物の顔などを録画するか、画像データ33を入力する。母親の顔を「画像データp1」とし、動物の顔を「画像データp2」とする。
録音した音声データ(声データv1、音データs1、s2、s3)31および画像データ(画像データp1、p2)33をデータ管理センタ1へネットワーク4を通じて送信する。
データ登録処理(ステップS2):
データ管理センタ1では、ユーザ端末2からのデータを受信・格納する。声データvが複数のフレーズに区切られている場合には、区切りでデータを分割し、フレーズごとに格納する。そして、ユーザごとのデータ情報30に、送信番号、データID、種別、パターンなどを登録する。なお、データIDは、各フレーズごと付与される。
適性度判定処理(ステップS3):
受信・格納した音声データ31が声データv1であれば、声データvを周波数に変換して基本周波数の平均的高さを求め、周波数分析して、アクセント、イントネーション、リズム、ポーズなどの韻律情報を取得し、データ情報30に登録する。
さらに、適性度判定基準32を参照して、取得した韻律情報をもとに声データv1が適性度を備えるか否かを判定し、判定結果(適性度)をデータ情報30に登録する。また、ユーザ端末2へ適性度を送信する。
再生条件指定処理(ステップS4):
ユーザ端末2では、データ管理センタ1から受信した適性度を表示する。ユーザが、表示された適性度をもとにデータの登録の可否、再生の順序、繰返回数などの再生条件を指定すると、指定された再生条件をデータ管理センタ1へ送信する。
再生条件登録処理(ステップS5):
データ管理センタ1では、ユーザ端末2から再生条件を受信し、登録不可と指定された音声データ31を廃棄し、再生順序や繰返回数をデータ情報30に登録する。
データ複合処理(ステップS6):
次に、再生順序に従って、音声データ31と、対応する画像データ33とを複合処理して複合データ34を生成する。例えば、母親の声(声データv1)と母親の顔(画像データp1)との複合データc1、おもちゃの音(音データs1)と動物の顔(画像データp2)との複合データc2、動物の鳴き声(音データs2)と動物の顔(画像データp2)との複合データc3などを生成する。
そして、複合データc1、c2、c3の繋ぎ合わせパターンを生成して、データ情報30に登録する。例えば、「母親の声、おもちゃの音、母親の声、および動物の鳴き声」の繋ぎ合わせパターン(複合データc1、c2、c1、c3の順番の組み合わせ)、母親の声のない「おもちゃの音および動物の鳴き声」の繋ぎ合わせパターン(複合データc2、c3の順番の組み合わせ)などを登録する。
利用要求処理(ステップS7):
その後、ユーザが登録したデータを用いて乳児をあやしたい場合に、ユーザは、ユーザ端末2から利用要求をデータ管理センタ1へ送信する。
データ送信・利用状況管理処理(ステップS8):
データ管理センタ1では、ユーザ端末2から利用要求を受信して、保管している複合データ34の一覧をユーザ端末2へ送信する。ユーザがデータ一覧をみて指定したデータをデータ管理センタ1へ通知する。
データ管理センタ1は、指定された複合データ34を抽出し、繰返回数に従って再生した音声と画像をユーザ端末2へ送信する。さらに、利用時間、利用回数などの利用ログ情報36を取得し、利用が所定の回数または頻度を超えた場合に、ユーザ情報35の連絡先メールアドレスに、利用状況を通知する。
データ受信処理(ステップS9):
一方、ユーザ端末2では、受信した音声および画像を乳児に聞かせたり見せたりする。ユーザは、再生された母親の呼びかけの声を乳児に聞かせ、また、母親の顔の画像をみせることにより、リラックスした母親の呼びかけの声や乳児のお気に入りの音などを使って、効果的に乳児をあやすことができる。
以下に、図2に示す各処理の内容をさらに詳しく説明する。
図3に、データ送信処理(ステップS1)の詳細処理フローを示し、図4に、ユーザ端末2で表示される画面の例を示す。
ユーザ端末2は、予め与えられた認証情報(ユーザID、パスワードなど)により、データ管理センタ1のアクセス認証を受けると、図4(A)に示す画面を表示し、入力される音声が、母親の声であるか、その他の音であるかを判断する(ステップS10)。
図4(A)の画面において、ユーザが「母親の声」を選択した場合には、声データの送信と判断して、図4(B)に示す画面を表示する。そして、音声入力手段21によって、母親の呼びかけの声を録音するか、または呼びかけの声データvを入力する(ステップS11)。
図4(B)の画面のように、ユーザは、複数のフレーズを録音する場合に、フレーズを1つずつ録音し、フレーズの区切りに音声入力手段21の「*」キーを押し、すべてのフレーズの録音または入力が終了したら、「#」キーを押す。
音声データ31は、複数のフレーズを録音した場合に、以下のような構成になる。
声データv1=
「○○ちゃんいいこだね、*(区切り)、
○○ちゃんかわいいね、*(区切り)、
○○ちゃんこっち見て、#(終了)。」
なお、同じフレーズを複数回繰り返して録音した場合に、以下のような構成になる。
声データv2=
「○○ちゃんかわいいね、*(区切り)、
○○ちゃんかわいいね、*(区切り)、
○○ちゃんかわいいね、#(終了)。」
また、図4(A)の画面でユーザが「その他」を選択した場合には、音データの送信と判断して、図4(C)の画面を表示し、音声入力手段21によって、乳児の好きな音を録音するか、またはその音データsを入力する(ステップS12)。
そして、入力した音声データ(声データv/音データs)31をデータ管理センタ1へ送信する(ステップS13)。
続いて、図4(D)に示す画面を表示し、画像データ33を送信するかどうかを判定する(ステップS14)。図4(D)の画面でユーザが「画像送信」を選択した場合には、図4(E)に示す画面を表示し、画像入力手段23により母親の顔を撮影し、または母親の顔の画像データp1を入力し(ステップS15)、画像データ33をデータ管理センタ1へ送信する(ステップS16)。
図4(D)の画面でユーザが「終了」を選択した場合には、図4(E)に示す画面を表示し、データ登録の処理を続けるか否かを判定する(ステップS17)。
図4(E)の画面でユーザ「継続」を選択した場合には、ステップS10の処理へ戻り処理を繰り返す。一方、図4(E)の画面でユーザが「終了」を選択した場合は、処理を終了する。
その後、ユーザ端末2から送信したデータがデータ管理センタ1において受信されると、ユーザ端末2に、ユーザの認証情報、送信されたデータのパターンが返され、図4(F)に示す画面が表示される。
図5に、データ登録処理(ステップS2)および適性度判定処理(ステップS3)の詳細処理フローを示す。
データ管理センタ1では、音声データ取得手段11および画像データ取得手段15により、ユーザ端末2から送信された音声データ(声データv/音データs)31および画像データ33を受信し(ステップS20)、所定の記憶部に格納する(ステップS21)。声データvに複数のフレーズが含まれていれば、区切りで分割したフレーズごとに記憶部へ格納する。
また、データ管理手段10は、格納されたデータ単位にデータIDを付与し、音声データ31のパターン、データ種別を判断してデータ情報30に登録する(ステップS22)。
図6に、データ情報30の例を示す。データ情報30では、ユーザごとに用意される。データ情報30のデータエントリとして、データパターン、データ種別、音声データ31のデータID、対応する画像データ(音声データ31に続いて送信された画像)33のデータIDが登録される。
データ管理手段10が、声データvをフレーズごと切り出した場合には、声データv1の各フレーズには以下のようなデータIDが付与される。
声データv1:
第1フレーズ「○○ちゃんいいこだね」=声データv11、
第2フレーズ「○○ちゃんかわいいね」=声データv12、
第3フレーズ「○○ちゃんこっち見て」=声データv13。
ユーザ端末2から、声データv1に続いて音データs1、音データs2が受信されている場合は、データ管理手段10は、声データv1と同様に、所定の情報をデータ情報30に登録する。音データs1に続いて画像データp2が送信されていれば、画像データp2を音データs1に対応付けて登録する。
さらに、声データv1を受信していれば(ステップS23)、韻律情報取得手段12は、声データv1から韻律情報を取得する(ステップS24)。
具体的には、韻律情報取得手段12は、まず、声データv1のフレーズごとに、データを周波数に変換し、基本周波数の平均的な高さを求めて、ユーザの音声の先天的特徴に関する情報を取得する。さらに、周波数分析を行って、アクセント、イントネーション、リズム、ポーズなどの要素について周波数の成分(スペクトル特徴)を抽出し、成分値(韻律情報)を求める。
韻律情報取得手段12は、図7に示すように、取得した基本周波数の平均的な高さ(基本周波数)、アクセント、イントネーション、リズム、ポーズの周波数成分の値をデータ情報30に登録する。
さらに、適性度判定手段13は、所定の適性度判定基準(適性しきい値、適性度レベル)32を用いて、韻律情報をもとにその声データv1の各フレーズの適性度が、どのレベルであるかを判定する(ステップS25)。
具体的には、適性度判定手段13は、声データv1の各フレーズについて、基本周波数、アクセント、イントネーションについて周波数成分の最大値を取得し、最大値を適性しきい値と比較する。そして、最大値が、適性しきい値を中心とする所定の値の幅内(例えば、差分が10%以内)であれば、「適性度B(やや適性)」と判定する。また、最大値が、その範囲より下回っていれば「適性度A(適性)」と判定し、その範囲より上回っていれば、「適性度C(不適切)」と判定する。
図8に、韻律情報のアクセントに対する3つのフレーズの周波数スペクトルの特徴の比較を示す。
3つのフレーズの声データv1(v11、v12、v13)の各周波数成分の強さを比較すると、第1フレーズ(声データv11)の成分の最大値は、所定の適性しきい値を超えている。これは、第1フレーズが、不安、興奮、緊張などのストレスが高い状態において発話されたものであって、乳児をあやすための呼びかけには適さないことを示す。
一方、第2フレーズ(声データv12)および第3フレーズ(声データv13)それぞれの周波数の成分の最大値は適性しきい値と同じであるか、下回っている。これは、これらのフレーズが、自然な状態で発話されたものであって、乳児をあやすための呼びかけに適していることを示す。
適性度判定手段13は、声データv1の各フレーズを判定し、第1フレーズ(声データv11)、第2フレーズ(声データv12)、および第3フレーズ(声データv13)のそれぞれの適性度に、「C」、「A」、および「B」を付与してデータ情報30に登録する。
そして、声データv1の判定結果をユーザ端末2へ送信する(ステップS26)。
図9に、再生条件設定処理(ステップS4)の詳細処理フローを示し、図10に、表示画面の例を示す。
ユーザ端末2では、データ管理センタ1から送信された判定結果を受信し(ステップS40)、図10(A)に示す画面で判定結果を表示する(ステップS41)。図10(A)の画面には、声データv1の各フレーズの適性度が表示されるため、ユーザは、自分が送信した声データのどのフレーズが、呼びかけの声として適しているかどうかを知ることができる。
また、データ管理センタ1で再生された声データv1を受信し、図10(B)に示す画面を表示する(ステップS42)。ユーザは、データ管理センタ1で保管された声データv1の音を聞いて、実際の聞こえ方を確かめることができる。
続いて、図10(B)の画面により、再度データを登録するか、または現在データ管理センタ1に登録されているデータの再生条件を指定するかどうかを判定する(ステップS43)。
図10(B)の画面でユーザが「条件指定」を選択した場合には(ステップS43)、図10(C)の画面において、保管された声データv1のフレーズの再生順序、および繰返回数を指定し(ステップS44)、指定された再生条件をデータ管理センタ1へ送信する(ステップS45)。
図10(C)の画面で、再生順序が、第1フレーズ=順番(0)、第2フレーズ=順番(2)、第3のフレーズ=順番(1)と指定され、繰返回数(3)と指定されたとする。声データv1の第3フレーズ、第2フレーズの順で再生し、第1フレーズは登録しない旨の再生条件が設定されたことを意味する。
また、ステップS43の処理において、図10(B)の画面でユーザが「再登録」を選択した場合には、ステップS10(図3)の処理へ戻る。
図11に、再生条件登録処理(ステップS5)およびデータ複合処理(ステップS6)の詳細処理フローを示す。
データ管理センタ1では、ユーザ端末2から再生条件を受信し(ステップS50)、データ管理手段10は、順番(0)が指定されたフレーズがあれば(ステップS51)、該当する声データv1の第1フレーズ(声データv11)を削除する(ステップS52)。また、再生順序、繰返回数をデータ情報30に登録する(ステップS53)。
図12に、再生条件登録後のデータ情報30の例を示す。図12のデータ情報30では、ユーザ端末2から受信した再生条件に従って、第1フレーズ(声データv11)のレコードが削除されている。
次に、データ複合手段14は、音声データ(声データv/音データs)31と対応する画像データ33とを複合処理して複合データ34を生成し、所定の記憶部に格納する(ステップS54)。
ここで、以下のような複合データ34が生成され、格納される。
複合データc1:声データv13+画像データp1(母親の声と母親の顔)、
複合データc2:音データs1+画像データp2(おもちゃの音と動物の顔)、
複合データc3:声データv12+画像データp1(母親の声と母親の顔)、
複合データc4:音データs2+画像データp2(動物の鳴き声と動物の顔)、
複合データc5:音データs3+画像データp2(別のおもちゃの音と動物の顔)。
また、データ複合手段14は、複合データ34の繋ぎ合わせパターンを生成して、データ情報30に登録する(ステップS55)。
図13に、複合データ34の繋ぎ合わせの例を示す。データ複合手段14は、以下のような繋ぎ合わせパターンを作成する。
繋ぎ合わせパターン:複合データc2+複合データc4+複合データc5
繋ぎ合わせパターン:複合データc1+複合データc2+複合データc3+複合データc4
このような繋ぎ合わせパターンによるデータ出力を行うことにより、乳児に、母親の呼びかけの声と乳児の好きな音とを交互に聞かせたり、乳児の好きな音だけを聞かせたりすることができる。
図14に、利用要求処理(ステップS7)およびデータ受信処理(ステップS9)の詳細処理フローを示す。
ユーザ端末2は、利用要求を送信し、予め与えられた認証情報(ユーザID、パスワードなど)によりデータ管理センタ1のアクセス認証を受けると、登録されたデータの一覧が表示されて、受信するデータの指定をデータ管理センタ1へ送信する(ステップS70)。
その後、データ管理センタ1から指定した複合データ34を受信し(ステップS71)、音声出力手段22、画像出力手段24により、それぞれデータ(音と画像)を出力する(ステップS72)。
別データを受信する場合には(ステップS73)、ステップS70の処理へ戻る。さらに、利用終了が指示されるまで(ステップS74)、ステップS72のデータ(音と画像)の出力を続ける。
図15に、データ送信、利用状況管理処理(ステップS8)の詳細処理フローを示す。
データ管理センタ1では、ユーザ端末2から利用要求を受信すると(ステップS80)、データ送信手段17は、ユーザの登録データの一覧をユーザ端末2へ送信する(ステップS81)。その後、指定された複合データ34を抽出し(ステップS82)、抽出したデータの繰返回数に応じて再生したデータをユーザ端末2へ送信する(ステップS83)。
さらに、ユーザ管理手段16は、利用時間、利用回数をカウントして、利用ログ情報36に登録する(ステップS84)。
図16(A)に利用ログ情報36の例を示す。利用ログ情報36は、ユーザごとのデータ利用履歴であって、ユーザID、利用開始から利用終了までの時間を積算した利用時間、および所定時間内における利用要求の合計回数である利用回数からなる。
そして、一定時間内の利用要求の合計回数が所定回数以上であれば(ステップS85)、ユーザ情報35に登録された通知先メールアドレスに、利用状況メッセージを送信する(ステップS86)。
図16(B)にユーザ情報35の例を示す。ユーザ情報35は、ユーザID、パスワードなどの認証情報、ユーザ端末2の識別情報である携帯電話番号、利用状況メッセージの送信先である通知先メールアドレスからなる。
ユーザ管理手段16は、例えば、「1時間の利用回数が10回を超えています」のような利用状況を通知する。
さらに、別データの利用要求があれば(ステップS87)、ステップS82の処理へ戻り、別データの利用要求がなければ処理を終了する。
本発明は、具体的に、以下のような状況で使用できる。
1) 外出中、旅行中など、乳児が普段の生活環境と異なる環境で長時間過ごす場合に、乳児がいつも遊んでいるおもちゃが傍になく、母親も周囲に気を使い早くなだめようとして却って冷静さを欠いているようなときに、データ管理センタ1に接続し、母親の声や乳児の好きな音が含まれた登録データを乳児に聞かせて、リラックスできる環境を作り出すための支援ツールとして使用できる。
2) 母親が一時的に不在の場合に、乳児になれていない者があやすときに、登録データを乳児に聞かせて、母親が乳児をなだめるような効果を得るための支援ツールとして使用できる。
なお、母親が比較的長期に不在である場合には、母親の呼びかけの声を聞かせることは、かえって乳児の不安感を呼び起こすことになるため、母親の声を含まない乳児の好きな音だけの登録データを乳児に聞かせるようにする。
3) 遊園地や動物園などの外出先で乳児が気に入った音や動物の鳴き声などを録音してデータ管理センタ1に登録しておき、普段の生活において、お気に入りの音が含まれる登録データをおもちゃ代わりに聞かせて、乳児を遊ばせるツールとして使用できる。
4) なお、ユーザは、乳児の成長に従ってその時々に乳児が気に入った音や画像を何度でも登録することができる。データ管理センタ1において保存されるデータは、乳児ごとに時系列的に記録され、乳児ごとの成長記録として利用することが可能となる。また、データ管理センタ1において保存される多数の登録データのパターンなどのデータを統計処理することにより、育児研究分野での資料として利用することが可能となる。
このように、本発明は、乳児をあやすための支援ツールとしてだけでなく、乳児とのコミュニケーション支援ツールとしての効果も奏することができる。
以上、本発明をその実施の形態により説明したが、本発明はその主旨の範囲において種々の変形が可能であることは当然である。
例えば、本形態において、データ管理センタ1では、ユーザ端末2から送信された音声データ31の声データvをいったん保管し、適性度判定手段13において適性度を満たさないと判定された後、ユーザの指示によって削除するものとして説明した。
しかし、適性度を満たさない声データvは、ユーザの指示を待たずに、データ管理センタ1側で直ちに廃棄するようにしてもよい。
その場合に、ユーザ端末2から送信された声データvがすべて適性度を満たさないと判定された場合には、適性度の範囲にもっとも近い声データを一つ選択して、その声データvのみを保管・登録するようにしてもよい。
または、適性度の範囲にもっとも近い声データが適性の範囲となるように、データの変換処理を行い、変換された声データを保管するようにしてもよい。
また、データ送信手段17は、ユーザ端末2から利用要求があった場合に、指定された複合データ34を再生して、音および映像を送信するものとして説明した。しかし、データ送信手段17は、利用要求で指定された複合データ34のファイルをユーザ端末2に送信し、ユーザ端末2では一時記憶部を備えて、ダウンロードした複合データ34を一時的に保管し、音声出力手段22または画像出力手段24により再生するようにしてもよい。
また、データ送信手段17は、ユーザから要求された複合データ34を送信するものとして説明したが、データ送信手段17は、保管されている音声データ31の一覧を表示させて、該当する音声データ31を送信するようにしてもよい。
また、本発明は、コンピュータにより読み取られ実行される処理プログラムとして実施することができる。本発明を実現する処理プログラムは、コンピュータが読み取り可能な、可搬媒体メモリ、半導体メモリ、ハードディスクなどの適当な記録媒体に格納することができ、これらの記録媒体に記録して提供され、または、通信インタフェースを介して種々の通信網を利用した送受信により提供されるものである。
本発明の形態および実施例の特徴を列記すると以下のとおりである。
(付記1) 乳児をあやすために用いる乳児への呼びかけ声の音声データをデータ記憶手段に保管して、乳児をあやす行為を支援する処理方法であって、
ユーザ端末を識別するユーザ情報および乳児への呼びかけ声の音声データを入力し、
前記音声データの発話の状態を周波数の特性として示す韻律情報を取得し、
乳児への呼びかけ声に適する韻律情報上の特性を示した適性度範囲を備えて、前記適性度範囲をもとに、前記音声データの韻律情報が前記適性度範囲にあるか否かを判定し、
前記韻律情報が前記適性度範囲内である音声データを、前記ユーザ情報と対応させて前記データ記憶手段に格納し、
前記ユーザ端末から利用要求を受け付けた場合に、前記ユーザ端末のユーザ情報に対応する前記音声データを出力する
ことを特徴とする乳児あやし支援処理方法。
(付記2) 前記付記1記載の乳児あやし支援処理方法において、
前記韻律情報は、少なくともアクセントおよびイントネーションに関する周波数の特定を示す情報を含むものである
ことを特徴とする乳児あやし支援処理方法。
(付記3) 前記付記1記載の乳児あやし支援処理方法において、
前記ユーザ情報および前記音声データを入力する場合に、さらに画像データを入力し、
前記音声データおよび前記画像データを複合して複合データ作成し、前記複合データを前記ユーザ情報と対応させて前記データ記憶手段に格納し、
前記ユーザ端末から利用要求を受け付けた場合に、前記ユーザ端末のユーザ情報に対応する前記複合データを出力する
ことを特徴とする乳児あやし支援処理方法。
(付記4) 前記付記1記載の乳児あやし支援処理方法において、
前記ユーザ情報とともに、前記音声データの出力を繰り返す回数および複数の音声データの出力の順序を定める再生条件を入力し、
前記ユーザ端末から利用要求を受け付けた場合に、前記ユーザ端末のユーザ情報に対応する前記再生条件に従って前記音声データを出力する
ことを特徴とする乳児あやし支援処理方法。
(付記5) 前記付記1記載の乳児あやし支援処理方法において、
前記ユーザ情報とともに、ユーザ連絡先を取得し、
前記ユーザ端末から利用要求を受け付けた場合に、所定の期間内の前記利用要求の回数および前記音声データの出力時間を求め、
前記利用要求の回数が所定の回数を超えたときは、利用状況メッセージを作成し、前記ユーザ連絡先に前記利用状況メッセージを送信する
ことを特徴とする乳児あやし支援処理方法。
(付記6) 乳児をあやすために用いる乳児への呼びかけ声の音声データをデータ記憶手段に保管して、乳児をあやす行為を支援する乳児あやし支援処理システムで用いるデータ管理装置であって、
ユーザ端末を識別するユーザ情報および乳児への呼びかけ声の音声データを入力する手段と、
前記音声データの発話の状態を周波数の特性として示す韻律情報を取得する手段と、
乳児への呼びかけ声に適する韻律情報上の特性を示した適性度範囲を備えて、前記適性度範囲をもとに、前記音声データの韻律情報が前記適性度範囲にあるか否かを判定する手段と、
前記韻律情報が前記適性度範囲内である音声データを、前記ユーザ情報と対応させて前記データ記憶手段に格納する手段と、
前記ユーザ端末から利用要求を受け付けた場合に、前記ユーザ端末のユーザ情報に対応する前記音声データを出力する手段とを備える
ことを特徴とする乳児あやし支援処理システム用データ管理装置。
(付記7) 乳児をあやすために用いる乳児への呼びかけ声の音声データをデータ記憶手段に保管して、乳児をあやす行為を支援する乳児あやし支援処理を、コンピュータに実行させるためのプログラムであって、
ユーザ端末を識別するユーザ情報および乳児への呼びかけ声の音声データを入力する処理と、
前記音声データの発話の状態を周波数の特性として示す韻律情報を取得する処理と、
乳児への呼びかけ声に適する韻律情報上の特性を示した適性度範囲を備えて、前記適性度範囲をもとに、前記音声データの韻律情報が前記適性度範囲にあるか否かを判定する処理と、
前記韻律情報が前記適性度範囲内である音声データを、前記ユーザ情報と対応させて前記データ記憶手段に格納する処理と、
前記ユーザ端末から利用要求を受け付けた場合に、前記ユーザ端末のユーザ情報に対応する前記音声データを出力する処理とを、
コンピュータに実行させるための乳児あやし支援処理プログラム。
(付記8) 乳児をあやすために用いる乳児への呼びかけ声の音声データをデータ記憶手段に保管して、乳児をあやす行為を支援する乳児あやし支援処理を、コンピュータに実行させるためのプログラムを記録した記録媒体であって、
ユーザ端末を識別するユーザ情報および乳児への呼びかけ声の音声データを入力する処理と、
前記音声データの発話の状態を周波数の特性として示す韻律情報を取得する処理と、
乳児への呼びかけ声に適する韻律情報上の特性を示した適性度範囲を備えて、前記適性度範囲をもとに、前記音声データの韻律情報が前記適性度範囲にあるか否かを判定する処理と、
前記韻律情報が前記適性度範囲内である音声データを、前記ユーザ情報と対応させて前記データ記憶手段に格納する処理と、
前記ユーザ端末から利用要求を受け付けた場合に、前記ユーザ端末のユーザ情報に対応する前記音声データを出力する処理とを、
コンピュータに実行させるための乳児あやし支援処理プログラムを記録した記録媒体。
乳児あやし支援処理システムの構成例を示す図 本発明の処理の流れの概要を説明するための図 データ送信処理の詳細処理フローを示す図 ユーザ端末で表示される画面の例を示す図 データ登録処理および適性度判定処理の詳細処理フローを示す図 データ情報の例を示す図 韻律情報が追加されたデータ情報の例を示す図 韻律情報のある要素に対する3つのフレーズの周波数スペクトルの特徴の比較を示す図 再生条件設定処理の詳細処理フローを示す図 ユーザ端末で表示される画面の例を示す図 再生条件登録処理およびデータ複合処理の詳細処理フローを示す図 再生条件登録後のデータ情報の例を示す図 複合データの繋ぎ合わせの例を示す図 利用要求処理およびデータ受信処理の詳細処理フローを示す図 データ送信処理および利用状況管理処理の詳細処理フローを示す図 利用ログ情報およびユーザ情報の例を示す図
符号の説明
1 データ管理センタ
10 データ管理手段
11 音声データ取得手段
12 韻律情報取得手段
13 適性度判定手段
14 データ複合手段
15 画像データ取得手段
16 ユーザ管理手段
17 データ送信手段
2 ユーザ端末
21 音声入力手段
22 音声出力手段
23 画像入力手段
24 画像出力手段
30 データ情報
31 音声データ
32 適性度判定基準
33 画像データ
34 複合データ
35 ユーザ情報
36 利用ログ情報

Claims (5)

  1. 乳児をあやすために用いる乳児への呼びかけ声の音声データをデータ記憶手段に保管して、乳児をあやす行為を支援する処理方法であって、
    ユーザ端末を識別するユーザ情報および乳児への呼びかけ声の音声データを入力し、
    前記音声データの発話の状態を周波数の特性として示す韻律情報を取得し、
    乳児への呼びかけ声に適する韻律情報上の特性を示した適性度範囲を備えて、前記適性度範囲をもとに、前記音声データの韻律情報が前記適性度範囲にあるか否かを判定し、
    前記韻律情報が前記適性度範囲内である音声データを、前記ユーザ情報と対応させて前記データ記憶手段に格納し、
    前記ユーザ端末から利用要求を受け付けた場合に、前記ユーザ端末のユーザ情報に対応する前記音声データを出力する
    ことを特徴とする乳児あやし支援処理方法。
  2. 請求項1記載の乳児あやし支援処理方法において、
    前記ユーザ情報および前記音声データを入力する場合に、さらに画像データを入力し、
    前記音声データおよび前記画像データを複合して複合データ作成し、前記複合データを前記ユーザ情報と対応させて前記データ記憶手段に格納し、
    前記ユーザ端末から利用要求を受け付けた場合に、前記ユーザ端末のユーザ情報に対応する前記複合データを出力する
    ことを特徴とする乳児あやし支援処理方法。
  3. 請求項1記載の乳児あやし支援処理方法において、
    前記ユーザ情報とともに、前記音声データの出力を繰り返す回数および複数の音声データの出力の順序を定める再生条件を入力し、
    前記ユーザ端末から利用要求を受け付けた場合に、前記ユーザ端末のユーザ情報に対応する前記再生条件に従って前記音声データを出力する
    ことを特徴とする乳児あやし支援処理方法。
  4. 請求項1記載の乳児あやし支援処理方法において、
    前記ユーザ情報とともに、ユーザ連絡先を取得し、
    前記ユーザ端末から利用要求を受け付けた場合に、所定の期間内の前記利用要求の回数および前記音声データの出力時間を求め、
    前記利用要求の回数が所定の回数を超えたときは、利用状況メッセージを作成し、前記ユーザ連絡先に前記利用状況メッセージを送信する
    ことを特徴とする乳児あやし支援処理方法。
  5. 乳児をあやすために用いる乳児への呼びかけ声の音声データをデータ記憶手段に保管して、乳児をあやす行為を支援する乳児あやし支援処理システムで用いるデータ管理装置であって、
    ユーザ端末を識別するユーザ情報および乳児への呼びかけ声の音声データを入力する手段と、
    前記音声データの発話の状態を周波数の特性として示す韻律情報を取得する手段と、
    乳児への呼びかけ声に適する韻律情報上の特性を示した適性度範囲を備えて、前記適性度範囲をもとに、前記音声データの韻律情報が前記適性度範囲にあるか否かを判定する手段と、
    前記韻律情報が前記適性度範囲内である音声データを、前記ユーザ情報と対応させて前記データ記憶手段に格納する手段と、
    前記ユーザ端末から利用要求を受け付けた場合に、前記ユーザ端末のユーザ情報に対応する前記音声データを出力する手段とを備える
    ことを特徴とする乳児あやし支援処理システム用データ管理装置。
JP2003324039A 2003-09-17 2003-09-17 乳児あやし支援処理方法、および乳児あやし支援処理システム用データ管理装置 Expired - Fee Related JP4166134B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003324039A JP4166134B2 (ja) 2003-09-17 2003-09-17 乳児あやし支援処理方法、および乳児あやし支援処理システム用データ管理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003324039A JP4166134B2 (ja) 2003-09-17 2003-09-17 乳児あやし支援処理方法、および乳児あやし支援処理システム用データ管理装置

Publications (2)

Publication Number Publication Date
JP2005087431A JP2005087431A (ja) 2005-04-07
JP4166134B2 true JP4166134B2 (ja) 2008-10-15

Family

ID=34454904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003324039A Expired - Fee Related JP4166134B2 (ja) 2003-09-17 2003-09-17 乳児あやし支援処理方法、および乳児あやし支援処理システム用データ管理装置

Country Status (1)

Country Link
JP (1) JP4166134B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6433650B2 (ja) * 2013-11-15 2018-12-05 国立大学法人佐賀大学 気分誘導装置および気分誘導プログラムならびにコンピュータの動作方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056079A (ja) * 2000-08-10 2002-02-20 Konica Corp 画像サービスシステム
JP2002074560A (ja) * 2000-08-30 2002-03-15 Tamotsu Miyamoto 監視システム

Also Published As

Publication number Publication date
JP2005087431A (ja) 2005-04-07

Similar Documents

Publication Publication Date Title
US11544274B2 (en) Context-based digital assistant
JPH1051831A (ja) 無線メッセージ端末装置
JPWO2018030149A1 (ja) 情報処理装置及び情報処理方法
JP2007049657A (ja) 留守番電話装置
WO2012065567A1 (zh) 文本信息的转换方法及装置
US8553855B2 (en) Conference support apparatus and conference support method
JP5593759B2 (ja) 通話音声処理装置、通話音声制御装置および方法
JP2005520459A (ja) テキスト音声変換システムを備える携帯電話に使用される半導体チップ、携帯電話から聴覚的に通知またはテキストメッセージを表示する方法、及び携帯電話
JP4166134B2 (ja) 乳児あやし支援処理方法、および乳児あやし支援処理システム用データ管理装置
JP2003218999A (ja) 音声認識機能付き携帯電話装置及びその制御プログラム
JP4772315B2 (ja) 情報変換装置及び情報変換方法、並びに通信装置及び通信方法
JP2001109487A (ja) 電子メールの音声再生装置、その音声再生方法、及び音声再生プログラムを記録した記録媒体
JP2004184788A (ja) 音声対話システムおよびプログラム
JP7476598B2 (ja) 情報出力装置、情報出力方法及び情報出力プログラム
JP2007065291A (ja) 語学学習支援方法
JP2009053342A (ja) 議事録作成装置
JP2007259427A (ja) 携帯端末装置
JP2010176042A (ja) 歌唱音声録音カラオケシステム
JP3927155B2 (ja) 対話記録装置および対話記録プログラム
WO2018211750A1 (ja) 情報処理装置および情報処理方法
JP4353084B2 (ja) 映像再生方法及び装置及びプログラム
KR102219000B1 (ko) 정서발달장치 및 정서발달방법
JP5326539B2 (ja) 留守番電話システム、留守番電話サービスサーバ及び留守番電話サービス方法
KR102267651B1 (ko) 오디오 컨텐츠 제공 방법 및 장치
JP7087745B2 (ja) 端末装置、情報提供システム、端末装置の動作方法および情報提供方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080722

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080729

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130808

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees