JP4058031B2 - ユーザ行動誘発システム及びその方法 - Google Patents

ユーザ行動誘発システム及びその方法 Download PDF

Info

Publication number
JP4058031B2
JP4058031B2 JP2004274950A JP2004274950A JP4058031B2 JP 4058031 B2 JP4058031 B2 JP 4058031B2 JP 2004274950 A JP2004274950 A JP 2004274950A JP 2004274950 A JP2004274950 A JP 2004274950A JP 4058031 B2 JP4058031 B2 JP 4058031B2
Authority
JP
Japan
Prior art keywords
behavior
user
action
robot
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004274950A
Other languages
English (en)
Other versions
JP2006088251A (ja
Inventor
大介 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004274950A priority Critical patent/JP4058031B2/ja
Publication of JP2006088251A publication Critical patent/JP2006088251A/ja
Application granted granted Critical
Publication of JP4058031B2 publication Critical patent/JP4058031B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、サービス提供を介したユーザとロボットのインタラクションに基づく行動データベースの蓄積結果を利用して、ユーザの行動を促すロボットに関する。
近年、家庭内で、ユーザを楽しませるエンターテイメントロボットや、ユーザの役に立つロボットが研究・開発されている。前者のエンターテイメントロボットにおいては、ユーザを楽しませることが目的であり、飽きさせないことがその課題の一つとなっている。後者の役に立つロボットでは、ユーザの命令を聞いて行動するものや、ユーザの意図を認識しユーザに合った行動をするものが提案されている。
エンターテイメントロボットとしては、ロボットがユーザを飽きさせないような行動をさせるために、ロボット装置に行動獲得のための強化学習を行わせるものがある。その際、行動価値の学習率を動的に変更することを特徴とするロボット装置およびロボット制御方法、記録媒体、並びにプログラムが挙げられている(特許文献1を参照)。
役に立つロボットとしては、ユーザの生活習慣や生活環境等に応じて、あるいはユーザの嗜好に則して、各種機器を制御するコントローラとして、予めユーザの操作情報とその操作がなされたときの外的状況の情報を記憶し、現在のユーザの操作情報と外的状況の情報から、ユーザに適した操作信号を生成する統合コントローラ、機器制御方法及び機器制御プログラムが提案されており、その機器制御プログラムを適応したロボットが挙げられている(特許文献2を参照)。
また人間の行動をロボットが模倣することで、人間−ロボット間で対面コミュニケーションを実現する方法がある(非特許文献1を参照)。これは、人間とロボットとの対面コミュニケーションにおいて、人間の行動から音声情報と関節角度情報を取得し、ロボットはその取得情報を再現することで、人を模倣するというものである。
特開2003−340760公報 特開2003−111157公報 模倣を主体とした人間−ロボットコミュニケーションに関する基礎実験(第19回ロボット学会学術講演会予稿集(1J15)
上述したように、エンターテイメントロボットについてはユーザを飽きさせないために、ロボットへの入力信号に対する出力動作パターンを強化学習により変化させるものであり、また、役に立つロボットは、ユーザの過去の操作パターンを記録しておき、現在の状況から、次にユーザが行うであろう操作を先読みし、ユーザの代わりにロボットが実行するもので、ユーザの行動自体は特に反映されず、ユーザ自体に行動を促すことはできなかった。
更に、人間−ロボット間で対面コミュニケーションでは、人間とロボットの対面コミュニケーションが目的であり、ロボットは人間の模倣をするために、取得情報と出力情報は、同次元のものである必要(例えば、取得する人間の関節角度情報を用いるためには、ロボットもそれに対応する関節を有する必要がある)があるといった問題があった。
本発明では、上記した問題を解決するために、ユーザに合わせた出力が可能であり、それぞれのユーザに適した誘発行動を実行することが可能となるユーザ行動誘発システム及びユーザ行動誘発方法を提供することを目的とする。
上記した目標を達成するために、本発明では、センサからユーザ及びロボットの行動デ
ータを入力するデータ入力部と、このデータ入力部で入力したユーザの行動データからユ
ーザ行動の類似した行動毎に分類分けを行う行動分類処理部と、データ入力部で入力され
たロボットの行動データに対応する行動分類処理部で分類されたユーザ行動の発生確率を
求める因果関係推測部と、誘発したいユーザ行動を入力する指示入力部と、行動分類処理
部で分類されたユーザ行動から、誘発したいユーザ行動と類似したユーザ行動を検索する
類似度検索部と、類似度検索部で検索されたユーザ行動に対応するロボットの行動データ
の発生確率に基づいて、ロボットの行動データを抽出する行動検索部と、行動検索部によ
り抽出されたロボットの行動データをロボットに実行させるロボット行動処理部と、入力
された行動データを標準化し、その偏差の大きい箇所で時系列に沿ってユーザ行動毎に切
り分ける切り分け部と、前記切り分け部で切り分けられた前記行動データから特徴量を抽
出する特徴量抽出部と、前記特徴量をユーザ行動毎に無次元化し特徴パラメータを抽出す
る特徴量無次元化部とを具備し、前記行動分類処理部は、前記特徴パラメータを軸とした
多次元空間内の位置ベクトルから、類似した行動毎に行動データの分類分けを行うことを
特徴とする。
また、本発明では、センサからユーザ及びロボットの行動データを入力するデータ入力
ステップと、前記データ入力で入力したユーザの行動データからユーザ行動の類似した行
動毎に分類分けを行う行動分類ステップと、前記データ入力ステップで入力されたロボッ
トの行動データに対応する前記行動分類ステップで分類されたユーザ行動の発生確率を求
める因果関係推測ステップと、誘発したいユーザ行動を入力する指示入力ステップと、前
記行動分類ステップで分類されたユーザ行動から、前記誘発したいユーザ行動と類似した
ユーザ行動を検索する類似検索ステップと、前記類似検索ステップで検索されたユーザ行
動に対応するロボットの行動データの発生確率に基づいて、ロボットの行動データを抽出
する行動検索ステップと、前記行動検索ステップにより抽出されたロボットの行動データ
をロボットに実行させるロボット行動ステップと、入力された行動データの特徴量を標準
化し、その偏差の大きい箇所で時系列に沿ってユーザ行動毎に切り分ける切り分けステッ
プと、前記切り分け部で切り分けられた前記行動データから行動データ特徴量を抽出する
特徴量抽出ステップと、前記特徴量をユーザ行動毎に無次元化し特徴パラメータを抽出す
る特徴量無次元化ステップとを含み、前記行動分類処理ステップは、前記特徴パラメータ
を軸とした多次元空間内の位置ベクトルから、類似した行動毎に行動データの分類分けを
行うことを特徴とする。
これにより、ユーザに所望の行動をさせたい場合、その所望行動を過去にもたらしたロボット行動を検索し、そのロボットがその行動を実行することで、ユーザにある行動をするよう促す。
本発明により、ユーザに合わせた出力が可能であり、それぞれのユーザに適した誘発行動を実行することが可能である。またユーザの行動として、ユーザが“楽しんでいる”、“めったにない行動を取っている”などを考慮し、それを誘発することで、飽きさせない擬似的なコミュニケーションを図ることも可能である。
以下、本発明の実施の形態を図面に基づいて説明する。
本発明の実施の形態について、例えば車輪で移動し、頭部として2つの自由度(パン・チルト)を有するカメラ雲台を搭載したロボットを用いた、ユーザ行動誘発システムを示す。図1に本実施の形態の構成を、図2に本実施の形態のロボットの模式図を示す。
図1に示すように、本実施例は大きく分けて、データベースへのデータ蓄積処理部110と、データベースを用いたユーザ行動誘発処理部130とからなる。データ蓄積処理部110は、データ入力部111、切り分け部112、特徴量抽出部113、特徴量無次元化部114、行動分類処理部115、因果関係推測部116、ロボット行動記憶部117とから構成される。ユーザ行動誘発処理部130は、指示入力部131、類似度検索部132、行動検索部133、ロボット行動処理部134とから構成される。
図2に示すように、ユーザ200の行動を検出する入力装置は、室内に固定設置されているセンシング装置として、ユーザ200の位置を検出する位置検出用RFID201、ユーザの画像を取得する固定カメラ220、ユーザ200の音声を取得する固定マイク230があり、ロボット210に搭載されているセンシング装置として、頭部に設置されているカメラ211、マイク212、ロボット210の表面に設置され接触を検出するタッチセンサ213がある。
まず初めにデータベースのデータ蓄積処理部110の動作について示す。まずデータ入力部111では、固定センサ101−1〜101−N、ロボットに搭載されるセンサ102−1〜102−M等の各センシング装置からの出力(時系列データ)をあるサンプリング周期で入力し時系列DB121にこの時系列データを記憶させる。センシング装置からの出力はRFIDであれば室内での座標値(X,Y)、カメラであれば画像データ、音声であれば音声データ、タッチセンサであれば押された圧力値となる。また、音声データのように、単語などの抽象的なレベルに認識可能なものは、その単語としても記憶する。これら時系列データはユーザだけではなく、同時にロボットの行動についても記憶する。記憶されるロボットの行動としては、ロボットの位置(これはRFIDを用いても、ロボットの内部センサから自己位置認識部により算出されて位置でもよい)、ロボット雲台角度、ロボット発声音声データ等がある。発声音声データに関しても単語などの抽象的なものがあれば、その単語も記憶する。各データは、図3(a)に示したように、センサのサンプリング周期tごとの時系列データx(t)(ここでiは入力パラメータ)となる(単語などの抽象的なものは、例えば発声時点でのデータとする)。ここで、時間軸でデータ列を示すと図5(a)のようにサンプリング周期tごとの時系列データがセンシング装置から出力され、データ入力部111で時系列DBに記憶される。
次に、データ入力部111で入力された時系列データをある意味を持ったユーザ行動(U、U、・・・、U)として、図3(a)に示すよう時系列データを点線で囲まれた部分毎に切り分け部112で切り分ける。切り分ける方法としては、一定時間ごとに切り分ける方法や各データを標準化しその偏差の大きいところで切り分ける方法、または音声データがある場合にはその切れ目で切り分ける方法等を用いる。例えば、ユーザの位置を検出するセンサからのデータを用いて、その位置変化量の偏差の大きいところで切り分ければ、ユーザが歩いている際のユーザ行動と立ち止まった際のユーザ行動を切り分けることができる。また、その際のロボット行動も同様の方法を用いて切り分ける。ここで、時間軸でデータ列を示すと図5(b)のように時系列データはR〜R、U〜Uに切り分け部112で切り分けられる。
次に特徴量抽出部113では、ユーザ行動(U、U、・・・、U)の各要素時系列情報x(t)、x(t)、・・・、x(t)をそれぞれ一つの数値で表される特徴p(n)(jは特徴番号、nはユーザ行動番号)を抽出する。特徴としては、時系列データx(t)自体の平均値や最大値、最小値、標準偏差等や、時系列データx(t)から算出される変化量x’(t)や加速度量x’’(t)の平均値や最大値、最小値、標準偏差等、またはユーザ行動自体の時間等とする。例えばユーザの位置を検出するセンサからのデータを用いれば、この特徴p(n)は、そのユーザ行動中のユーザの平均移動速度や最大移動速度であったり、マイクロフォンからのデータを用いれば、最大音量であったり、音声データから算出した音の高低とする。図3(b)に示すように、特徴量抽出部113で抽出された各ユーザ行動の特徴量p(n)が特徴量DB122に記憶される。
次に特徴量無次元化部114は、数1に示されるように、各特徴の各ユーザ行動での標準偏差S(n)を算出し、この標準偏差S(n)から数2に示されるように無次元化し特徴パラメータP(n)を算出する。
Figure 0004058031
Figure 0004058031
そして特徴量無次元化部114は、図3(c)に示すようにユーザ行動毎に無次元化し特徴パラメータP(n)を無次元化特長量DB123に記憶する。また、数3で示されるようにユーザ行動自体をその特徴パラメータを軸とした多次元空間内の位置ベクトルuという形で表せる。
Figure 0004058031
行動分類処理部115では、ユーザ行動を示す位置ベクトルuの距離の長短から各行動の類似度を判定し、類似した行動ごとに分類分けを行う。例えば、図4(a)に示すように、ユーザ行動を示す位置ベクトルu、uはクラスタリングされユーザ行動Uと判定される。同様に、位置ベクトルu、uはそれぞれユーザ行動U、Uと判定される。更に、図4(a)の分類結果がユーザ行動分類DB124に記憶される。
因果関係推測部116は、分類された行動とその分類された行動を引き起こしたロボット行動を推測する。推測方法としては、例えば、図5(c)に示すように、ユーザ行動が起こる直前に行われていたロボット行動や、データベースの中から、あるユーザ行動が起こる前にたびたび行われていたロボット行動が原因となったユーザ行動であると推測する。そして、図4(b)に示すように、各ロボット行動に対する分類されたユーザ行動の発生確率を求め因果関係対応DB125に記憶する。
ロボット行動記憶部117は、この因果関係推測部116で推測された、あるユーザ行動の原因となるロボット行動をロボット行動DB126に記憶する。
続いて、ユーザ行動誘発処理部130の動作について示す。まず誘発したいユーザ行動を指示入力部131により入力する。入力者は行動を行うユーザ自身であっても、また別のユーザであっても構わない。次に類似度検索部132は、入力された情報から、ユーザ行動分類DB124を検索して、最も近いユーザ行動を抽出する。
行動検索部133は、抽出されたユーザ行動を引き出した(原因となった)ロボット行動を因果関係対応DBから検索し、ロボット行動処理部134は、そのロボット行動をロボット行動DB126から抽出して実行する。例えば、行動検索部133は因果関係対応DB125から最も確率の高いロボット行動を検索し、ロボット行動処理部134はこの確率の最も高いロボット行動をロボット行動DB126から抽出して、ロボット本体に出力する。そうすることで、誘発したいユーザ行動を促す行動をロボット本体が行う。
具体的には、例えば図6に示すように子供を起す場合を考える。親がロボットに子供Aを起して欲しい場合、親はロボットに対し、“子供Aを起して”を指示する(S1)。指示入力部131は“子供Aが起きた”という事象に最も近いユーザ行動をユーザ行動分類DB124から検索する(S2)。そしてユーザ行動を引き起こしたロボットの行動を検索し、それをロボットに実行させる。子供Aが起きた事象は、「ロボットが“起きろ!”と発話時に10%」、「“朝だ!”と発話時に5%」、「ロボットが壁に衝突したら90%の確率で起きた」、とする。この場合、最も起きた確率の高かった、“ロボットが壁に衝突する”をロボットは実行する(S3)。その結果の子供Aが起きたかどうかをデータ蓄積処理部110で検出して判定する(S4)。子供Aが起きた場合には、各データベースを更新する(S5)。もし、子供Aが起きなかった場合には、次に高い確率のロボットの行動をロボットに実行させ(S 6)、子供Aが起きたかどうかをデータ蓄積処理部110で検出して判定する。
上記の処理を繰り返すことで、ユーザの行動を効果的に、またそれぞれのユーザに合わせた誘発方法を実行することが可能となる。
ここでは、データ蓄積処理部110、ユーザ行動誘発処理部130、及び各データベース(DB)121〜126はロボット本体210内に構成されてもよく、ロボット本体210外に構成されてもよい。また、これら一部がロボット本体210内に構成されていても適用できる。
実施の形態のユーザ行動誘発システムを示す構成図 実施の形態のユーザ行動誘発システムを示す環境模式図 時系列DB、特徴量DB、無次元化特長量DBのデータ構造を示す図。 ユーザ行動分類DB、因果関係対応DBのデータ構造を示す図。 実施の形態のロボットとユーザの行動を示すタイムチャート 実施の形態のユーザ行動誘発システムを示すフローチャート
符号の説明
101−1〜101−N:固定センサ
102−1〜102−M:ロボット搭載センサ
110:データ蓄積処理部
111:記憶部
112:切り分け部
113:特徴量抽出部
114:特徴量無次元化部
115:行動分類処理部
116:因果関係推測部
117:ロボット行動記憶部
121:時系列DB
122:特徴量DB
123:無次元化特徴量DB
124:ユーザ行動分類DB
125:因果関係対応DB
126:ロボット行動DB
130:ユーザ行動誘発処理部
131:指示入力部
132:類似度検索部
133:行動検索部
134:ロボット行動処理部
200:ユーザ
201:位置検出用RFID
210:ロボット
211:カメラ
212:マイク
213:タッチセンサ
220:固定カメラ
230:固定マイク

Claims (4)

  1. センサからユーザ及びロボットの行動データを入力するデータ入力部と、
    前記データ入力部で入力したユーザの行動データからユーザ行動の類似した行動毎に分
    類分けを行う行動分類処理部と、
    前記データ入力部で入力されたロボットの行動データに対応する前記行動分類処理部で
    分類されたユーザ行動の発生確率を求める因果関係推測部と、
    誘発したいユーザ行動を入力する指示入力部と、
    前記行動分類処理部で分類されたユーザ行動から、前記誘発したいユーザ行動と類似し
    たユーザ行動を検索する類似度検索部と、
    前記類似度検索部で検索されたユーザ行動に対応するロボットの行動データの発生確率
    に基づいて、ロボットの行動データを抽出する行動検索部と、
    前記行動検索部により抽出されたロボットの行動データをロボットに実行させるロボッ
    ト行動処理部と、
    入力された行動データを標準化し、その偏差の大きい箇所で時系列に沿ってユーザ行動
    毎に切り分ける切り分け部と、
    前記切り分け部で切り分けられた前記行動データから特徴量を抽出する特徴量抽出部と

    前記特徴量をユーザ行動毎に無次元化し特徴パラメータを抽出する特徴量無次元化部と
    を具備し、
    前記行動分類処理部は、前記特徴パラメータを軸とした多次元空間内の位置ベクトルか
    ら、類似した行動毎に行動データの分類分けを行うことを特徴とするユーザ行動誘発シス
    テム。
  2. 前記特徴量無次元化部は、数1および数2に従って前記特徴パラメータを抽出すること
    を特徴とする請求項1記載のユーザ行動誘発システム。
    Figure 0004058031
    Figure 0004058031
    ここで、Sj(n)は標準偏差、pj(n)は前記特徴量、Pj(n)は前記特徴パラメ
    ータ。
  3. 前記特徴量無次元化部は、数3に従って前記位置ベクトルをも求めることを特徴とする
    請求項1記載のユーザ行動誘発システム。
    Figure 0004058031
    ここで、unは前記位置ベクトル。
  4. センサからユーザ及びロボットの行動データを入力するデータ入力ステップと、
    前記データ入力で入力したユーザの行動データからユーザ行動の類似した行動毎に分類
    分けを行う行動分類ステップと、
    前記データ入力ステップで入力されたロボットの行動データに対応する前記行動分類ス
    テップで分類されたユーザ行動の発生確率を求める因果関係推測ステップと、
    誘発したいユーザ行動を入力する指示入力ステップと、
    前記行動分類ステップで分類されたユーザ行動から、前記誘発したいユーザ行動と類似
    したユーザ行動を検索する類似検索ステップと、
    前記類似検索ステップで検索されたユーザ行動に対応するロボットの行動データの発生
    確率に基づいて、ロボットの行動データを抽出する行動検索ステップと、
    前記行動検索ステップにより抽出されたロボットの行動データをロボットに実行させる
    ロボット行動ステップと、
    入力された行動データを標準化し、その偏差の大きい箇所で時系列に沿ってユーザ行動
    毎に切り分ける切り分けステップと、
    前記切り分け部で切り分けられた前記行動データから特徴量を抽出する特徴量抽出ステ
    ップと、
    前記特徴量をユーザ行動毎に無次元化し特徴パラメータを抽出する特徴量無次元化ステ
    ップとを含み、
    前記行動分類処理ステップは、前記特徴パラメータを軸とした多次元空間内の位置ベク
    トルから、類似した行動毎に行動データの分類分けを行うことを特徴とするユーザ行動誘
    発方法。
JP2004274950A 2004-09-22 2004-09-22 ユーザ行動誘発システム及びその方法 Expired - Fee Related JP4058031B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004274950A JP4058031B2 (ja) 2004-09-22 2004-09-22 ユーザ行動誘発システム及びその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004274950A JP4058031B2 (ja) 2004-09-22 2004-09-22 ユーザ行動誘発システム及びその方法

Publications (2)

Publication Number Publication Date
JP2006088251A JP2006088251A (ja) 2006-04-06
JP4058031B2 true JP4058031B2 (ja) 2008-03-05

Family

ID=36229707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004274950A Expired - Fee Related JP4058031B2 (ja) 2004-09-22 2004-09-22 ユーザ行動誘発システム及びその方法

Country Status (1)

Country Link
JP (1) JP4058031B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100949439B1 (ko) 2008-06-30 2010-03-25 경희대학교 산학협력단 신뢰 모델에서 언페어 레이팅을 필터링하기 위한 행동 기반방법
JP5552710B2 (ja) * 2010-11-25 2014-07-16 株式会社国際電気通信基礎技術研究所 ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法
US10795326B2 (en) 2016-12-07 2020-10-06 Sony Corporation Information processing apparatus, and method
US20210103281A1 (en) * 2018-02-26 2021-04-08 Sony Corporation Information processor, information processing method, and program
JP7081619B2 (ja) * 2020-03-25 2022-06-07 カシオ計算機株式会社 機器の制御装置、機器、機器の制御方法及びプログラム
CN116541731B (zh) * 2023-05-26 2024-07-23 北京百度网讯科技有限公司 网络行为数据的处理方法、装置和设备

Also Published As

Publication number Publication date
JP2006088251A (ja) 2006-04-06

Similar Documents

Publication Publication Date Title
US11217246B2 (en) Communication robot and method for operating the same
US8321221B2 (en) Speech communication system and method, and robot apparatus
JP6754184B2 (ja) 音声認識装置及び音声認識方法
US8606735B2 (en) Apparatus and method for predicting user's intention based on multimodal information
KR20210142783A (ko) 전자장치, 그 동작방법, 및 복수의 인공지능장치를 포함한 시스템
KR20180071931A (ko) 전자 장치, 그의 사용자 발화 의도 판단 방법 및 비일시적 컴퓨터 판독가능 기록매체
US10521723B2 (en) Electronic apparatus, method of providing guide and non-transitory computer readable recording medium
CN112969995A (zh) 电子装置及其控制方法
JP2019053126A (ja) 成長型対話装置
KR102455056B1 (ko) 컨텍스트에 따라 이벤트의 출력 정보를 제공하는 전자 장치 및 이의 제어 방법
WO2002099545A1 (en) Man-machine interface unit control method, robot apparatus, and its action control method
US20220148576A1 (en) Electronic device and control method
KR20180106817A (ko) 전자 장치 및 제어 방법
JP4058031B2 (ja) ユーザ行動誘発システム及びその方法
KR101652705B1 (ko) 멀티 모달 정보를 이용하는 사용자 의도 추론 장치 및 방법
Ktistakis et al. A multimodal human-machine interaction scheme for an intelligent robotic nurse
CN110262767A (zh) 基于靠近嘴部检测的语音输入唤醒装置、方法和介质
CN110334244B (zh) 一种数据处理的方法、装置及电子设备
JP2007000938A (ja) 行動融和型ロボット装置
WO2007046613A1 (en) Method of representing personality of mobile robot based on navigation logs and mobile robot apparatus therefor
Amayri et al. A statistical process control chart approach for occupancy estimation in smart buildings
JP2005534065A (ja) マンマシンインタフェースユニットの動作及び/又は制御方法
US12020511B1 (en) Activity classification and repetition counting
RU2746201C2 (ru) Система и способ невербальной активации сервиса на мобильном устройстве
CN114047901B (zh) 人机交互方法及智能设备

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071214

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees