JP5137853B2 - 車載用音声認識装置 - Google Patents

車載用音声認識装置 Download PDF

Info

Publication number
JP5137853B2
JP5137853B2 JP2008553004A JP2008553004A JP5137853B2 JP 5137853 B2 JP5137853 B2 JP 5137853B2 JP 2008553004 A JP2008553004 A JP 2008553004A JP 2008553004 A JP2008553004 A JP 2008553004A JP 5137853 B2 JP5137853 B2 JP 5137853B2
Authority
JP
Japan
Prior art keywords
guidance
user
unit
determination unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008553004A
Other languages
English (en)
Other versions
JPWO2008084575A1 (ja
Inventor
悠希 住吉
鈴木  忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2008553004A priority Critical patent/JP5137853B2/ja
Publication of JPWO2008084575A1 publication Critical patent/JPWO2008084575A1/ja
Application granted granted Critical
Publication of JP5137853B2 publication Critical patent/JP5137853B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Traffic Control Systems (AREA)

Description

この発明は、ユーザの認識語彙理解度に応じて音声ガイタンスやテロップの案内を変更することのできる、車載用音声認識装置に関するものである。
音声認識技術の進歩に伴い、音声認識装置がカーナビゲーションシステムにも取り入れられようになった。これにより、車両走行中でも、例えば、住所を発話するだけで、全国で数万件もある施設をピンポイントで、かつ、安全に検索することができるようになった。また、目的地誘導等、ユーザが行なうシステム操作に対する音声案内も可能となり、双方向での会話が可能になった。
上記した音声認識装置において、従来、ユーザへの案内回数やユーザの反応時間から操作に対する慣れの程度を判定し、システム操作に対する慣れの程度が所定のレベルより高い場合に音声案内の速度を早くし、案内の情報を簡略化するものが知られている(例えば、特許文献1参照)。
また、ユーザに対する運転負荷の大きさとして車速情報、ハンドルの操舵角情報、車両の進退を判定し、判定した運転負荷レベルに基づいて、ユーザに対する自動音声案内を変更する車載用音声認識装置も知られている(例えば、特許文献2参照)。
特開2001−22370号公報 特開2004−348657号公報
上記した特許文献1に開示された技術によれば、ユーザのシステム操作の慣れに応じて音声案内を自動的に変更できるが、認識語彙を理解していないユーザに対して適した音声案内ができないといった問題があった。
また、特許文献2に開示された技術によれば、ユーザの運転負荷レベルに基づいて音声自動応答の方法を変更することが出来るが、ユーザ毎の認識語彙理解度を判定していないため、例えば、ユーザが案内を聞き取れていない(聞いていない)ために発話可能な語彙が理解できない状況にあっては、そのユーザに適した音声案内ができないといった問題があった。
この発明は上記した課題を解決するためになされたものであり、ユーザが案内を聞き取れていない、あるいは聞いていないために発話可能な語彙が理解できない状況にあっても案内内容を変化させることにより聞き取りやすくし、または聞き取れるようにし、ユーザが発話可能な語彙を把握できるようにした、車載用音声認識装置を得ることを目的とする。
この発明に係る車載用音声認識装置は、入力音声を取得する音声入力部と、取得した入力音声を音声認識する音声認識部と、音声認識の結果に基づきユーザに発話を促す案内を提示する案内情報出力部と、音声認識部による音声認識中に監視されるユーザ操作に対するタイムアウト回数、または訂正回数、またはタイムアウト回数と訂正回数の両方を取得し、その回数が多くなるにつれて案内に対する理解が低いことを示す認識語彙理解度を判定する認識語彙理解度判定部と、案内情報出力部が提示する案内を、認識語彙理解度判定部で判定された認識語彙理解度に応じて、その認識語彙理解度のユーザが把握できる内容または提示形態の案内に変更する案内内容決定部と、キー操作による訂正入力時のキー押圧力を判定するキー押下判定部と、センサによって検知される車両の現在位置、加速度、車速または操舵角を示す信号に基づき車両の走行状況を判定する走行状況判定部とを備え、認識語彙理解度判定部は、キー押下判定部から出力されるキー押圧力に応じて前記訂正回数に重み付けしてカウントし、当該重み付けした訂正回数と、前記走行状況判定部から出力される車両の走行状況を前記認識語彙理解度の判定に反映させることを特徴とするものである。
また、この発明に係る車載用音声認識装置は、入力音声を取得する音声入力部と、取得した入力音声を音声認識する音声認識部と、音声認識の結果に基づきユーザに発話を促す案内を提示する案内情報出力部と、音声認識部による音声認識中に監視されるユーザ操作に対するタイムアウト回数、または訂正回数、またはタイムアウト回数と訂正回数の両方を取得し、その回数が多くなるにつれて案内に対する理解が低いことを示す認識語彙理解度を判定する認識語彙理解度判定部と、案内情報出力部が提示する案内を、認識語彙理解度判定部で判定された認識語彙理解度に応じて、その認識語彙理解度のユーザが把握できる内容または提示形態の案内に変更する案内内容決定部と、キー操作による訂正入力時のキー押圧力を判定するキー押下判定部と、センサによって検知される車両のリバース情報やハンドルの操舵角に関する情報を示す信号に基づき車両の運転操作状態を判定する運転操作状態判定部とを備え、認識語彙理解度判定部は、キー押下判定部から出力されるキー押圧力に応じて訂正回数に重み付けしてカウントし、当該重み付けした訂正回数と、前記運転操作状態判定部から出力される車両の運転操作状態を認識語彙理解度の判定に反映させることを特徴とするものである。
また、この発明に係る車載用音声認識装置は、入力音声を取得する音声入力部と、取得した入力音声を音声認識する音声認識部と、音声認識の結果に基づきユーザに発話を促す案内を提示する案内情報出力部と、音声認識部による音声認識中に監視されるユーザ操作に対するタイムアウト回数、または訂正回数、またはタイムアウト回数と訂正回数の両方を取得し、その回数が多くなるにつれて案内に対する理解が低いことを示す認識語彙理解度を判定する認識語彙理解度判定部と、案内情報出力部が提示する案内を、認識語彙理解度判定部で判定された認識語彙理解度に応じて、その認識語彙理解度のユーザが把握できる内容または提示形態の案内に変更する案内内容決定部と、キー操作による訂正入力時のキー押圧力を判定するキー押下判定部と、センサによって検知されるユーザの発汗、心拍数、視線、あるいは音声入力時の口調を示す信号に基づきユーザの心理状態を判定するユーザ状態判定部とを備え、認識語彙理解度判定部は、キー押下判定部から出力されるキー押圧力に応じて訂正回数に重み付けしてカウントし、当該重み付けした訂正回数と、前記ユーザ状態判定部から出力されるユーザの心理状態を認識語彙理解度の判定に反映させることを特徴とするものである。
この発明によれば、上記のように案内の内容または提示形態を変更するよう構成したことにより、例えばユーザが案内を聞き取れていない、あるいは聞いていないために発話可能な語彙が理解できない状況にあっても案内を変化させることにより聞き取りやすくし、あるいは聞き取れるようにし、ユーザが発話可能な語彙を把握できるようにすることができる。
この発明の実施の形態1に係る車載用音声認識装置の構成を示すブロック図である。 この発明の実施の形態1に係る車載用音声認識装置の基本動作を説明するために引用したフローチャートである。 この発明の実施の形態2に係る車載用音声認識装置の動作を説明するために引用したフローチャートである。 この発明の実施の形態3に係る車載用音声認識装置の動作を説明するために引用したフローチャートである。 この発明の実施の形態4に係る車載用音声認識装置の動作を説明するために引用したフローチャートである。 この発明の実施の形態5に係る車載用音声認識装置の動作を説明するために引用したフローチャートである。 この発明の実施の形態1、2に係る車載用音声認識装置が使用するデータテーブルの一例を示す図である。 この発明の実施の形態3に係る車載用音声認識装置が使用するデータテーブルの一例を示す図である。 この発明の実施の形態4に係る車載用音声認識装置が使用するデータテーブルの一例を示す図である。 この発明の実施の形態5に係る車載用音声認識装置が使用するデータテーブルの一例を示す図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る車載用音声認識装置の構成を示すブロック図である。
図1において、この発明の実施の形態1に係る車載用音声認識装置1には、手動で操作してコマンド等データを入力するリモコンやタッチパネル等2と、音声入力のためにユーザの発話内容を集音するマイク3と、画像やテロップを表示する表示モニタ4と、音声出力を行なうスピーカ5と、各種センサ類(ここでは、車両の現在地を測位するGPS(Global Positioning System)6と、加速度を測定するGセンサ7と、外部センサから車両速度やハンドル操舵角などの情報を取得する車内LAN(Local Area Network)8が接続されている。
また、車載用音声認識装置1は、制御部11を制御中枢として備え、キー入力部9と、音声入力部10と、音声認識部12と、音声出力部13と、画面出力部14と、タイムアウト回数カウント部15と、訂正操作回数カウント部16と、走行状況判定部17と、運転操作状態判定部18と、ユーザ状態判定部19と、認識語彙理解度判定部20と、案内内容決定部21と、キー押下判定部22とによって構成される。
キー入力部9は、リモコンやタッチパネル2から入力されたコマンドを受付けて制御部11へ供給する。音声入力部10は、マイク3により集音されたコマンドを受付けて制御部11へ供給する。音声認識部12は、音声認識を行い、認識結果を制御部11へ引き渡す。音声認識部12による音声認識結果は、音声出力部13により音声で、あるいは画面出力部14により画像でユーザに提示される。
タイムアウト回数カウント部15は、音声操作中のタイムアウト回数をカウントし、また、訂正操作回数カウント部16は、音声操作中の訂正操作回数をカウントしてそれぞれ制御部11へ供給する。走行状況判定部17は、車両が現在停車中か運転中かの走行状況を判定し、また、運転状態判定部18は、車の進退・ハンドルの操舵等の運転状況を取得してそれぞれ制御部11へ供給する。
また、ユーザ状態判定部19は、例えば、ハンドルに取り付けられたセンサにより取得されるユーザの発汗・心拍数・視線・口調などの情報からユーザの心理状態を判定して制御部11へ供給する。
認識語彙理解度判定部20は、制御部11による制御の下、タイムアウト回数カウント部15、訂正操作回数カウント部16、走行状況判定部17、運転操作状態判定部18、ユーザ状態判定部19のそれぞれから情報を取得して、ユーザが音声認識可能な語彙をどの程度理解しているかを示す認識語彙理解度を判定して制御部11へ供給する。また、案内内容決定部21は、制御部11による制御の下、認識語彙理解度判定部20により出力されるユーザの認識語彙理解度に基づきユーザに対して出力する音声ガイダンス、あるいはテロップ等による案内を変更する。
なお、キー押下判定部22は、ユーザがリモコン2のキーを押下したときの押圧力、もしくはキー押下時間を判定して制御部11へ供給する。
制御部11は、例えば、マイコンによって構成され、キー入力部9や音声入力部10から受付けたコマンドに対応する処理を行うために上記した各制御ブロック12〜21へ命令を出力する。なお、ここでは、音声出力部13と画面出力部14を総称して案内情報出力部という。
図2は、この発明の実施の形態1に係る車載用音声認識装置の基本動作を説明するために引用したフローチャートである。
以下、図2に示すフローチャートを参照しながら、図1に示す実施の形態1に係る車載用音声認識装置の動作について詳細に説明する。
制御部11は、常に、キー入力部9からのキー入力を監視しており、まず、手動操作による発話キーの押下があるか否かを判定する(ステップST201)。発話キーの押下があった場合は(ステップST201“Yes”)、以下に説明する決められた手順にしたがい音声認識処理を実行するものとする。
ここでは、発話キーの押下があったことを契機に音声認識処理を開始するため、制御部11が発話キーの押下を監視しているが、音声入力開始が別の操作で定義されている場合はその操作を監視することになる。発話キーが押下された場合は、タイムアウト回数カウント部15がタイムアウト回数を0(初期化)に設定し(ステップST202)、かつ、訂正操作回数カウント部16が訂正操作回数を0(初期化)に設定する(ステップST203)。
続いて、制御部11の制御の下、認識語彙理解度判定部20では、ユーザの認識語彙に対する理解度を判定する。具体的に、認識語彙理解度判定部20は、例えば、図7に示した認識語彙理解度判定情報をテーブルデータとして内蔵しており、当該テーブルデータを参照することにより、ユーザの認識語彙に対する理解度を、タイムアウト回数と訂正回数とから判定する(ステップST204)。なお、ここでは、認識語彙理解度判定部20が、タイムアウト回数と訂正回数からユーザの認識語彙に対する理解度を判定することとするが、タイムアウト回数と訂正回数のいずれか1つにより判定してもよい。
すなわち、ステップST202とステップST203でタイムアウト回数および訂正操作回数がともに「0」となっているため、図6に示すテーブルデータから理解度は「10」と判定され、当該判定されたユーザの認識語彙理解度に基づき案内内容決定部21で案内の内容を決定する(ステップST205)。続いて、案内内容決定部21は、音声出力部13または画面出力部14を起動して音声ガイダンス、あるいはテロップを表示させることによって案内をユーザに提示する(ステッブST206)。ここで、提示される案内の内容については後述する。
続いて、案内に対して入力された音声を音声認識部12が音声認識処理を行うが(ステップST207)、所定の時間内にユーザによる音声入力がなされずタイムアウトが検出された場合は(ステップST208“Yes”)、タイムアウト回数カウント部15がタイムアウト回数を+1更新して(ステップST209)、認識語彙理解度判定情報からユーザの認識語彙判定を行うステップST204の処理に戻る。図6に示されるように、タイムアウト回数と訂正操作回数が多くなるにつれて認識語彙理解度は低い値になる。
なお、タイムアウトが検出されなかった場合(ステップST208“No”)、制御部11は、音声出力部13もしくは画面出力部14を起動して音声認識部12による音声認識結果をユーザに提示する(ステップST210)。
制御部11は、認識結果提示後にキー入力部9によるキー入力を監視し、訂正キーが押下されたか否かを判定する(ステップST211)。訂正キーが押下された場合は(ステップST211“Yes”)、訂正操作回数カウント部16が訂正操作回数を+1更新して(ステップST212)、ユーザの認識語彙理解度判定を行うステップST204の処理に戻る。訂正キーが操作されなかった場合は(ステップST211“No”)、制御部11は案内の続きを提示しなければならないか否かを判定する(ステップST213)。なお、ここでは訂正操作がキー押下により行われるものとして説明したが、訂正操作が別の方法で定義されている場合は制御部11がその操作を監視するものとする。
案内の続きがある場合(ステップST213“Yes”)、車載用音声認識装置1はタイムウト回数を初期化するステップST202に戻る。案内の続きがなければ(ステップST213“No”)、音声認識処理を終了する。
上記した実施の形態1によれば、音声認識処理中のタイムアウト回数または訂正回数、またはその両方に基づいてユーザの認識語彙理解度を判定し案内を変更することにより、ユーザが音声認識可能な語彙を理解できるような案内を提示することができる。
実施の形態2.
上記した実施の形態1では、音声認識処理中のタイムアウト回数と訂正回数、またはその両方に基づいてユーザの認識語彙理解度を判定したが、以下に説明する実施の形態2では、キー押下判定部22がリモコンキー押下時の押圧力、または押下時間またはその両方を監視し、その押圧力、または押下時間、またはその両方に応じて訂正回数のカウントに重み付けを付し、認識語彙理解度の判定に反映させるようにしたものである。
例えば、キー押下判定部22が、ユーザがキーを強く押した場合は理解度が低いと判定されるように重み付けし、認識語彙理解度判定部20がその重みを考慮して理解度を判定して案内の方法を変更することとした。押下時間についても同様である。このとき、認識語彙理解度判定部20は、実施の形態1同様、図7に示した認識語彙理解度判定情報が記憶されたデータテーブルを参照するものとする。以下、図2に示す基本動作、および図3に示すフローチャートを参照しながら実施の形態2に係る車載用音声認識装置の動作について詳細に説明する。
図2に示す基本動作のステップST201からステップST211の処理は、実施の形態1と同様である。車載用音声認識装置1は、ステップST211の処理において、訂正キーが押下したと判定された場合(ステップST211“Yes”)、図3に示すステップST214以降の処理を実行する。
図3のフローチャートにおいて、ステップST214では、キー押下判定部22は、ユーザがリモコン/タッチパネル2に割り付けられた訂正キーを押したときの押下圧(強さ)を判定する。押下圧は、訂正キーの下に実装される例えば、圧電センサから取得することができる。ここで、訂正キーが強く押されたと判定された場合、訂正操作回数カウント部16が、例えば、訂正操作回数+2、弱く押されていた場合は訂正操作回数+1とするように、キー押下の強さによって訂正操作回数に重み付けしてカウントし(ステップST215)、認識語彙理解度判定処理を行う図2に示す基本動作のステップST204の処理に戻る。なお、キー押下の強弱の判定は、キー押下判定部22が、標準押下圧と比較することにより判定するものとする。
上記した実施の形態2によれば、認識語彙理解度判定部20は、キー押下判定部22から出力されるキー押圧力を案内に対するユーザの認識語彙理解度の判定に反映させることより、ユーザに適した案内を提示することができる。
実施の形態3.
上記した実施の形態1、2では、認識語彙理解度判定部20は、音声認識時のタイムアウト回数と訂正回数または、その両方に基づいてユーザの認識語彙理解度を判定したが、以下に説明する実施の形態3では、更に、走行状況判定部17により判定される車両の走行状況も考慮してユーザの認識語彙理解度判定を行い、ユーザに適した案内を提示することとした。
例えば、停車中にタイムアウトした場合には、認識語彙理解度判定部20は、停車中は走行中に比べ、騒音が少なく、案内が聞き取りやすいにもかかわらずタイムアウトしたことからユーザが認識可能な語彙を理解していないと判定し、それによって、案内を変更させる。走行状況の判定は、GPS6やGセンサ7によってそれぞれ取得される車両の現在位置、加速度情報、あるいは車内LAN8を介して取得される車速、操舵角等の情報を用いることとする。
以下、図2に示す基本動作および図4に示すフローチャートを参照しながら実施の形態3に係る車載用音声認識装置の動作について詳細に説明する。
図2に基本動作として示すステップST201からST206の処理は、上記した実施の形態1、2と同様である。車載用音声認識装置1は、ステップST206でユーザに案内を提示した後、図4のフローチャートに示すステップST216の処理に進む。ステップST216において、走行状況判定部17は、GPS6やGセンサ7などの情報を監視して車両が走行中か停車中かを判定して制御部11に供給し、図2に示す音声認識処理を実行する基本動作ステップST207の処理に戻る。
ここで、認識語彙理解度判定部20は、例えば、図8に示した認識語彙理解度判定情報をテーブルデータとして内蔵している。このため、認識語彙理解度判定部20は、タイムアウトや訂正操作後にユーザに案内を行う場合、上記したデータテーブルを参照することにより、タイムアウト回数または訂正操作回数またはその両方と、走行状況とからユーザの認識語彙理解度を判定する(ステップST204)。
例えば、タイムアウト回数が1回、訂正操作回数が0回、走行状況が停車中であった場合は、図8に示したデータテーブルから理解度は「4」となる。ここでは、停車中であったにもかかわらずユーザは発話できなかったものと考え、ユーザの認識語彙の理解度は低く設定される。ステップST205では、ステップST204で判定した理解度に基づき案内内容決定部21が案内の内容をユーザの理解度に合わせて変更する。ここでは、ステップST204で判定した認識語彙理解度が比較的低いため、案内をわかりやすく提示するように案内内容が変更される。案内内容については後述する。
上記した実施の形態3によれば、認識語彙理解度判定部20は、走行状況判定部17から出力される車両の走行状況を音声案内に対するユーザの認識語彙理解度の判定に反映させることにより、走行状態に適した案内を提示することができる。
実施の形態4.
以下に説明する実施の形態4では、ユーザの運転状態を判定する運転操作状態判定部18を備え、音声認識時にタイムアウトや訂正操作された場合に、認識語彙理解度判定部20が運転状況を考慮して認識語彙理解度判定を行う構成とした。
例えば、車両を後退(リバース)させていたためにタイムアウトした場合には、認識語彙理解度判定部20は、後退運転の際の発話が困難なことを考慮して、ユーザの理解度を普通(低くはない)と設定し、案内を行うものである。以下、図2に示す基本動作および図5に示すフローチャートを参照しながら実施の形態4に係る車載用音声認識装置の動作について詳細に説明する。
図2に基本動作として示すステップST201からST206の処理は、上記した実施の形態1、2、3と同様である。車載用音声認識装置1は、ステップST206でユーザに案内を提示した後、図5に示すステップST217の処理に進む。
ステップST217では、運転操作状態判定部18が、運転の操作状態として車両のリバース情報(車を後退させているか否か)やハンドルの操舵角に関する情報等を取得する。なお、運転操作状態は、車内LAN8等を介して取得可能な車速などの情報を利用するものとする。運転操作状態判定部18は、ステップST217で運転操作状態を取得後、図2に示す基本動作のステップST207の処理に戻る。
ここでは、認識語彙理解度判定部20は、例えば、図9に示す認識語彙理解度判定情報をデータテーブルとして内蔵する。そして、タイムアウトや訂正操作後にユーザに案内を行う場合、ステップST204で、認識語彙理解度判定手段20が、タイムアウト回数または訂正操作回数またはその両方と、運転操作状態とからユーザの認識語彙理解度を判定する。例えば、タイムアウト回数が1回、訂正操作回数が0回、運転操作状態がリバースを示し、ハンドルを大きく回している(操舵角が大)場合は、図9に示すデータテーブルから認識語彙理解度は「10」になる。ここでは、タイムアウトはしたが、ユーザは車を後退させ、ハンドルを回す操作に集中していることを考慮して、理解度が比較的高いものと設定されている。
ステップST205では、ステップST204で判定した認識語彙理解度に基づき、案内内容決定部21が案内の内容をユーザの認識語彙理解度に合わせて変更する。例えば、ステップST204で判定した理解度が比較的高いため、案内をわかりやすくする処理は行わないようにする。
上記した実施の形態4によれば、認識語彙理解度判定部20は、運転操作状態判定部18から出力される車両の運転操作状態を案内に対するユーザの認識語彙理解度の判定に反映させることにより、運転操作状態に適した案内を行なうことができる。
実施の形態5.
以下に説明する実施の形態5では、例えば、ハンドル等に設置されたセンサ類によって検知される信号によりユーザの心理状態を判定するユーザ状態判定部19を更に備え、音声認識時にタイムアウトや訂正操作された場合に、認識語彙理解度判定部20がユーザの状態を考慮して理解度を判定する構成とした。
認識語彙理解度判定部20は、例えば、心拍数があがっていた場合は音声操作に慣れていない等の判定を行い、ユーザの認識語彙理解度が低いとして、案内を変更させるものである。ここで、ユーザの状態は、発汗、心拍数、視線をセンシングし、あるいはユーザの音声入力時の口調を利用することが考えられる。以下、図2に示す基本動作および図6に示すフローチャートを参照しながら実施の形態5に係る車載用音声認識装置の動作について詳細に説明する。
図2に基本動作として示すステップST201からST206の処理は、上記した実施の形態1、2と同様である。車載用音声認識装置1は、ステップST206でユーザに案内を提示した後、図6に示すステップST218の処理に進む。
ステップST218では、ユーザ状態判定部19が、ユーザの発汗や心拍数や視線をセンシングすることでユーザの心理状態を取得する。そして、ステップST219で案内に対して入力された音声を音声認識処理部12が認識処理し、ステップST220の処理へ進む。ステップST220では、ユーザ状態判定部19が、ユーザが音声入力するときの口調を取得し、図2の基本動作ステップST208の処理に戻る。
ここで、認識語彙理解度判定部20は、図10に示す認識語彙理解度判定情報をデータテーブルとして内蔵する。そして、タイムアウトや訂正操作後にユーザに案内を行う場合、ステップST204で、認識語彙理解度判定手段20がタイムアウト回数または訂正操作回数またはその両方と、ユーザ状態とからユーザの認識語彙理解度を判定する。
例えば、タイムアウト回数が1回、訂正操作回数が0回、ユーザ状態として発汗あり、心拍数が高い・視線が定まらない・口調が弱いと判定されていた場合は、上記したデータテーブルを参照することにより、理解度は「1」となる。ここでは、タイムアウトは1回であるが、ユーザは発話語彙がわからず戸惑っている状態であると考え、理解度が低く設定されている。ステップST205では、ステップST204で判定された認識語彙理解度に基づき、案内内容決定部21が案内の内容をユーザの理解度に合わせて変更する。個々では、ステップST204で判定した理解度が比較的低いため、案内をわかりやすく提示するように案内内容が変更される。案内のバリエーションについては後述する。
上記した実施の形態5によれば、認識語彙理解度判定部20は、ユーザ状態判定部19から出力されるユーザの心理状態に関する情報を案内に対するユーザの認識語彙理解度の判定に反映させることにより、ユーザの心理状態に適した案内を行なうことができる。
以下、上記した実施の形態1〜5における案内の変更方法について説明する。案内内容の変更は、案内内容決定部21が、認識語彙理解度判定部20によって出力されるユーザの認識語彙理解度に基づいて判定する。変更された案内内容は、制御部11を経由して、音声出力部13(スピーカ5)あるいは画面出力部14(表示モニタ4)により音声もしくは画像で出力される。
案内内容決定部21は、ユーザの認識語彙理解度が低い場合には、案内を詳しく設定して発話語彙をユーザに把握させることができる。詳しい案内については、あらかじめメッセージを複数用意しておいて切り替えるか、または動的に生成するなどの方法を用いる。変更方法の例として、例えば、図2に示す基本動作のステップST206で、音声出力部13あるいは画面出力部14が「続きの住所をお話しください」と提示したが、タイムアウトや訂正操作によりステップST204の処理に戻り、ステップST204で、ユーザの理解度が低いと判定された場合、その案内は、「市区町村または住所番号をお話しください」のように変更される。さらに、タイムアウトや誤認識による訂正操作により、再びステップST204の処理に戻り、ステップST204でユーザの理解度が低いと判定された場合、音声出力部13あるいは画面出力部14が「三田市三輪2丁目などとお話しください」と提示することが考えられる。
また、ユーザの認識語彙理解度が低い場合には、案内内容決定部21が案内のスピードを比較的ゆっくりしたレベルに設定して発話語彙をユーザに把握させることも考えられる。この場合、案内内容決定部21は、あらかじめ案内のスピードのレベルを設定しておき、図2の基本動作のステップST205で、理解度が低いと判定された場合には、案内内容決定部21がスピードのレベルを設定し直す必要がある。
更に、ユーザの認識語彙理解度が低い場合には、案内開始時に音または画像またはその両方により注意を促し、ユーザが案内に注意が向くように仕向けることにより、その案内内容から発話語彙をユーザに把握させることができる。これは、案内内容決定部21があらかじめ案内開始時に鳴らす音(ビープ音)等を用意しておき、図2に示す基本動作のステップST205で、音を鳴らす場合のみ設定を行う。このとき、案内開始時に鳴らす音は複数種類用意しておき、認識語彙理解度によって使い分けても良い。
また、ユーザの理解度が低い場合には、案内内容の中の発話可能な語彙を示す部分の音量を大きくして、発話語彙をユーザに把握させることも考えられる。この場合、案内内容決定部21は、あらかじめ、案内内容の発話語彙を示す部分であることを情報として持っておき、また、音量のレベルを設定できるようにしておく。
図2に示す基本動作のステップST205で、案内内容決定部21によって、案内の中で発話可能な部分の音声のレベルを設定し直す必要がある(音量を大きくするように設定するまたは、発話可能な語彙の音量はそのままで、それ以外の部分の音量を下げる。)
また、ユーザの認識語彙理解度が低い場合には、画面表示による案内の表示形態を変更してもよい。例えば、案内の中で発話可能な語彙を示す部分の文字を大きくする、太字にする、色を変える、強調表示する等である。画面出力部14がこのように画面表示を見易く制御することにより発話語彙をユーザに把握させる。また、画面出力部14があらかじめ表示形態の変更後の文字列を用意しておくか、または動的に文字列を生成しても良い。
変更方法の例として、図2に示す基本動作のステップST206で、「住所または施設とお話しください」と画面に表示したが、タイムアウトや訂正操作によりステップST204の処理に戻り、ステップST204でユーザの理解度が低いと判定された場合、画面出力部14が案内の表示を「住所または施設とお話しください」と強調表示することが考えられる。
また、ユーザの理解度が低い場合には、上記した案内変更方法を組み合わせることにより、発話語彙をユーザに把握させることも可能である。変更方法の例として、図2の基本動作のステップST206で、「ピッと鳴ったらお話しください」と提示したが、タイムアウトや訂正操作によりステップST204の処理に戻り、ステップST204でユーザの理解度が低いと判定された場合、音声での案内をビープ音+「住所または施設とお話しください」とする。また、画面表示を「住所または施設とお話しください」のように変更するようにしてもよい。
以上説明のように、この発明の実施の形態1〜5に係る車載用音声認識装置1は、認識語彙理解度判定部20が、音声認識部12による音声認識処理中に監視される、少なくとも、ユーザ操作に対するタイムアウト回数または訂正回数、またはその両方により、案内に対するユーザの認識語彙理解度を判定し、案内内容決定部21を制御して案内情報出力部(音声出力部13もしくは画面出力部14)による案内を変更するものであり、このとき、ユーザの認識語彙理解度によって、音声あるいは画面表示による案内を変更し、あるいは案内音声のスピードを変更し、あるいは案内の表示形態を変更することにより、ユーザに適切な案内を行なうことができる。
また、案内開始時にビープ音を報知することにより、あるいは、車載用音声認識装置1からの案内に含まれる発話語彙を示す部分の音量を大きくすることにより、案内を聞いていないまたは聞き取れていないために認識語彙理解度が低いユーザに対して車載用音声認識装置1からの案内に対して注意を喚起することが可能となり、かつ、適切な案内をおこなうことができる。
なお、上記した車載用音声認識装置1を構成する各ブロック9〜21がそれぞれ持つ機能は、車載用音声認識装置1が内蔵する不図示のメモリに記憶されるそれぞれのプログラムを制御部11が読み出し実行することにより達成されるものであって、制御部11内において実体的に他のブロックと区分され内蔵されるもののみを指すのではなく、あくまで説明の簡略化のために各処理部を分けて表現したものである。また、上記した各ブロックの機能は、全てをソフトウェアによって実現しても、あるいはその少なくとも一部をハードウエアで実現してもよい。なお、このとき、図6〜図10に示したデータテーブルは、上記した不図示のメモリに割当てられあらかじめ登録されてあるものとする。
以上のように、この発明に係る車載用音声認識装置は、音声案内内容を変化させることで、ユーザが案内を聞き取りやすくなり、発話可能な語彙を把握することのできる車載用音声認識装置としたので、カーナビゲーションシステムなどに用いるのに適している。

Claims (8)

  1. 入力音声を取得する音声入力部と、
    前記取得した入力音声を音声認識する音声認識部と、
    前記音声認識の結果に基づきユーザに発話を促す案内を提示する案内情報出力部と、
    前記音声認識部による音声認識中に監視されるユーザ操作に対するタイムアウト回数、または訂正回数、またはタイムアウト回数と訂正回数の両方を取得し、その回数が多くなるにつれて前記案内に対する理解が低いことを示す認識語彙理解度を判定する認識語彙理解度判定部と、
    前記案内情報出力部が提示する案内を、前記認識語彙理解度判定部で判定された認識語彙理解度に応じて、その認識語彙理解度のユーザが把握できる内容または提示形態の案内に変更する案内内容決定部と、
    キー操作による訂正入力時のキー押圧力を判定するキー押下判定部と、
    センサによって検知される車両の現在位置、加速度、車速または操舵角を示す信号に基づき車両の走行状況を判定する走行状況判定部と
    を備え、
    前記認識語彙理解度判定部は、前記キー押下判定部から出力されるキー押圧力に応じて前記訂正回数に重み付けしてカウントし、当該重み付けした訂正回数と、前記走行状況判定部から出力される車両の走行状況とを前記認識語彙理解度の判定に反映させることを特徴とする車載用音声認識装置。
  2. 入力音声を取得する音声入力部と、
    前記取得した入力音声を音声認識する音声認識部と、
    前記音声認識の結果に基づきユーザに発話を促す案内を提示する案内情報出力部と、
    前記音声認識部による音声認識中に監視されるユーザ操作に対するタイムアウト回数、または訂正回数、またはタイムアウト回数と訂正回数の両方を取得し、その回数が多くなるにつれて前記案内に対する理解が低いことを示す認識語彙理解度を判定する認識語彙理解度判定部と、
    前記案内情報出力部が提示する案内を、前記認識語彙理解度判定部で判定された認識語彙理解度に応じて、その認識語彙理解度のユーザが把握できる内容または提示形態の案内に変更する案内内容決定部と、
    キー操作による訂正入力時のキー押圧力を判定するキー押下判定部と、
    センサによって検知される車両のリバース情報やハンドルの操舵角に関する情報を示す信号に基づき車両の運転操作状態を判定する運転操作状態判定部と
    を備え、
    前記認識語彙理解度判定部は、前記キー押下判定部から出力されるキー押圧力に応じて前記訂正回数に重み付けしてカウントし、当該重み付けした訂正回数と、前記運転操作状態判定部から出力される車両の運転操作状態とを前記認識語彙理解度の判定に反映させることを特徴とする車載用音声認識装置。
  3. 入力音声を取得する音声入力部と、
    前記取得した入力音声を音声認識する音声認識部と、
    前記音声認識の結果に基づきユーザに発話を促す案内を提示する案内情報出力部と、
    前記音声認識部による音声認識中に監視されるユーザ操作に対するタイムアウト回数、または訂正回数、またはタイムアウト回数と訂正回数の両方を取得し、その回数が多くなるにつれて前記案内に対する理解が低いことを示す認識語彙理解度を判定する認識語彙理解度判定部と、
    前記案内情報出力部が提示する案内を、前記認識語彙理解度判定部で判定された認識語彙理解度に応じて、その認識語彙理解度のユーザが把握できる内容または提示形態の案内に変更する案内内容決定部と、
    キー操作による訂正入力時のキー押圧力を判定するキー押下判定部と、
    センサによって検知されるユーザの発汗、心拍数、視線、あるいは音声入力時の口調を示す信号に基づきユーザの心理状態を判定するユーザ状態判定部と
    を備え、
    前記認識語彙理解度判定部は、前記キー押下判定部から出力されるキー押圧力に応じて前記訂正回数に重み付けしてカウントし、当該重み付けした訂正回数と、前記ユーザ状態判定部から出力されるユーザの心理状態とを前記認識語彙理解度の判定に反映させることを特徴とする車載用音声認識装置。
  4. 前記案内情報出力部は、
    前記認識語彙理解度判定部により判定されるユーザの認識語彙理解度が低くなるにしたがって前記案内を詳細な内容に変更することを特徴とする請求項1から請求項3のうちのいずれか1項記載の車載用音声認識装置。
  5. 前記案内情報出力部は、
    前記認識語彙理解度判定部により判定されるユーザの認識語彙理解度が低くなるにしたがって前記案内の速度を低速度とすることを特徴とする請求項1から請求項4のうちのいずれか1項記載の車載用音声認識装置。
  6. 前記案内情報出力部は、
    前記認識語彙理解度判定部により判定されるユーザの認識語彙理解度が低くなると前記案内開始時に音または表示、もしくは音と表示により報知することを特徴とする請求項1から請求項5のうちのいずれか1項記載の車載用音声認識装置。
  7. 前記案内情報出力部は、
    前記認識語彙理解度判定部により判定されるユーザの認識語彙理解度が低くなると前記案内に含まれる発話語彙を示す箇所の音量を他の箇所の音量に比べ相対的に大きくなるよう設定することを特徴とする請求項1から請求項6のうちのいずれか1項記載の車載用音声認識装置。
  8. 前記案内情報出力部は、
    前記認識語彙理解度判定部により判定されるユーザの認識語彙理解度に基づき画面への表示形態を変化させることを特徴とする請求項1から請求項7のうちのいずれか1項記載の車載用音声認識装置。
JP2008553004A 2006-12-28 2007-09-27 車載用音声認識装置 Expired - Fee Related JP5137853B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008553004A JP5137853B2 (ja) 2006-12-28 2007-09-27 車載用音声認識装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006355785 2006-12-28
JP2006355785 2006-12-28
PCT/JP2007/068851 WO2008084575A1 (ja) 2006-12-28 2007-09-27 車載用音声認識装置
JP2008553004A JP5137853B2 (ja) 2006-12-28 2007-09-27 車載用音声認識装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011205978A Division JP2012027487A (ja) 2006-12-28 2011-09-21 車載用音声認識装置

Publications (2)

Publication Number Publication Date
JPWO2008084575A1 JPWO2008084575A1 (ja) 2010-04-30
JP5137853B2 true JP5137853B2 (ja) 2013-02-06

Family

ID=39608473

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008553004A Expired - Fee Related JP5137853B2 (ja) 2006-12-28 2007-09-27 車載用音声認識装置
JP2011205978A Pending JP2012027487A (ja) 2006-12-28 2011-09-21 車載用音声認識装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011205978A Pending JP2012027487A (ja) 2006-12-28 2011-09-21 車載用音声認識装置

Country Status (5)

Country Link
US (1) US8315868B2 (ja)
JP (2) JP5137853B2 (ja)
CN (1) CN101589428B (ja)
DE (1) DE112007003024B4 (ja)
WO (1) WO2008084575A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180060430A1 (en) * 2009-05-27 2018-03-01 Hon Hai Precision Industry Co., Ltd. Voice command processing method and electronic device utilizing the same
JP5161188B2 (ja) * 2009-10-16 2013-03-13 株式会社コナミデジタルエンタテインメント 情報処理装置、処理方法、ならびに、プログラム
JP5569365B2 (ja) * 2010-11-30 2014-08-13 アイシン・エィ・ダブリュ株式会社 案内装置、案内方法、及び案内プログラム
DE112011105614B4 (de) * 2011-09-13 2019-11-07 Mitsubishi Electric Corporation Navigationsvorrichtung
US9256396B2 (en) * 2011-10-10 2016-02-09 Microsoft Technology Licensing, Llc Speech recognition for context switching
US9269351B2 (en) * 2012-07-03 2016-02-23 Mitsubishi Electric Corporation Voice recognition device
KR102056177B1 (ko) * 2013-02-22 2020-01-22 삼성전자 주식회사 음성 대화 서비스 제공 방법 및 이동 단말
US20160092160A1 (en) * 2014-09-26 2016-03-31 Intel Corporation User adaptive interfaces
JP6391887B2 (ja) 2016-04-11 2018-09-19 三菱電機株式会社 応答生成装置、対話制御システムおよび応答生成方法
US10205890B2 (en) * 2016-07-25 2019-02-12 Ford Global Technologies, Llc Systems, methods, and devices for rendering in-vehicle media content based on vehicle sensor data
CN210129283U (zh) 2016-10-05 2020-03-06 金泰克斯公司 基于车辆的远程控制系统
CN106782558A (zh) * 2016-12-27 2017-05-31 重庆峰创科技有限公司 一种带有图像理解的智能语音车载交互系统
US10708725B2 (en) * 2017-02-03 2020-07-07 T-Mobile Usa, Inc. Automated text-to-speech conversion, such as driving mode voice memo
JP6988438B2 (ja) * 2017-12-20 2022-01-05 トヨタ自動車株式会社 車載制御装置、制御装置、制御方法、制御プログラム、及び発話応答方法
JP7002823B2 (ja) * 2018-12-06 2022-01-20 アルパイン株式会社 案内音声出力制御システムおよび案内音声出力制御方法
US11150923B2 (en) 2019-09-16 2021-10-19 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing manual thereof
CN110706700B (zh) * 2019-09-29 2022-06-14 深圳市元征科技股份有限公司 一种车内骚扰预防报警方法及装置、服务器、存储介质
CN112509585A (zh) * 2020-12-22 2021-03-16 北京百度网讯科技有限公司 车载设备的语音处理方法、装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001125591A (ja) * 1999-10-27 2001-05-11 Fujitsu Ten Ltd 音声対話システム
JP2001166794A (ja) * 1999-12-08 2001-06-22 Denso Corp 音声認識装置及び車載ナビゲーションシステム
JP2003091299A (ja) * 2001-07-13 2003-03-28 Honda Motor Co Ltd 車載用音声認識装置
JP2003108191A (ja) * 2001-10-01 2003-04-11 Toyota Central Res & Dev Lab Inc 音声対話装置
JP2005084589A (ja) * 2003-09-11 2005-03-31 Nissan Motor Co Ltd 音声認識装置
JP2005084590A (ja) * 2003-09-11 2005-03-31 Nissan Motor Co Ltd 音声認識装置
JP2006189730A (ja) * 2005-01-07 2006-07-20 Matsushita Electric Ind Co Ltd 音声対話方法および音声対話装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996021185A1 (en) * 1995-01-04 1996-07-11 Philips Electronics N.V. A speech-actuated control system for use with a consumer product
JPH1020884A (ja) 1996-07-04 1998-01-23 Nec Corp 音声対話装置
JP2000194386A (ja) * 1998-12-24 2000-07-14 Omron Corp 音声認識応答装置及び方法
JP2001022370A (ja) 1999-07-12 2001-01-26 Fujitsu Ten Ltd 音声案内装置
US7225130B2 (en) * 2001-09-05 2007-05-29 Voice Signal Technologies, Inc. Methods, systems, and programming for performing speech recognition
AU2003223090A1 (en) * 2002-04-30 2003-11-17 Telmap Ltd. Template-based map distribution system
JP4304952B2 (ja) * 2002-10-07 2009-07-29 三菱電機株式会社 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム
JP4026543B2 (ja) * 2003-05-26 2007-12-26 日産自動車株式会社 車両用情報提供方法および車両用情報提供装置
JP2005077372A (ja) * 2003-09-03 2005-03-24 Denso Corp 音声認識装置、ナビゲーション装置及びプログラム
CN1811341A (zh) * 2005-01-27 2006-08-02 乐金电子(惠州)有限公司 车载导航装置及其工作方法
US20060235694A1 (en) * 2005-04-14 2006-10-19 International Business Machines Corporation Integrating conversational speech into Web browsers
JP4560463B2 (ja) * 2005-09-13 2010-10-13 キヤノン株式会社 データ処理装置、データ処理方法及びコンピュータプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001125591A (ja) * 1999-10-27 2001-05-11 Fujitsu Ten Ltd 音声対話システム
JP2001166794A (ja) * 1999-12-08 2001-06-22 Denso Corp 音声認識装置及び車載ナビゲーションシステム
JP2003091299A (ja) * 2001-07-13 2003-03-28 Honda Motor Co Ltd 車載用音声認識装置
JP2003108191A (ja) * 2001-10-01 2003-04-11 Toyota Central Res & Dev Lab Inc 音声対話装置
JP2005084589A (ja) * 2003-09-11 2005-03-31 Nissan Motor Co Ltd 音声認識装置
JP2005084590A (ja) * 2003-09-11 2005-03-31 Nissan Motor Co Ltd 音声認識装置
JP2006189730A (ja) * 2005-01-07 2006-07-20 Matsushita Electric Ind Co Ltd 音声対話方法および音声対話装置

Also Published As

Publication number Publication date
US20100049515A1 (en) 2010-02-25
CN101589428B (zh) 2012-07-04
DE112007003024T5 (de) 2009-10-08
WO2008084575A1 (ja) 2008-07-17
JPWO2008084575A1 (ja) 2010-04-30
DE112007003024B4 (de) 2013-09-12
US8315868B2 (en) 2012-11-20
CN101589428A (zh) 2009-11-25
JP2012027487A (ja) 2012-02-09

Similar Documents

Publication Publication Date Title
JP5137853B2 (ja) 車載用音声認識装置
JP4304952B2 (ja) 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム
CN106796786B (zh) 语音识别系统
US7617108B2 (en) Vehicle mounted control apparatus
US20160336009A1 (en) In-vehicle control apparatus and in-vehicle control method
JP4859982B2 (ja) 音声認識装置
US20030055643A1 (en) Method for controlling a voice input and output
WO2007145003A1 (ja) 車載情報装置
JP4940887B2 (ja) 音声入力支援プログラム、音声入力支援装置、音声入力支援方法
JP3654045B2 (ja) 音声認識装置
JP2000322078A (ja) 車載型音声認識装置
JP3903410B2 (ja) 音声入力制御システム
JP4410378B2 (ja) 音声認識方法および装置
JP6522009B2 (ja) 音声認識システム
JP2002116791A (ja) 音声入力装置
JP4478146B2 (ja) 音声認識システム、音声認識方法およびそのプログラム
JP2018144534A (ja) 運転支援システムおよび運転支援方法並びに運転支援プログラム
JP4624825B2 (ja) 音声対話装置および音声対話方法
JP3764302B2 (ja) 音声認識装置
JP2007057805A (ja) 車両用情報処理装置
JP2004184803A (ja) 車両用音声認識装置
JP5002014B2 (ja) 音声入力型装置、音声入力制御方法及び音声入力制御プログラム
JP2003345389A (ja) 音声認識装置
JP2005084589A (ja) 音声認識装置
JP2009086132A (ja) 音声認識装置、音声認識装置を備えたナビゲーション装置、音声認識装置を備えた電子機器、音声認識方法、音声認識プログラム、および記録媒体

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121113

R150 Certificate of patent or registration of utility model

Ref document number: 5137853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151122

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees