JP2017508193A - ユーザ設定可能な発話コマンド - Google Patents

ユーザ設定可能な発話コマンド Download PDF

Info

Publication number
JP2017508193A
JP2017508193A JP2016543119A JP2016543119A JP2017508193A JP 2017508193 A JP2017508193 A JP 2017508193A JP 2016543119 A JP2016543119 A JP 2016543119A JP 2016543119 A JP2016543119 A JP 2016543119A JP 2017508193 A JP2017508193 A JP 2017508193A
Authority
JP
Japan
Prior art keywords
utterance
command
user
substitute
utterance command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016543119A
Other languages
English (en)
Other versions
JP6545174B2 (ja
JP2017508193A5 (ja
Inventor
パーキンソン・クリストファー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kopin Corp
Original Assignee
Kopin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kopin Corp filed Critical Kopin Corp
Publication of JP2017508193A publication Critical patent/JP2017508193A/ja
Publication of JP2017508193A5 publication Critical patent/JP2017508193A5/ja
Application granted granted Critical
Publication of JP6545174B2 publication Critical patent/JP6545174B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザによる発話コマンドの設定を可能にする発話認識方法及びシステムを提供する。【解決手段】ヘッドセットコンピュータは、プロセッサに接続されたマイクロディスプレイと、プロセッサに接続されたマイクロホンと、プロセッサにより実行される、マイクロホンへのユーザ発話に応答する発話認識エンジンと、を備える。発話認識エンジンは、(i)所定の発話コマンドを認識するとアクションの実行を引き起こすように、かつ、(ii)ユーザ設定可能な発話コマンドをサポートするように構成されている。【選択図】図1A

Description

関連出願
本願は、2013年12月26日付出願の米国仮特許出願第61/920,926号の出願の利益を主張する。この米国仮特許出願の全内容は、参照をもって本明細書に取り入れたものとする。
現在、ラップトップ、ノートブックPC、スマートフォン、タブレット型コンピューティング端末等のモバイルコンピューティングデバイスは、ビジネスライフおよび私生活の両方において、データを生成、分析、通信および消費するための日常的なツールとなっている。消費者は、高速無線通信技術のユビキタス化に伴い、ますます容易にデジタル情報にアクセスできることを背景に、モバイルデジタルライフスタイルを享受し続ける。モバイルコンピューティングデバイスのよくある用途として、大量の高解像度コンピュータグラフィックス情報及び動画コンテンツを表示する用途が挙げられ、デバイスにワイヤレスでストリーミングして表示する場合が多い。典型的にこれらのデバイスはディスプレイ画面を備えているものの、モバイル性を推し進めるため、デバイス自体の物理的サイズは制限されている。そのため、これらのモバイルデバイスで、高解像度の大型ディスプレイのようなより好ましい視覚的体験を再現することは難しい。その他にも、このような種類のデバイスの短所として、ユーザインターフェースがヒトの手に依存する(ヒトの手を使うことを必要とする)点が挙げられる。典型的には、一般的にユーザは、(物理的または仮想的な)キーボードやタッチスクリーンディスプレイを用いてデータの入力や何らかの選択を行うことを求められる。そのため、今日の消費者は、ヒトの手に依存するモバイルデバイスを補うまたはこれにとって代わる、ハンズフリーで(ヒトの手に依存しないで)、高品質且つ携帯可能な、カラーディスプレイのソリューションを所望している。
近年開発されたマイクロディスプレイは、大型フォーマットの高解像度カラー画像及びストリーミング映像を、極めて小さい形状の構成要素で提供することができる。このようなディスプレイの用途として、ユーザの視野内にディスプレイが収まるように眼鏡やオーディオヘッドセットやビデオアイウェアと似た形式の、ユーザの頭部に装着される無線ヘッドセットコンピュータへの組込みが挙げられる。
「無線コンピューティングヘッドセット」デバイス(本明細書において「ヘッドセットコンピュータ(HSC)」や「ヘッドマウントディスプレイ(HMD)」とも称される)は、少なくとも1つの小型高解像度マイクロディスプレイと該ディスプレイに対応付けられ画像を拡大する光学系とを備える。その高解像度マイクロディスプレイは、スーパービデオグラフィックスアレイ(SVGA)(800×600)解像度または拡張グラフィックスアレイ(XGA)(1024×768)解像度、あるいは、それを超える解像度(当該技術分野において既知の解像度)を提供することができる。
また、無線コンピューティングヘッドセットは、データ機能や映像ストリーミング機能を可能にする少なくとも1つの無線コンピューティングインターフェースと通信インターフェースを備えており、かつ、ヒトの手に依存する装置を介して優れた利便性およびモバイル性を提供している。
以上のようなデバイスに関する詳細な情報については、同時係属中の、2009年1月5日付出願の米国特許出願第12/348,648号“Mobile Wireless Display Software Platform for Controlling Other Systems and Devices”、2009年3月27日付出願の国際出願第PCT/US09/38601号“Handheld Wireless Display Devices Having High Resolution Display Suitable For Use as a Mobile Internet Device”および2012年4月25日付出願の米国仮特許出願第61/638,419号“Improved Headset Computer”を参照されたい。なお、これら特許出願の全内容は、参照をもって本明細書に取り入れたものとする。
なお、本明細書では、「HSC(ヘッドセットコンピュータ)」、「HMD(ヘッドマウントディスプレイ)」デバイスおよび「無線コンピューティングヘッドセット」デバイスを同義的に用いる場合がある。
本発明の一態様は、プロセッサに接続されたマイクロディスプレイと、前記プロセッサに接続されたマイクロホンと、発話認識エンジン(音声認識エンジン)と、を備えるヘッドセットコンピュータである。前記発話認識エンジンは、前記マイクロホンへのユーザからの発話に応答する。前記発話認識エンジンは、予め定められた所定の発話コマンドを認識するとアクションの実行を引き起こすように、かつ、ユーザが設定可能な発話コマンドをサポートする(例えば、使用可能とするまたは対応可能とする)ように構成されている。
一実施形態において、前記発話認識エンジンは、さらに、前記ヘッドセットコンピュータのユーザに前記所定の発話コマンド及び(例えば、前記所定の発話コマンドに)対応付けられたフィールドを提示するように構成されている。この対応付けられたフィールドは、(前記所定の発話コマンドに対する)代用の発話コマンドをユーザが入力することを可能にするように当該ユーザに提示される。前記代用の発話コマンドは、前記所定の発話コマンドが認識された場合に実行されるアクションと同じアクションを引き起こすように翻訳され得る。前記発話認識エンジンは、前記所定の発話コマンドまたは前記代用の発話コマンドが認識された場合に前記アクションを実行し得るか、あるいは、前記所定の発話コマンドまたは前記代用の発話コマンドの、一方または他方が認識された場合にのみ前記アクションを実行し得る。具体的なアクションは、ユーザ入力により選択可能であり得る。
他の実施形態において、前記発話認識エンジンは、前記代用の発話コマンドを認識すると、第1のアクションの実行を引き起こす。この第1のアクションは、前記所定の発話コマンドに対応するものである。他の実施形態において、前記第1のアクションは、前記発話認識エンジンが前記代用の発話コマンドを認識した場合にのみ実行される。一実施形態において、前記第1のアクションは、前記発話認識エンジンが前記代用の発話コマンドを認識した場合か又は前記発話認識エンジンが前記所定の発話コマンドを認識した場合に実行される。
他の実施形態において、前記対応付けられたフィールドに入力された前記代用の発話コマンドは、所定の期間のあいだ有効であり、この期間後は、前記所定の発話コマンドのみが有効である。他の実施形態において、前記対応付けられたフィールドに入力された前記代用の発話コマンドは、この代用のコマンドを投入した(submitted)ユーザにのみ有効である。
一実施形態は、さらに、前記発話認識エンジンに動作可能に接続された発話コマンド設定モジュール、を備える。この発話コマンド設定モジュールは、所与の発話コマンドの代用に用いる発話コマンド用語をエンドユーザが選択することを可能にし得る。そのユーザが選択した発話コマンド用語が、前記所与の発話コマンドの代用のコマンドを形成し得る。
他の実施形態は、さらに、前記所定の発話コマンドに対応する代用の発話コマンドを前記ユーザから受け取るように構成された発話コマンド設定モジュール、を備える。この発話コマンド設定モジュールは、さらに、前記代用の発話コマンドを、所定の発話コマンドの認識時に実行される前記アクションと関連付けるように構成されている。この発話コマンド設定モジュールは、前記代用の発話コマンドの認識時に前記アクションを実行するように構成されている。一実施形態において、前記発話コマンド設定モジュールは、さらに、前記所定の発話コマンドの認識時に前記アクションを実行するように構成されている。
本発明の他の態様は、発話認識方法(音声認識方法)であって、ユーザの発話を認識する過程と、前記発話を所定の発話コマンドとして認識すると、アクションの実行を引き起こす過程と、ユーザが設定可能な発話コマンドをサポートする過程と、を含む、発話認識方法である。
一実施形態は、さらに、ヘッドセットコンピュータの前記ユーザに前記所定の発話コマンド及び対応付けられたフィールドを提示する過程と、前記対応付けられたフィールドへと入力された代用の発話コマンドを受け取る過程と、を含む。
他の実施形態は、さらに、前記代用の発話コマンドを認識すると、第1のアクションの実行を引き起こす過程、を含む。この第1のアクションは、前記所定の発話コマンドに対応するものである。他の実施形態は、さらに、前記第1のアクションを、前記発話を認識するエンジンが前記代用の発話コマンドを認識した場合にのみ実行する過程、を含む。さらなる他の実施形態は、さらに、前記第1のアクションを、前記発話を認識するエンジンが前記代用の発話コマンドを認識した場合か又は前記発話を認識するエンジンが前記所定の発話コマンドを認識した場合に実行する過程、を含む。
一実施形態において、前記対応付けられたフィールドに入力された前記代用の発話コマンドは、所定の期間のあいだ有効であり、この期間後は、前記所定の発話コマンドのみが有効である。
他の実施形態において、前記対応付けられたフィールドに入力された前記代用の発話コマンドは、この代用のコマンドを投入したユーザにのみ有効である。
本発明のさらなる他の態様は、発話を認識するための非過渡的なコンピュータ読取り可能媒体である。この非過渡的なコンピュータ読取り可能媒体には、コンピュータソフトウェア命令が記憶されている。このコンピュータソフトウェア命令は、少なくとも1つのプロセッサにより実行されると、コンピュータシステムに、ユーザの発話を認識する手順を実行させる。このコンピュータソフトウェア命令は、さらに、前記発話を所定の発話コマンドとして認識するとアクションの実行を引き起こす手順を実行させる。このコンピュータソフトウェア命令は、さらに、ユーザ設定可能な発話コマンドをサポートする手順を実行させる。
前述の内容は、添付の図面に示す本発明の例示的な実施形態についての以下の詳細な説明から明らかになる。図面では、異なる図をとおして同じ参照符号は同じ構成/構成要素を指すものとする。なお、図面は必ずしも縮尺どおりではなく、むしろ、本発明の実施形態を示すことに重点を置いている。
本発明の原理に従ってホストコンピュータ(例えば、スマートフォン、ラップトップなど)および該コンピュータと協働するヘッドセットコンピュータの概略図である。 本発明の原理に従ってホストコンピュータと協働するヘッドセットコンピュータの拡大斜視図である。 図1A及び図1Bの実施形態におけるデータおよび制御のフローを示すブロック図である。 ASR(自動発話認識(自動音声認識))サブシステムの実施形態を示すブロック図である。 本発明にかかる発話認識方法の一実施形態を示す図である。
以下では、本発明の例示的な実施形態について説明する。
なお、本明細書で引用している全ての特許公報、全ての特許出願公報および全ての刊行物については、その全教示内容を参照をもって本明細書に取り入れたものとする。
図1A及び図1Bに、無線コンピューティングヘッドセットデバイス100(本明細書ではヘッドセットコンピュータ(HSC)やヘッドマウントディスプレイ(HMD)と称することもある)の例示的な一実施形態を示す。HSC100は、高解像度(VGAまたはそれを超える解像度)のマイクロディスプレイ要素1010を組み込んでいると共に、下記のその他の構成要素も組み込んでいる。
具体的に述べると、HSC100は:音声入力および/または音声出力装置(少なくとも1つのマイクロホン、少なくとも1つの入力スピーカ、および少なくとも1つの出力スピーカが含まれ得る);および/または地理位置センサ(GPS);および/または3軸〜9軸の自由度の方位センサ;および/または気圧センサ;および/または健康状態センサ;および/またはデジタルコンパス;および/または圧力センサ;および/または環境センサ;および/またはエネルギーセンサ;および/または加速度センサ;および/または位置センサ;および/または姿勢センサ;および/または動きセンサ;および/または速度センサ;および/または光センサ;および/またはカメラ(可視光カメラ、赤外線カメラなど);および/または複数のワイヤレス無線機;および/または補助照明;および/または距離計;および/またはその他;を備え得る。HSC100は:ヘッドセットに埋め込まれたセンサのアレイ;および/またはヘッドセットに組み込まれたセンサのアレイ;および/または少なくとも1つのペリフェラル(周辺機器)ポート1020(図1B)を介してデバイスに取り付けられたセンサのアレイ;を備え得る。
典型的に、ヘッドセットコンピューティングデバイス100のハウジング内部には、様々な電子回路が配置されている。そのような電子回路には:マイクロコンピュータ(シングルコアまたはマルチコアのプロセッサ);1つ以上の有線および/または無線の通信インターフェース;メモリまたは記憶装置;各種センサ;ならびにペリフェラルマウント(装着部)または「ホットシュー」等のマウント;が含まれ得る。
HSC100の例示的な実施形態は、音声コマンド、頭の動き110,111,112、手のジェスチャ113、またはこれらの組合せを検出することにより、ユーザの入力を受け取り得る。具体的に述べると、HSC100に動作可能に接続されているか又はHSC100に組み込まれている単一のマイクロホン(又は複数のマイクロホン)を用いて、発話コマンドまたは音声コマンドを捉え得る。捉えられた発話コマンドは、自動発話認識技術または自動音声認識技術を用いてデジタル化されて処理される。また、HSC100には、ジャイロスコープ、加速度計、および微小電気機械システムに基づくその他のセンサが組み込まれ得る。これらのセンサ等は、ユーザの頭の動き110,111,112を追跡してユーザに入力コマンドを提供する。また、カメラまたはその他の動き追跡センサを用いて、ユーザの手のジェスチャ113を監視してユーザに入力コマンドを提供し得る。これらのようなユーザインターフェースにより、ヒトの手に依存するという他のモバイルデバイスに伴う短所を解消することができる。
HSC100は、様々な方法で使用することができる。具体的に述べると、HSC100は、リモートホストコンピューティングデバイス200(図1Aに示されている)によって処理されて当該リモートホストコンピューティングデバイス200から受け取った映像信号を表示するペリフェラルディスプレイとして使用可能である。ホスト200の例として、ノートブックPC、スマートフォン、タブレット型端末など、または、無線コンピューティングヘッドセットデバイス100よりも演算複雑度が高いまたは低い、その他のコンピューティングデバイス(例えば、クラウドベースのネットワークリソースなど)が挙げられる。ヘッドセットコンピューティングデバイス100とホスト200とは、1つ以上の無線プロトコル(例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)、WiMAX(登録商標)、4G LTE、その他のワイヤレス無線リンクなど)150で、ワイヤレスに相互に通信し得る(Bluetooth(登録商標)は、5209 Lake Washington Boulevard, Kirkland, Washington 98033に居所を有するBluetooth Sig, Inc.社の登録商標である)。
例示的な一実施形態において、ホスト200は、他のネットワークにさらに接続されうる(例えば、無線接続で、インターネットまたはその他のクラウドベースのネットワークリソースにさらに接続される)ことにより、HSC100とネットワーク210との間の無線リレーとして機能可能とされる。いくつかの変形例として、HSC100の例示的な実施形態は、インターネット(または他のクラウドベースのネットワークリソース)に対して、ホストを無線リレーとして使用することなく無線接続を直接確立し得る。その場合の実施形態では、HSC100の構成要素とホスト200の構成要素とが、単一のデバイスへ組み合わされて同梱され得る。
図1Bは、ヘッドセットコンピュータ100の例示的な一実施形態について、その詳細の一部を示す斜視図である。この例示的な実施形態のHSC100は、概して、フレーム1000、ストラップ1002、後部ハウジング1004、スピーカ1006、マイクロホンが組み込まれたカンチレバー(片持ち支持部材)(アームまたはブームとも称される)1008、およびマイクロディスプレイサブアセンブリ1010を備える。
頭部に装着されるフレーム1000およびストラップ1002は、一般的に、ユーザがヘッドセットコンピュータデバイス100を自身の頭部に装着することを可能とするように構成されている。ハウジング1004は、一般的に、電子部品(例えば、マイクロプロセッサ、メモリ、その他の記憶装置など)をその他の関連回路と共に収容する、背の低いユニットとなっている。スピーカ1006は、ユーザに音声出力を提供することにより、ユーザが情報を聞くことを可能にする。マイクロディスプレイサブアセンブリ1010は、ユーザに視覚的情報または表示情報(visual information)を表示する。マイクロディスプレイサブアセンブリ1010は、アーム1008に連結されている。アーム1008は、概して、マイクロディスプレイサブアセンブリをユーザの視野300(図1A)内、好ましくは、ユーザの眼の前方、あるいは、ユーザの周辺視野内(好ましくは、ユーザの眼よりも若干下または若干上)に配置できるように物理的な支持を行う。アーム1008は、さらに、マイクロディスプレイサブアセンブリ1010とハウジングユニット1004内に収容された制御回路との、電気的なまたは光学的な接続を行う。
後で詳述する側面によると、HSCディスプレイデバイス100は、仮想的なディスプレイ400によって形成される、当該視野300よりも遥かに広い領域内から、視野300をユーザが選択することを可能にする。ユーザは、典型的に、視野300の位置および/または範囲(例えば、X−Y範囲、3D範囲など)、および/または倍率を操作することができる。
なお、図1Aおよび図1Bに示されているのは単眼式のマイクロディスプレイであり、ユーザの顔に対してカンチレバー型のブームによって片持ち支持固定される単一のディスプレイ要素が図示されているが、遠隔制御ディスプレイデバイス100の機械的構成として、2つの別個のマイクロディスプレイ(例えば、片目につき1つのマイクロディスプレイなど)を備えた双眼式のディスプレイ、または両目で視られるように設置された単一のマイクロディスプレイなどといった、その他の構成を採用することも可能であることを理解されたい。
図2は、HSCデバイス(又はHMDデバイス)100、ホスト200、およびこれらの間を行き交うデータの一実施形態の詳細を示すブロック図である。HSCデバイス(又はHMDデバイス)100は、ユーザからの音声入力を、マイクロホンを介して受け取り、手の動きまたは体のジェスチャを位置センサ及び方位センサ、カメラまたは少なくとも1つの光センサを介して受け取り、頭の動きによる入力を3軸〜9軸の自由度の方位センシング等の頭追跡回路を介して受け取る。これらは、HSCデバイス(又はHMDデバイス)100内のソフトウェア(プロセッサ)によってキーボードコマンドおよび/またはマウスコマンドに翻訳された後、Bluetooth(登録商標)またはその他のワイヤレスインターフェース150を介してホスト200に送信される。ホスト200は、これら翻訳されたコマンドを、自身のオペレーティングシステム/アプリケーションソフトウェアに従って解釈し、様々な機能を実行する。このようなコマンドの一つとして、視野300を仮想的なディスプレイ400内から選択し、選択された画面データをHSCデバイス(又はHMDデバイス)100に返すコマンドが挙げられる。すなわち、ホスト200で動作するアプリケーションソフトウェアまたはオペレーティングシステムに、極めて大型のフォーマットの仮想的なディスプレイ領域が関連付けられ得ると理解されたい。ただし、その大型の仮想的なディスプレイ領域400のうち、前記視野300内の一部のみが返されて、HSCデバイス(又はHMDデバイス)100のマイクロディスプレイ1010で実際に表示される。
一実施形態において、HSC100は、同時係属中の米国特許出願公開公報第2011/0187640号に記載されたデバイスの形態を取りうる。なお、この米国特許出願公開公報の全内容は、参照をもって本明細書に取り入れたものとする。
他の実施形態において、本発明は、ヘッドマウントディスプレイ(HMD)1010を、外部の「スマート」デバイス200(例えば、スマートフォン、タブレットなど)と協働で使用することにより、ユーザに対してハンズフリーで情報及び制御機能を提供するという技術思想に関する。本発明は、少量のデータ送信で済み、高い信頼性のデータ転送方法をリアルタイムで実行することを可能にする。
つまり、この意味では、接続150を介して送信されるデータ量により、画面をどのようにレイアウトするかについて、どのようなテキストを表示するのかについて、およびその他のスタイル情報(例えば、描画矢印、背景カラー、含まれるイメージなど)についての短い単純な命令で済む。
ホスト200の要求があれば、さらなるデータ(例えば、映像ストリームなど)が、同じ接続150またはその他の接続を介してストリーミングされて画面1010上に表示され得る。
デバイスの制御には、発話認識または音声認識(ASR)システムが用いられる。大抵の場合ASRシステムは上手く機能し、ユーザが高い正確度でシステムを操作し制御することを可能にする。
システム設計者は、その時々の(at hand)タスクを表現するコマンド(又はキーワード)であり、しかも「発話認識フレンドリー(音声認識フレンドリー)」であるコマンドを選び出すのに多くの時間と労力を費やす。例えば、典型的な英語話者の場合、ASRシステムの動作の仕組みにより、主語の前に動詞が付く「Close Window(閉じる−ウィンドウ)」フォーマットよりも、主語−動詞コマンド「Window Close(ウィンドウ−閉じる)」を用いたほうが、より優れた認識精度を達成することができる。
しかし、あるコマンドのセットを最適な認識率のために高度に調整したとしても、そのコマンドのセットを利用できないユーザも存在する。例えば、一部の方言や言語障害を持つユーザにとっては特定のコマンドを正しく発音するのが難しいことがあり、この場合にはASRシステムが利用に適さないものとなる。
本発明(例えば、HSC100のソフトウェアシステムなど)の実施形態は、システムのエンドユーザが、ASRコマンドを、自分自身の発話パターンにより適したコマンドへとオーバーライドする(又はそのようなコマンドに書き換える(replace))ことを可能にする。一部の実施形態において、このタスクは、例えば、現在のシステムASRコマンドを全てリストした(又は該コマンドのサブセットをリストした)グラフィカルユーザインターフェース(GUI)コントロールパネルを介して行われ得る。それぞれのシステムコマンドが、ユーザにより指定されて選択可能であり、またユーザにより指定された任意のコマンドに書き換えられ得る。このようにしてHSCシステム100は、ユーザによって最適な認識率を達成するようにカスタマイズされる。
一部の実施形態では、ユーザが、現在のASRコマンドについて、書換えではなく代替を提供することが可能とされる。例えば、先に述べた例を用いると、「Window Close(ウィンドウ−閉じる)」という現在のASRコマンドについて、ユーザが「Close Window(閉じる−ウィンドウ)」というコマンドを導入することにより、「Window Close(ウィンドウ−閉じる)」および「Close Window(閉じる−ウィンドウ)」のいずれを発声したとしても、ウィンドウが閉じるようにすることが可能となる。
一部の実施形態では、ユーザが代用のコマンド(又は代替のコマンド)を導入すると、その変更は恒久的な変更となる(すなわち、その変更は、ユーザ又は他のメンテナンスアクションによって明確に変更されない限り有効な状態で維持される)。他の実施形態において、そのような変更は、所定の期間のあいだ(例えば、その日が終わるまで、その週が終わるまで、その月が終わるまで、あるいは、60分、24時間、5日等といった明確な期間など)のみ有効な状態で維持される。
一部の実施形態では、前記代用のコマンド(又は代替のコマンド)が、そのような変更を行ったユーザにのみ有効とされうる。他の実施形態では、そのような変更が、システムの全ユーザにとって有効な変更とされうる。
図3は、本発明の一実施形態に従った、音声コマンドの下での無線ハンズフリー映像コンピューティングヘッドセット100の例示的な一実施形態を示す図である。ユーザには、マイクロディスプレイ9010上に、例えば前述したホストコンピュータ200アプリケーションにより出力された画像等が提示され得る。HMD100のユーザは、ローカルに存在している又は遠隔のホスト200からの、頭追跡・音声コマンドテキスト選択兼用ソフトウェアモジュール9036を利用することが可能である。具体的に述べると、ユーザには、マイクロディスプレイ9010上でのハンズフリーのテキスト選択を実現する一連の(a sequence of)画面ビューが提示されると共に、その画面ビューと同じ内容の音声がヘッドセットコンピュータ100のスピーカ9006を介して与えられる。ここで、ヘッドセットコンピュータ100にはマイクロホン9020も装備されているので、ユーザは、本発明の実施形態として以下で説明する様式で音声コマンド(例えば、コマンド選択を行うための音声コマンドなど)を発話することが可能である。
図3には、ヘッドセットコンピュータ100の各種モジュールが概略図示されている。具体的に述べると、図3には、ヘッドセットコンピュータ100の各種機能的モジュール(operative module)が概略図示されている。
発話駆動型(音声駆動型)アプリケーションでの発話コマンド書換えの場合を説明する。コントローラ9100が、ユーザコマンド設定モジュール9036にアクセスする。ユーザコマンド設定モジュール9036は、各HMD100に対してローカルに位置しているものであり得るか、あるいは、ホスト200側で遠隔に位置しているものであり得る(図1Aおよび図1B)。
ユーザ設定可能発話コマンドモジュール(又は発話コマンド書換えソフトウェアモジュール)9036は、関連するリクエストダイアログボックス等の画像をユーザに対して表示する命令を含む。グラフィックス変換モジュール9040が、発話コマンドモジュール9036からバス9103を介して受け取った画像命令(image instruction)を、単眼式のディスプレイ9010上に表示するためのグラフィックスに変換する。
上記の表示用グラフィックスへの変換と同時に、テキスト音声変換モジュール9035bが、テキスト選択ソフトウェアモジュール9036からの命令を、表示される画面ビュー410のコンテンツに対応するデジタル音響表現形に変換し得る。テキスト音声変換モジュール9035bが前記デジタル音響表現したものをDA変換器9021bに供給し、このDA変換器9021bがスピーカ9006に順番に信号を供給し、スピーカ9006が音声出力をユーザに提供する。
発話コマンド書換え/ユーザ再設定ソフトウェアモジュール9036は、メモリ9120にローカルで記憶されたものであり得るか、あるいは、ホスト200側で遠隔に記憶されたものであり得る(図1A)。ユーザは前記画像から書換えコマンド選択を発声/発話することが可能であり、ユーザのその発話9090がマイクロホン9020で受け取られる。受け取られた発話は、AD変換器9021aでアナログ信号からデジタル信号に変換される。このように前記発話がアナログからデジタルの信号に変換されると、発話認識モジュール9035aがその発話を認識された発話へと処理する。
認識された発話は、モジュール9036の命令に従い、(メモリ9120に記憶された)既知の発話と比較されて、発話コマンドの書換えを選択しこれを置き換えるのに用いられる。モジュール9036は、そのような置換え(ユーザ選択の発話コマンド書換え用語)の2段階(2ステップ)確認を実行し得る。モジュール9036は、さらに、ユーザ選択のこの書換えコマンドを、今後その書換えコマンド用語の発話が発話認識モジュール9035aによって認識されるように、当初の発話コマンド(すなわち、書換え対象のコマンド)との相互参照に設定し得る(cross reference)(又は関連付け得る)。また、発話認識モジュール9035aによるその書換えコマンド用語の認識により、当初のコマンドに関連付けられたアクションの実行が引き起こされ得る。
本明細書で前述したように、このようなユーザ選択のコマンドは、既存のコマンドを書き換えるものであってもよいし、既存のコマンドの代替となるものであってもよい。代替のコマンドの場合の一実施形態として、発話認識モジュール9035aは、当初のコマンドまたはその代替のコマンドを認識し得るものとされ、かつ、いずれの場合にも当初のコマンドに関連付けられたアクションの実行を引き起こすものとされ得る。
図4は、発話認識方法の一実施形態を示す図である。この発話認識方法は、ユーザの発話を認識する過程402と、その発話を所定の発話コマンドとして認識するとアクションの実行を引き起こす過程404と、ユーザ設定可能な少なくとも1つの発話コマンドをサポートする過程406と、ヘッドセットコンピュータのユーザに所定の発話コマンド及び対応付けられたフィールドを提示し、かつ、対応付けられたフィールドへと入力された代用の発話コマンドを受け取る過程408と、を含む。
本明細書で説明した少なくとも1つの実施形態を、多種多様な形態のソフトウェア及びハードウェアで実現できることは明白である。本明細書で説明した実施形態を実現するのに用いられるソフトウェアコードおよび/または特化したハードウェアは、本明細書で説明した本発明の実施形態を限定するものではない。つまり、各実施形態における動作(behavior)や操作を、具体的なソフトウェアコードおよび/または特化したハードウェアについて言及せずに説明してきたが、当業者であれば、これらの実施形態を実現するためのソフトウェアおよび/またはハードウェアを本明細書での説明に基づいて設計することができる。
さらに言えば、本明細書で説明した例示的な実施形態のうちの一部の実施形態は、少なくとも1つの機能を実行するロジックとして実現することも可能である。このロジックは、ハードウェアベースでも、ソフトウェアベースでも、ハードウェアベースとソフトウェアベースとの組合せでもあり得る。このロジックの一部又は全体は、少なくとも1つの有形の非過渡的なコンピュータ読取り可能記憶媒体に記憶され得て、かつ、コントローラ又はプロセッサにより実行され得るコンピュータ実行可能命令を含み得る。前記コンピュータ実行可能命令は、本発明の少なくとも1つの実施形態を実現する命令を含み得る。前記有形の非過渡的なコンピュータ読取り可能記憶媒体は、揮発性でも不揮発性でもあり得て、例えばフラッシュメモリ、ダイナミックメモリ、リムーバブルディスク、固定(非リムーバブル)ディスクなどを含み得る。
本発明を例示的な実施形態を参照しながら具体的に図示・説明したが、当業者であれば、添付の特許請求の範囲に包含される本発明の範囲から逸脱することなく、形態および細部の詳細な変更が可能であることを理解するであろう。

Claims (20)

  1. プロセッサに接続されたマイクロディスプレイと、
    前記プロセッサに接続されたマイクロホンと、
    前記プロセッサにより実行される、前記マイクロホンへのユーザからの発話に応答する発話認識エンジンと、
    を備え、
    前記発話認識エンジンが、(i)所定の発話コマンドを認識するとアクションの実行を引き起こすように、かつ、(ii)ユーザが設定可能な発話コマンドをサポートするように構成されている、ヘッドセットコンピュータ。
  2. 請求項1に記載のヘッドセットコンピュータにおいて、前記発話認識エンジンが、さらに、当該ヘッドセットコンピュータのユーザに前記所定の発話コマンド及び対応付けられたフィールドを提示するように構成されており、この対応付けられたフィールドは、代用の発話コマンドの入力用に提示される、ヘッドセットコンピュータ。
  3. 請求項2に記載のヘッドセットコンピュータにおいて、前記発話認識エンジンが、前記代用の発話コマンドを認識すると、第1のアクションの実行を引き起こし、この第1のアクションは、前記所定の発話コマンドに対応するものである、ヘッドセットコンピュータ。
  4. 請求項3に記載のヘッドセットコンピュータにおいて、前記第1のアクションは、前記発話認識エンジンが前記代用の発話コマンドを認識した場合にのみ実行される、ヘッドセットコンピュータ。
  5. 請求項3に記載のヘッドセットコンピュータにおいて、前記第1のアクションは、前記発話認識エンジンが前記代用の発話コマンドを認識した場合か又は前記発話認識エンジンが前記所定の発話コマンドを認識した場合に実行される、ヘッドセットコンピュータ。
  6. 請求項2に記載のヘッドセットコンピュータにおいて、前記対応付けられたフィールドに入力された前記代用の発話コマンドは、所定の期間のあいだ有効であり、この期間後は、前記所定の発話コマンドのみが有効である、ヘッドセットコンピュータ。
  7. 請求項2に記載のヘッドセットコンピュータにおいて、前記対応付けられたフィールドに入力された前記代用の発話コマンドは、この代用のコマンドを投入したユーザにのみ有効である、ヘッドセットコンピュータ。
  8. 請求項1に記載のヘッドセットコンピュータにおいて、さらに、
    前記発話認識エンジンに動作可能に接続された発話コマンド設定モジュール、
    を備え、前記発話コマンド設定モジュールは、所与の発話コマンドの代用に用いる発話コマンド用語をエンドユーザが選択することを可能にし、そのユーザが選択した発話コマンド用語が、前記所与の発話コマンドの代用のコマンドを形成する、ヘッドセットコンピュータ。
  9. 請求項1に記載のヘッドセットコンピュータにおいて、さらに、
    発話コマンド設定モジュール、を備え、
    前記発話コマンド設定モジュールが、(i)前記所定の発話コマンドに対応する代用の発話コマンドを前記ユーザから受け取るように、かつ、(ii)前記代用の発話コマンドを、所定の発話コマンドの認識時に実行される前記アクションと関連付けるように、かつ、(iii)前記代用の発話コマンドの認識時に前記アクションを実行するように構成されている、ヘッドセットコンピュータ。
  10. 請求項9に記載のヘッドセットコンピュータにおいて、前記発話コマンド設定モジュールが、さらに、前記所定の発話コマンドの認識時に前記アクションを実行するように構成されている、ヘッドセットコンピュータ。
  11. 発話認識方法であって、デジタル処理装置で、
    (i)ユーザの発話を認識する過程と、
    (ii)前記発話を所定の発話コマンドとして認識すると、アクションの実行を引き起こす過程と、
    (iii)ユーザが設定可能な発話コマンドをサポートする過程と、
    を含む、発話認識方法。
  12. 請求項11に記載の発話認識方法において、さらに、
    ヘッドセットコンピュータの前記ユーザに前記所定の発話コマンド及び対応付けられたフィールドを提示する過程と、
    前記対応付けられたフィールドへと入力された代用の発話コマンドを受け取る過程と、
    を含む、発話認識方法。
  13. 請求項12に記載の発話認識方法において、さらに、
    前記代用の発話コマンドを認識すると、第1のアクションの実行を引き起こす過程、
    を含み、前記第1のアクションは、前記所定の発話コマンドに対応するものである、発話認識方法。
  14. 請求項13に記載の発話認識方法において、さらに、
    前記第1のアクションを、前記発話を認識するエンジンが前記代用の発話コマンドを認識した場合にのみ実行する過程、
    を含む、発話認識方法。
  15. 請求項13に記載の発話認識方法において、さらに、
    前記第1のアクションを、前記発話を認識するエンジンが前記代用の発話コマンドを認識した場合か又は前記発話を認識するエンジンが前記所定の発話コマンドを認識した場合に実行する過程、
    を含む、発話認識方法。
  16. 請求項12に記載の発話認識方法において、前記対応付けられたフィールドに入力された前記代用の発話コマンドは、所定の期間のあいだ有効であり、この期間後は、前記所定の発話コマンドのみが有効である、発話認識方法。
  17. 請求項12に記載の発話認識方法において、前記対応付けられたフィールドに入力された前記代用の発話コマンドは、この代用のコマンドを投入したユーザにのみ有効である、発話認識方法。
  18. コンピュータソフトウェア命令が記憶された、発話を認識するための非過渡的なコンピュータ読取り可能媒体であって、
    前記コンピュータソフトウェア命令は、少なくとも1つのプロセッサにより実行されると、コンピュータシステムに、
    (i)ユーザの発話を認識する手順と、
    (ii)前記発話を所定の発話コマンドとして認識すると、アクションの実行を引き起こす手順と、
    (iii)ユーザ設定可能な発話コマンドをサポートする手順と、
    を実行させる、非過渡的なコンピュータ読取り可能媒体。
  19. 請求項18に記載の非過渡的なコンピュータ読取り可能媒体において、前記コンピュータソフトウェア命令は、少なくとも1つのプロセッサにより実行されると、前記コンピュータシステムに、さらに、
    ヘッドセットコンピュータの前記ユーザに前記所定の発話コマンド及び対応付けられたフィールドを提示する手順と、
    前記対応付けられたフィールドへと入力された代用の発話コマンドを受け取る手順と、
    を実行させる、非過渡的なコンピュータ読取り可能媒体。
  20. 請求項18に記載の非過渡的なコンピュータ読取り可能媒体において、前記コンピュータソフトウェア命令は、少なくとも1つのプロセッサにより実行されると、前記コンピュータシステムに、さらに、
    前記代用の発話コマンドを認識すると、第1のアクションの実行を引き起こす手順、
    を実行させて、前記第1のアクションは、前記所定の発話コマンドに対応するものである、非過渡的なコンピュータ読取り可能媒体。
JP2016543119A 2013-12-26 2014-12-17 ユーザ設定可能な発話コマンド Active JP6545174B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361920926P 2013-12-26 2013-12-26
US61/920,926 2013-12-26
PCT/US2014/070900 WO2015100107A1 (en) 2013-12-26 2014-12-17 User configurable speech commands

Publications (3)

Publication Number Publication Date
JP2017508193A true JP2017508193A (ja) 2017-03-23
JP2017508193A5 JP2017508193A5 (ja) 2017-12-21
JP6545174B2 JP6545174B2 (ja) 2019-07-17

Family

ID=52395174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016543119A Active JP6545174B2 (ja) 2013-12-26 2014-12-17 ユーザ設定可能な発話コマンド

Country Status (4)

Country Link
US (2) US9640178B2 (ja)
JP (1) JP6545174B2 (ja)
CN (2) CN105940371A (ja)
WO (1) WO2015100107A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021007010A (ja) * 2020-09-08 2021-01-21 株式会社ユピテル 装置及びプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015100107A1 (en) 2013-12-26 2015-07-02 Kopin Corporation User configurable speech commands
WO2015100172A1 (en) 2013-12-27 2015-07-02 Kopin Corporation Text editing with gesture control and natural speech
US9640199B2 (en) 2013-12-27 2017-05-02 Kopin Corporation Location tracking from natural speech
EP3226239B1 (en) * 2016-03-30 2018-12-19 Panasonic Automotive & Industrial Systems Europe GmbH Voice command system
US11507216B2 (en) * 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
WO2018133307A1 (zh) 2017-01-20 2018-07-26 华为技术有限公司 一种实现语音控制的方法和终端
US10424299B2 (en) * 2017-09-29 2019-09-24 Intel Corporation Voice command masking systems and methods
CN108172228B (zh) * 2018-01-25 2021-07-23 深圳阿凡达智控有限公司 语音命令词更换方法、装置、声控设备及计算机存储介质
CN109213035A (zh) * 2018-08-27 2019-01-15 珠海格力电器股份有限公司 指令更新方法、装置和电子设备
WO2022036643A1 (en) * 2020-08-20 2022-02-24 Huawei Technologies Co., Ltd. Ear-wearing type electronic device and method performed by the ear-wearing type electronic device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254665A (ja) * 1997-03-11 1998-09-25 Canon Inc デフォルト提供装置,方法および記憶媒体
JP2001195329A (ja) * 2000-01-11 2001-07-19 Fuji Xerox Co Ltd データ入力支援装置及び記録媒体
JP2002251235A (ja) * 2001-02-23 2002-09-06 Fujitsu Ltd 利用者インタフェースシステム
JP2003219410A (ja) * 2002-01-24 2003-07-31 Matsushita Electric Works Ltd 音声操作式多機能型インターホンモニタテレビおよび多機能型テレビインターホンシステム
JP2003288097A (ja) * 2002-03-28 2003-10-10 Murata Mach Ltd 音声制御機能を備えた通信装置
JP2007226098A (ja) * 2006-02-27 2007-09-06 Denso Corp 音声認識装置
JP2012123492A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 情報提供システムおよび情報提供装置
JP2012226299A (ja) * 2011-04-14 2012-11-15 Hyundai Motor Co Ltd 音声命令語処理装置及びその方法
JP2013541092A (ja) * 2010-09-20 2013-11-07 コピン コーポレーション 動きおよび音声コマンドを用いたホストアプリケーションの高度なリモートコントロール
WO2013180966A1 (en) * 2012-05-30 2013-12-05 Kopin Corporation Head -worn computer with improved virtual display function

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5867817A (en) * 1996-08-19 1999-02-02 Virtual Vision, Inc. Speech recognition manager
US6965863B1 (en) * 1998-11-12 2005-11-15 Microsoft Corporation Speech recognition user interface
US7246063B2 (en) * 2002-02-15 2007-07-17 Sap Aktiengesellschaft Adapting a user interface for voice control
US8855719B2 (en) 2009-05-08 2014-10-07 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
US10013976B2 (en) * 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
US8736516B2 (en) * 2010-09-20 2014-05-27 Kopin Corporation Bluetooth or other wireless interface with power management for head mounted display
WO2015100107A1 (en) 2013-12-26 2015-07-02 Kopin Corporation User configurable speech commands
US20160097930A1 (en) * 2014-10-06 2016-04-07 Steven John Robbins Microdisplay optical system having two microlens arrays

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254665A (ja) * 1997-03-11 1998-09-25 Canon Inc デフォルト提供装置,方法および記憶媒体
JP2001195329A (ja) * 2000-01-11 2001-07-19 Fuji Xerox Co Ltd データ入力支援装置及び記録媒体
JP2002251235A (ja) * 2001-02-23 2002-09-06 Fujitsu Ltd 利用者インタフェースシステム
JP2003219410A (ja) * 2002-01-24 2003-07-31 Matsushita Electric Works Ltd 音声操作式多機能型インターホンモニタテレビおよび多機能型テレビインターホンシステム
JP2003288097A (ja) * 2002-03-28 2003-10-10 Murata Mach Ltd 音声制御機能を備えた通信装置
JP2007226098A (ja) * 2006-02-27 2007-09-06 Denso Corp 音声認識装置
JP2013541092A (ja) * 2010-09-20 2013-11-07 コピン コーポレーション 動きおよび音声コマンドを用いたホストアプリケーションの高度なリモートコントロール
JP2012123492A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 情報提供システムおよび情報提供装置
JP2012226299A (ja) * 2011-04-14 2012-11-15 Hyundai Motor Co Ltd 音声命令語処理装置及びその方法
WO2013180966A1 (en) * 2012-05-30 2013-12-05 Kopin Corporation Head -worn computer with improved virtual display function

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021007010A (ja) * 2020-09-08 2021-01-21 株式会社ユピテル 装置及びプログラム
JP7152043B2 (ja) 2020-09-08 2022-10-12 株式会社ユピテル 装置及びプログラム

Also Published As

Publication number Publication date
US20150187352A1 (en) 2015-07-02
CN105940371A (zh) 2016-09-14
JP6545174B2 (ja) 2019-07-17
WO2015100107A1 (en) 2015-07-02
CN114760555A (zh) 2022-07-15
US9640178B2 (en) 2017-05-02
US20170206902A1 (en) 2017-07-20
US9830909B2 (en) 2017-11-28

Similar Documents

Publication Publication Date Title
JP6545174B2 (ja) ユーザ設定可能な発話コマンド
US10402162B2 (en) Automatic speech recognition (ASR) feedback for head mounted displays (HMD)
JP6419262B2 (ja) Asrおよびht入力を有する補助ディスプレイとしてのヘッドセットコンピュータ(hsc)
US20180210544A1 (en) Head Tracking Based Gesture Control Techniques For Head Mounted Displays
US9383816B2 (en) Text selection using HMD head-tracker and voice-command
US20180277114A1 (en) Context Sensitive Overlays In Voice Controlled Headset Computer Displays
US20150220142A1 (en) Head-Tracking Based Technique for Moving On-Screen Objects on Head Mounted Displays (HMD)
US9134793B2 (en) Headset computer with head tracking input used for inertial control
US9500867B2 (en) Head-tracking based selection technique for head mounted displays (HMD)
US9378028B2 (en) Headset computer (HSC) with docking station and dual personality
JP2018032440A (ja) 制御可能なヘッドセットコンピュータディスプレイ
US20150220506A1 (en) Remote Document Annotation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190618

R150 Certificate of patent or registration of utility model

Ref document number: 6545174

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250