JP6679083B2 - 情報処理システム、情報処理方法、ウェアラブル端末、及びプログラム - Google Patents
情報処理システム、情報処理方法、ウェアラブル端末、及びプログラム Download PDFInfo
- Publication number
- JP6679083B2 JP6679083B2 JP2019510527A JP2019510527A JP6679083B2 JP 6679083 B2 JP6679083 B2 JP 6679083B2 JP 2019510527 A JP2019510527 A JP 2019510527A JP 2019510527 A JP2019510527 A JP 2019510527A JP 6679083 B2 JP6679083 B2 JP 6679083B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- wearable terminal
- person
- unit
- virtual object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 41
- 238000003672 processing method Methods 0.000 title 1
- 238000000034 method Methods 0.000 claims description 92
- 230000008569 process Effects 0.000 claims description 76
- 238000012545 processing Methods 0.000 claims description 55
- 238000001514 detection method Methods 0.000 claims description 33
- 230000008859 change Effects 0.000 claims description 10
- 230000009471 action Effects 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 23
- 230000004048 modification Effects 0.000 description 21
- 238000012986 modification Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 13
- 230000004913 activation Effects 0.000 description 7
- 210000000707 wrist Anatomy 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
Description
本発明は、複数の動作モードの中から所望の動作モードを選択し、この動作モードに対応する処理を装置に実行させる際の操作性を向上させることを目的とする。
構成
図1は、第1実施形態に係る情報処理システム1の構成の一例を示す図である。情報処理システム1は、音声入力及びジェスチャー入力によるウェアラブル端末10の操作を受け付ける。なお、このジェスチャーは、必ずしも体やその部位の動きを伴ったものでなくてもよい。例えば指により或る位置を指し示す身振りも、ジェスチャーに含まれる。
音量を変更する場合
図8は、第1実施形態に係る情報処理システム1の動作の一例を示すシーケンスチャートである。ここでは、スピーカー18の音量を変更する場合を想定する。
次に、カメラ16の焦点を変更する場合を想定する。この場合、基本的には、上述したステップS101〜S114と同様の処理が行われる。ただし、上述したステップS101では、焦点モードに対応する操作ワードである「焦点モード」という音声が入力される。上述したステップS105では、焦点モードが選択される。上述したステップS107では、焦点モードが起動される。焦点モードが起動されると、ユーザーは、手を用いて焦点を変更する操作を行う。
第2実施形態では、AR(Augmented Reality)を利用して、ウェアラブル端末10の操作を支援する。第2実施形態に係る情報処理システム3の構成は、基本的には、第1実施形態に係る情報処理システム1の構成と同様である。ただし、情報処理システム3の機能構成は、情報処理システム1の機能構成と異なる。
図12は、操作テーブル103の一例を示す図である。操作テーブル103は、上述した操作テーブル102と同様のデータ構造を有する。ただし、操作テーブル103に格納された情報の内容が、上述した操作テーブル102とは異なる。
図13は、第2実施形態に係る情報処理システム3の動作の一例を示すシーケンスチャートである。ここでは、スピーカー18の音量を変更する場合を想定する。ステップS201〜S207では、上述したステップS101〜S107と同様の処理が行われる。
本発明は上述した実施形態に限定されず、種々の変形がなされてもよい。また、以下の変形例は、上述した各実施形態と組み合わせて実施されてもよいし、他の変形例と組み合わせて実施されてもよい。
上述した第2実施形態において、検出手段120により検出された位置が表示パネル150に表示された仮想オブジェクトに対応する位置である場合に、その仮想オブジェクトに対応する処理が実行されてもよい。
上述した第1実施形態及び第2実施形態において、動作条件が変更される際の変更量は、所定の量であってもよいし、対象部位の移動距離、移動速度、加速度、及び回転角の少なくとも一つに応じた量であってもよい。例えば、図9に示す例では、ユーザーの手の加速度に応じた量だけ音量が変更されてもよい。また、図14に示す例では、ユーザーの手の回転角に応じた量だけ音量が変更されてもよい。また、図15に示す例では、ユーザーの指の移動距離に応じた量だけ音量が変更されてもよい。
上述した第2実施形態において、ユーザーの音声入力に応じて、操作ワードの一覧が表示されてもよい。ここでは、この一覧表示に対応する操作ワードが「一覧表示」である場合を想定する。この場合、ユーザーは、マイクロフォン17に向かって「一覧表示」という音声を発する。音声認識手段114は、この音声を認識する。表示制御手段124は、操作ワードの一覧を表示パネル150上に表示させる。これにより、ユーザーは、各動作モードに対応する操作ワードを認識していなくても、音声入力により所望の動作モードを選択することができる。この場合、ユーザーは、上述した第2実施形態と同様に、所望の動作モードに対応する操作ワードを発することにより、動作モードを選択してもよい。
上述した第1実施形態及び第2実施形態において、ウェアラブル端末10の操作が許可される人はウェアラブル端末10のユーザーに限定されない。例えば、通信回線2を介してウェアラブル端末10と外部装置とが接続される場合には、この外部装置のユーザーにウェアラブル端末10の操作が許可されてもよい。この場合、外部装置のユーザーの音声又は音声の特徴を示す認証データが予めストレージ24に格納される。また、外部装置には、マイクロフォン等の音検出手段が設けられる。
上述した第1実施形態及び第2実施形態において、カメラ16により撮影された対象部位の画像を用いて、対象部位の認証が行われてもよい。この場合、ジェスチャー入力による操作が行われる前に、ウェアラブル端末10の操作が許可された人の対象部位を含む画像を示す画像データがストレージ24に格納される。対象部位を含む画像が撮影され、撮影された画像を示す画像データがウェアラブル端末10からサーバー装置20に送信されると、認証手段113は、この画像データにより示される画像に含まれる対象部位の特徴を用いて、対象部位を有する人の認証を行う。この特徴には、例えば対象部位の形状や色が含まれてもよい。また、対象部位が手である場合、対象部位の特徴は指の指紋であってもよい。
上述した第2実施形態において、音声入力により動作条件が変更されてもよい。この場合、図14に示す仮想オブジェクト153には、例えば音声入力により変更可能な音量の目盛りが含まれる。例えば、音声入力により五段階の音量の変更が可能な場合には、「1」〜「5」の目盛りが含まれる。例えば、ユーザーが「4」という音声を発すると、この音声が認識され、「4」に対応する音量に変更されてもよい。
上述した第1実施形態及び第2実施形態において、音声入力により動作モードが終了されてもよい。ここでは、動作モードの終了に用いられる操作ワードが「終了」である場合を想定する。この場合、ユーザーにより「終了」という音声が発せられた場合には、動作モードが終了してもよい。
上述した第1実施形態及び第2実施形態において、対象部位は手に限定されない。例えば、対象部位は頭や足であってもよい。例えば対象部位が頭である場合、対象部位の位置は、センサーユニット19に含まれる加速度センサーにより検出されてもよい。すなわち、検出手段120は、センサーユニット19により実現されてもよい。
上述した第1実施形態及び第2実施形態において、動作モードは、音量モードや焦点モードに限定されない。動作モードは、ウェアラブル端末10が有するものであれば、どのような動作モードであってもよい。また、各動作モードにおいて実行される処理は、音量を変更する処理や焦点を変更する処理に限定されない。この処理は、ウェアラブル端末10により実行される処理であれば、どのような処理であってもよい。
上述した第1実施形態又は第2実施形態において、情報処理システム1又は3の機能を実現するためのプログラムは、単一のプロセッサー11又は21により実行されてもよいし、2以上のプロセッサー11又は21により同時又は逐次に実行されてもよい。
上述した第1実施形態又は第2実施形態において説明した情報処理システム1又は3の機能を実装する主体は、例示に過ぎず、これに限定されない。例えばサーバー装置20の機能の一部をウェアラブル端末10が有してもよい。他の例において、ウェアラブル端末10が単体で情報処理システム1の機能を全て有してもよい。この場合、ウェアラブル端末10は、情報処理装置として機能する。また、処理を実行する主体は、ウェアラブル端末10に限定されない。例えばウェアラブル端末10に代えて、ユーザーに装着されない形状の装置が用いられてもよい。
情報処理システム1又は3において行われる処理のステップは、上述した第1実施形態又は第2実施形態で説明した例に限定されない。この処理のステップは、矛盾のない限り、入れ替えられてもよい。また、本発明は、情報処理システム1又は3において行われる処理のステップを備える方法として提供されてもよい。
本発明は、ウェアラブル端末10又はサーバー装置20において実行されるプログラムとして提供されてもよい。これらのプログラムは、インターネット等のネットワークを介してダウンロードされてもよい。また、これらのプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリーなどの、コンピュータが読取可能な記録媒体に記録した状態で提供されてもよい。
上述した第1実施形態及び第2実施形態において、必ずしも音声の認識は行われなくてもよい。例えば、音声分析手段125は、音声を分析して特徴量を抽出する。この特徴量には、例えば音声の波形、周波数、又はサウンドスペクトログラムが含まれる。また、音声の特徴量について、予め動作モードが定められる。なお、この音声の特徴量と動作モードとの対応関係は、図5に示すような操作テーブルを用いて示されてもよい。選択手段115は、音声分析手段125により抽出された特徴量について予め定められた動作モードを選択する。
上述した第1実施形態及び第2実施形態において、ウェアラブル端末10の動作モードは、ウェアラブル端末10が予め有するものに限定されない。例えば、ウェアラブル端末10の動作モードは後から追加されてもよい。この動作モードの追加は、例えばプロセッサー11がメモリー12に記憶されたプログラムを実行することにより実現されてもよい。
Claims (13)
- 人に装着されるウェアラブル端末に設けられた音検出手段により検出された音声を分析する音声分析手段と、
前記ウェアラブル端末が有する複数の動作モードの中から、前記音声の分析結果について予め定められた動作モードを選択する選択手段と、
前記ウェアラブル端末において前記人の視界内に設けられた、光透過性を有する表示パネル上に、前記選択された動作モードに対応する仮想オブジェクトを表示する表示手段と、
前記人により前記表示パネルを透過して見える位置において体の対象部位を用いて前記仮想オブジェクトを操作する動作が行われると、前記対象部位の位置を検出する検出手段と、
前記検出された位置に基づいて、前記仮想オブジェクトが表示された位置と、前記表示パネルを透過して見える前記対象部位の位置との関係を判定する判定手段と、
前記分析された音声が前記選択された動作モードに対応する処理の条件の複数の第1の選択肢に含まれる第1の選択肢を示す場合には、前記第1の選択肢に従って前記処理を前記ウェアラブル端末において実行し、前記判定された関係が所定の関係である場合には、前記処理の条件の複数の第2の選択肢であって前記複数の第1の選択肢より数が多い前記複数の第2の選択肢のうち前記検出された位置の特徴について予め定められた第2の選択肢に従って前記処理を前記ウェアラブル端末において実行する処理手段と
を備える情報処理システム。 - 前記動作モードは、動作条件を変更するモードであり、
前記処理は、動作条件を変更する処理である
請求項1に記載の情報処理システム。 - 前記動作条件は、音出力手段の音量である
請求項2に記載の情報処理システム。 - 前記仮想オブジェクトは、前記対象部位を用いた操作を支援し、
撮像手段により撮影された前記対象部位を含む画像を認識して、前記対象部位を特定する画像認識手段を更に備え、
前記検出手段は、前記撮影された画像において、前記特定された対象部位の位置を検出する
請求項1から3のいずれか1項に記載の情報処理システム。 - 前記撮像手段は、前記人の視界に沿って前記対象部位を含む画像を撮影し、
前記処理手段は、前記判定された関係が前記仮想オブジェクトを前記対象部位で指し示す動作を示す関係である場合には、前記第2の選択肢に従って前記処理を実行する
請求項4に記載の情報処理システム。 - 前記表示手段は、複数の処理に対応する複数の仮想オブジェクトを前記表示パネル上に表示し、
前記処理手段は、前記判定された関係が前記複数の仮想オブジェクトのいずれかの仮想オブジェクトを前記対象部位で指し示す動作を示す関係である場合には、前記第2の選択肢に従って前記複数の処理のうち前記仮想オブジェクトに対応する処理を実行する
請求項5に記載の情報処理システム。 - 前記対象部位は、前記人の手であり、
前記位置の特徴は、前記手を用いた所定の動作を示す位置の変化である
請求項1から6のいずれか1項に記載の情報処理システム。 - 前記検出された音声の特徴を用いて、前記音声を入力した人を認証する認証手段を更に備え、
前記処理手段は、前記人の認証が失敗した場合には、前記処理を実行しない
請求項1から7のいずれか1項に記載の情報処理システム。 - 前記対象部位を含む画像を撮影する撮像手段と、
前記撮影された画像に含まれる前記対象部位の特徴を用いて、前記人を認証する認証手段とを更に備え、
前記処理手段は、前記人の認証が失敗した場合には、処理を実行しない
請求項1から8のいずれか1項に記載の情報処理システム。 - 前記音声分析手段は、前記検出された音声を認識し、認識した結果を示す文字列を生成する画像認識手段を有し、
前記選択手段は、前記生成された文字列について予め定められた動作モードを選択する
請求項1から9のいずれか1項に記載の情報処理システム。 - 人に装着されるウェアラブル端末に設けられた音検出手段により検出された音声を分析するステップと、
前記ウェアラブル端末が有する複数の動作モードの中から、前記音声の分析結果について予め定められた動作モードを選択するステップと、
前記ウェアラブル端末において前記人の視界内に設けられた、光透過性を有する表示パネル上に、前記選択された動作モードに対応する仮想オブジェクトを表示するステップと、
前記人により前記表示パネルを透過して見える位置において体の対象部位を用いて前記仮想オブジェクトを操作する動作が行われると、前記対象部位の位置を検出するステップと、
前記検出された位置に基づいて、前記仮想オブジェクトが表示された位置と、前記表示パネルを透過して見える前記対象部位の位置との関係を判定するステップと、
前記分析された音声が前記選択された動作モードに対応する処理の条件の複数の第1の選択肢に含まれる第1の選択肢を示す場合には、前記第1の選択肢に従って前記処理を前記ウェアラブル端末において実行し、前記判定された関係が所定の関係である場合には、前記処理の条件の複数の第2の選択肢であって前記複数の第1の選択肢より数が多い前記複数の第2の選択肢のうち前記検出された位置の特徴について予め定められた第2の選択肢に従って前記処理を前記ウェアラブル端末において実行するステップと
を備える情報処理方法。 - 人に装着されるウェアラブル端末であって、
音検出手段により検出された音声を分析する音声分析手段と、
複数の動作モードの中から、前記音声の分析結果について予め定められた動作モードを選択する選択手段と、
前記人の視界内に設けられた、光透過性を有する表示パネル上に、前記選択された動作モードに対応する仮想オブジェクトを表示する表示手段と、
前記人により前記表示パネルを透過して見える位置において体の対象部位を用いて前記仮想オブジェクトを操作する動作が行われると、前記対象部位の位置を検出する検出手段と、
前記検出された位置に基づいて、前記仮想オブジェクトが表示された位置と、前記表示パネルを透過して見える前記対象部位の位置との関係を判定する判定手段と、
前記分析された音声が前記選択された動作モードに対応する処理の条件の複数の第1の選択肢に含まれる第1の選択肢を示す場合には、前記第1の選択肢に従って前記処理を前記ウェアラブル端末において実行し、前記判定された関係が所定の関係である場合には、前記処理の条件の複数の第2の選択肢であって前記複数の第1の選択肢より数が多い前記複数の第2の選択肢のうち前記検出された位置の特徴について予め定められた第2の選択肢に従って前記処理を実行する処理手段と
を備えるウェアラブル端末。 - コンピュータに、
人に装着されるウェアラブル端末に設けられた音検出手段により検出された音声を分析するステップと、
前記ウェアラブル端末が有する複数の動作モードの中から、前記音声の分析結果について予め定められた動作モードを選択するステップと、
前記ウェアラブル端末において前記人の視界内に設けられた、光透過性を有する表示パネル上に、前記選択された動作モードに対応する仮想オブジェクトを表示するステップと、
前記人により前記表示パネルを透過して見える位置において体の対象部位を用いて前記仮想オブジェクトを操作する動作が行われると、前記対象部位の位置を検出するステップと、
前記検出された位置に基づいて、前記仮想オブジェクトが表示された位置と、前記表示パネルを透過して見える前記対象部位の位置との関係を判定するステップと、
前記分析された音声が前記選択された動作モードに対応する処理の条件の複数の第1の選択肢に含まれる第1の選択肢を示す場合には、前記第1の選択肢に従って前記処理を前記ウェアラブル端末において実行し、前記判定された関係が所定の関係である場合には、前記処理の条件の複数の第2の選択肢であって前記複数の第1の選択肢より数が多い前記複数の第2の選択肢のうち前記検出された位置の特徴について予め定められた第2の選択肢に従って前記処理を前記ウェアラブル端末において実行するステップと
を実行させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/014083 WO2018185830A1 (ja) | 2017-04-04 | 2017-04-04 | 情報処理システム、情報処理方法、情報処理装置、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018185830A1 JPWO2018185830A1 (ja) | 2019-12-26 |
JP6679083B2 true JP6679083B2 (ja) | 2020-04-15 |
Family
ID=63712895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019510527A Active JP6679083B2 (ja) | 2017-04-04 | 2017-04-04 | 情報処理システム、情報処理方法、ウェアラブル端末、及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6679083B2 (ja) |
WO (1) | WO2018185830A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6671524B1 (ja) * | 2019-02-22 | 2020-03-25 | 菱洋エレクトロ株式会社 | 報告書作成するための方法、システム、及び装置 |
JP7353806B2 (ja) * | 2019-06-07 | 2023-10-02 | キヤノン株式会社 | 情報処理システム、情報処理装置、情報処理方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112008001396B4 (de) * | 2007-06-05 | 2015-12-31 | Mitsubishi Electric Corp. | Fahrzeugbedienungsvorrichtung |
JP5636888B2 (ja) * | 2010-11-09 | 2014-12-10 | ソニー株式会社 | 情報処理装置、プログラムおよびコマンド生成方法 |
JP6136090B2 (ja) * | 2012-03-13 | 2017-05-31 | 株式会社ニコン | 電子機器、及び表示装置 |
US10613826B2 (en) * | 2014-12-25 | 2020-04-07 | Maxell, Ltd. | Head-mounted display system and operating method for head-mounted display device |
JP6409118B2 (ja) * | 2015-02-25 | 2018-10-17 | 京セラ株式会社 | ウェアラブル装置、制御方法及び制御プログラム |
-
2017
- 2017-04-04 WO PCT/JP2017/014083 patent/WO2018185830A1/ja active Application Filing
- 2017-04-04 JP JP2019510527A patent/JP6679083B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JPWO2018185830A1 (ja) | 2019-12-26 |
WO2018185830A1 (ja) | 2018-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9049983B1 (en) | Ear recognition as device input | |
US9213436B2 (en) | Fingertip location for gesture input | |
US9134800B2 (en) | Gesture input device and gesture input method | |
US10444908B2 (en) | Virtual touchpads for wearable and portable devices | |
JP6371475B2 (ja) | 視線入力装置、視線入力方法、および、視線入力プログラム | |
KR20210023680A (ko) | 증강 현실 환경에서의 콘텐트 생성 | |
JP2010067062A (ja) | 入力システム及び入力方法 | |
JP2015090569A (ja) | 情報処理装置及び情報処理方法 | |
US20170300119A1 (en) | Intra-oral imaging using operator interface with gesture recognition | |
KR102392437B1 (ko) | 반사 기반 제어 활성화 기법 | |
JP2013156889A (ja) | 移動制御装置、移動制御装置の制御方法、及びプログラム | |
US9400575B1 (en) | Finger detection for element selection | |
JP6679083B2 (ja) | 情報処理システム、情報処理方法、ウェアラブル端末、及びプログラム | |
JP2017191426A (ja) | 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体 | |
CN114945949A (zh) | 化身显示装置、化身显示系统、化身显示方法以及化身显示程序 | |
US20220244788A1 (en) | Head-mounted display | |
US9898183B1 (en) | Motions for object rendering and selection | |
JP2015052895A (ja) | 情報処理装置及び情報処理方法 | |
JP2016058061A (ja) | 電子機器 | |
JP6452585B2 (ja) | 情報処理装置および位置情報取得方法 | |
JP6631736B1 (ja) | 生体認証装置、生体認証システムおよびプログラム | |
US11054941B2 (en) | Information processing system, information processing method, and program for correcting operation direction and operation amount | |
US11448884B2 (en) | Image based finger tracking plus controller tracking | |
JP6631737B1 (ja) | 生体認証装置およびプログラム | |
JP6169462B2 (ja) | 情報処理装置及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A5211 Effective date: 20190902 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190902 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190902 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190902 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6679083 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |