JP6325659B2 - 操作画面表示装置、操作画面表示方法およびプログラム - Google Patents
操作画面表示装置、操作画面表示方法およびプログラム Download PDFInfo
- Publication number
- JP6325659B2 JP6325659B2 JP2016517879A JP2016517879A JP6325659B2 JP 6325659 B2 JP6325659 B2 JP 6325659B2 JP 2016517879 A JP2016517879 A JP 2016517879A JP 2016517879 A JP2016517879 A JP 2016517879A JP 6325659 B2 JP6325659 B2 JP 6325659B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- operation screen
- display device
- posture
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 28
- 230000033001 locomotion Effects 0.000 claims description 113
- 238000010191 image analysis Methods 0.000 claims description 26
- 210000000245 forearm Anatomy 0.000 description 29
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 210000000746 body region Anatomy 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 230000004931 aggregating effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000026058 directional locomotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
ユーザが非接触動作で操作可能な操作画面を表示装置に表示する操作画面表示装置であって、
前記ユーザを含む深度画像を深度センサから取得する画像取得手段と、
前記取得された深度画像を解析し、前記ユーザの身体の特定の部位にあたる画像領域を特定し、前記特定された画像領域に基づいて、前記身体の特定の部位の向きを表す姿勢状態を判定する姿勢判定手段と、
前記判定された前記ユーザの姿勢状態に基づいて、前記操作画面を生成する表示制御手段と、
前記生成された操作画面を前記表示装置に表示する表示手段と、
を備えることを特徴とする。
表示装置に接続された操作画面表示装置が実行する操作画面表示方法であって、
ユーザを含む深度画像を解析し、前記ユーザの身体の特定の部位にあたる画像領域を抽出する画像解析ステップと、
前記抽出された画像領域に基づいて、前記身体の特定の部位の向きを表す姿勢状態を判定する姿勢判定ステップと、
前記判定された前記ユーザの姿勢状態に基づいて、前記ユーザが非接触動作で操作可能な操作画面を生成する表示制御ステップと、
前記生成された操作画面を前記表示装置に表示する表示ステップと、
を備えることを特徴とする。
表示装置と接続されたコンピュータに、
ユーザを含む深度画像を解析し、前記ユーザの身体の特定の部位にあたる画像領域を抽出する画像解析ステップと、
前記抽出された画像領域に基づいて、前記身体の特定の部位の向きを表す姿勢状態を判定する姿勢判定ステップと、
前記判定された前記ユーザの姿勢状態に基づいて、前記ユーザが非接触動作で操作可能な操作画面を生成する表示制御ステップと、
前記生成された操作画面を前記表示装置に表示する表示ステップと、
を実行させる。
ユーザが非接触動作で操作可能な操作画面を表示装置に表示する操作画面表示装置であって、
前記ユーザを含む深度画像を深度センサから取得する画像取得手段と、
前記取得された深度画像を解析し、前記ユーザの身体部分にあたる画像領域を特定し、前記特定された画像領域に基づいて、前記ユーザの姿勢状態を判定する姿勢判定手段と、
前記判定された前記ユーザの姿勢状態に基づいて、前記操作画面を生成する表示制御手段と、
前記生成された操作画面を前記表示装置に表示する表示手段と、
を備えることを特徴とする操作画面表示装置。
前記姿勢判定手段は、前記特定された画像領域に基づいて、前記深度センサに対して前記ユーザの身体部分が向いている方向を特定し、
前記表示制御手段は、前記特定された方向と、あらかじめ記録された前記表示装置の画面と前記深度センサとの位置関係とに基づいて、前記操作画面を生成する、
ことを特徴とする付記1に記載の操作画面表示装置。
前記表示制御手段は、記録されている前記操作画面の元となる画像データを読み出し、当該読み出した画像データを、前記特定された方向が前記表示装置の画面に対して傾斜している度合いに応じて傾斜させることによって前記操作画面を生成する、
ことを特徴とする付記2に記載の操作画面表示装置。
前記姿勢判定手段は、あらかじめ記録された前記表示装置の画面と前記深度センサとの位置関係と、前記特定された画像領域とに基づいて、前記ユーザの身体部分の前記表示装置の画面の法線に対する角度を含む前記ユーザの姿勢状態を判定する、
ことを特徴とする付記1に記載の操作画面表示装置。
前記表示制御手段は、前記姿勢判定手段が判定した前記ユーザの身体部分の前記表示装置の画面の法線に対する角度から、透視画法で前記ユーザの身体部分の動かしやすい方向に見えるように、操作内容を示すメニューを選択可能に配置した前記操作画面を生成する、
ことを特徴とする付記4に記載の操作画面表示装置。
前記表示制御手段は、前記姿勢判定手段が判定した前記ユーザの身体部分の前記表示装置の画面の法線に対する角度から、前記ユーザの片方の腕の角度に合わせて変形する操作画面を生成する、
ことを特徴とする付記4に記載の操作画面表示装置。
所定の身体動作と、当該身体動作に対応する操作内容とを示す身体動作情報を記憶する記憶手段と、
前記姿勢判定手段が判定した前記ユーザの姿勢状態に基づいて前記ユーザによってなされた身体動作を識別し、当該識別された身体動作と前記身体動作情報とを照合することにより、前記ユーザが行った操作内容を検出する身体動作判定手段と、を備え、
前記身体動作判定手段は、前記姿勢判定手段が判定した前記ユーザの姿勢状態に基づいて、前記操作画面に対して前記ユーザが第1の手の形状で操作する場合は所定の方向の動きを有効、前記所定の方向と異なる他の方向の動きを無効とし、前記操作画面に対して前記ユーザが前記第1の手の形状と異なる第2の手の形状で操作する場合は、前記他の方向の動きを有効、前記所定の方向の動きを無効とする、
ことを特徴とする付記1に記載の操作画面表示装置。
表示装置に接続された操作画面表示装置が実行する操作画面表示方法であって、
ユーザを含む深度画像を解析し、前記ユーザの身体部分にあたる画像領域を抽出する画像解析ステップと、
前記抽出された画像領域に基づいて、前記ユーザの姿勢状態を判定する姿勢判定ステップと、
前記判定された前記ユーザの姿勢状態に基づいて、前記ユーザが非接触動作で操作可能な操作画面を生成する表示制御ステップと、
前記生成された操作画面を前記表示装置に表示する表示ステップと、
を備えることを特徴とする操作画面表示方法。
表示装置と接続されたコンピュータに、
ユーザを含む深度画像を解析し、前記ユーザの身体部分の画像領域を抽出する画像解析ステップ、
前記抽出された前記ユーザの身体部分の画像領域に基づいて、前記ユーザの姿勢状態を判定する姿勢判定ステップ、
前記判定された前記ユーザの姿勢状態に基づいて、前記ユーザが非接触動作で操作可能な操作画面を生成する表示制御ステップ、
前記生成された操作画面を前記表示装置に表示する表示ステップ、
を実行させるプログラムを記録した非一過性の記録媒体。
2 深度センサ
5 表示装置
11 画像取得部
12 画像解析部
13 姿勢判定部
14 身体動作判定部
15 記憶部
16 表示制御部
30 内部バス
31 制御部
32 主記憶部
33 外部記憶部
34 入出力部
35 表示部
39 制御プログラム
P1 手先
P2 肘
P3 肩
P4 手中心
P5 左端部
P6 右端部
Claims (8)
- ユーザが非接触動作で操作可能な操作画面を表示装置に表示する操作画面表示装置であって、
前記ユーザを含む深度画像を深度センサから取得する画像取得手段と、
前記取得された深度画像を解析し、前記ユーザの身体の特定の部位にあたる画像領域を特定し、前記特定された画像領域に基づいて、前記身体の特定の部位の向きを表す姿勢状態を判定する姿勢判定手段と、
前記判定された前記ユーザの姿勢状態に基づいて、前記操作画面を生成する表示制御手段と、
前記生成された操作画面を前記表示装置の画面に表示する表示手段と、
所定の身体動作と、当該身体動作に対応する操作内容とを示す身体動作情報を記憶する記憶手段と、
前記姿勢判定手段が判定した前記ユーザの姿勢状態に基づいて前記ユーザによってなされた身体動作を識別し、当該識別された身体動作と前記身体動作情報とを照合することにより、前記ユーザが行った操作内容を検出する身体動作判定手段と、
を備え、
前記身体動作判定手段は、前記姿勢判定手段が判定した前記ユーザの姿勢状態に基づいて、前記操作画面に対して前記ユーザが第1の手の形状で操作する場合は所定の方向の動きを有効、前記所定の方向と反対方向の動きを無効とし、前記操作画面に対して前記ユーザが前記第1の手の形状と異なる第2の手の形状で操作する場合は、前記反対方向の動きを有効、前記所定の方向の動きを無効とする、
ことを特徴とする操作画面表示装置。 - 前記姿勢判定手段は、前記特定された画像領域に基づいて、前記深度センサに対して前記ユーザの身体の特定の部位が向いている方向を特定し、
前記表示制御手段は、前記特定された方向と、あらかじめ記録された前記表示装置の画面と前記深度センサとの位置関係とに基づいて、前記操作画面を生成する、
ことを特徴とする請求項1に記載の操作画面表示装置。 - 前記表示制御手段は、記録されている前記操作画面の元となる画像データを読み出し、当該読み出した画像データを、前記特定された方向が前記表示装置の画面に対して傾斜している度合いに応じて傾斜させることによって前記操作画面を生成する、
ことを特徴とする請求項2に記載の操作画面表示装置。 - 前記姿勢判定手段は、あらかじめ記録された前記表示装置の画面と前記深度センサとの位置関係と、前記特定された画像領域とに基づいて、前記ユーザの身体の特定の部位の前記表示装置の画面の法線に対する角度を含む前記ユーザの姿勢状態を判定する、
ことを特徴とする請求項1に記載の操作画面表示装置。 - 前記表示制御手段は、前記姿勢判定手段が判定した前記ユーザの身体の特定の部位の前記表示装置の画面の法線に対する角度から、透視画法で前記ユーザの身体の特定の部位の動かしやすい方向に見えるように、操作内容を示すメニューを選択可能に配置した前記操作画面を生成する、
ことを特徴とする請求項4に記載の操作画面表示装置。 - 前記姿勢判定手段は、前記ユーザの片方の上腕にあたる画像領域を特定し、前記特定された画像領域に基づいて、前記片方の上腕の肘から手にかけての向きを前記姿勢状態として判定する、
ことを特徴とする請求項1から5のいずれか1項に記載の操作画面表示装置。 - 表示装置に接続された操作画面表示装置が実行する操作画面表示方法であって、
ユーザを含む深度画像を解析し、前記ユーザの身体の特定の部位にあたる画像領域を抽出する画像解析ステップと、
前記抽出された画像領域に基づいて、前記身体の特定の部位の向きを表す姿勢状態を判定する姿勢判定ステップと、
前記判定された前記ユーザの姿勢状態に基づいて、前記ユーザが非接触動作で操作可能な操作画面を生成する表示制御ステップと、
前記生成された操作画面を前記表示装置に表示する表示ステップと、
所定の身体動作と、当該身体動作に対応する操作内容とを示す身体動作情報を記憶する記憶ステップと、
前記姿勢判定ステップで判定した前記ユーザの姿勢状態に基づいて前記ユーザによってなされた身体動作を識別し、当該識別された身体動作と前記身体動作情報とを照合することにより、前記ユーザが行った操作内容を検出する身体動作判定ステップと、
を備え、
前記身体動作判定ステップは、前記姿勢判定ステップにおいて判定した前記ユーザの姿勢状態に基づいて、前記操作画面に対して前記ユーザが第1の手の形状で操作する場合は所定の方向の動きを有効、前記所定の方向と反対方向の動きを無効とし、前記操作画面に対して前記ユーザが前記第1の手の形状と異なる第2の手の形状で操作する場合は、前記反対方向の動きを有効、前記所定の方向の動きを無効とする、
ことを特徴とする操作画面表示方法。 - 表示装置と接続されたコンピュータに、
ユーザを含む深度画像を解析し、前記ユーザの身体の特定の部位にあたる画像領域を抽出する画像解析ステップと、
前記抽出された画像領域に基づいて、前記身体の特定の部位の向きを表す姿勢状態を判定する姿勢判定ステップと、
前記判定された前記ユーザの姿勢状態に基づいて、前記ユーザが非接触動作で操作可能な操作画面を生成する表示制御ステップと、
前記生成された操作画面を前記表示装置に表示する表示ステップと、
前記姿勢判定ステップで判定した前記ユーザの姿勢状態に基づいて前記ユーザによってなされた身体動作を識別し、当該識別された身体動作と前記身体動作情報とを照合することにより、前記ユーザが行った操作内容を検出する身体動作判定ステップと、
を実行させ、さらに、
前記身体動作判定ステップにおいて、前記姿勢判定ステップにおいて判定した前記ユーザの姿勢状態に基づいて、前記操作画面に対して前記ユーザが第1の手の形状で操作する場合は所定の方向の動きを有効、前記所定の方向と反対方向の動きを無効とし、前記操作画面に対して前記ユーザが前記第1の手の形状と異なる第2の手の形状で操作する場合は、前記反対方向の動きを有効、前記所定の方向の動きを無効とする、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014096972 | 2014-05-08 | ||
JP2014096972 | 2014-05-08 | ||
PCT/JP2015/062784 WO2015170641A1 (ja) | 2014-05-08 | 2015-04-28 | 操作画面表示装置、操作画面表示方法および非一過性の記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015170641A1 JPWO2015170641A1 (ja) | 2017-04-20 |
JP6325659B2 true JP6325659B2 (ja) | 2018-05-16 |
Family
ID=54392493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016517879A Active JP6325659B2 (ja) | 2014-05-08 | 2015-04-28 | 操作画面表示装置、操作画面表示方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20170168584A1 (ja) |
JP (1) | JP6325659B2 (ja) |
TW (1) | TW201606574A (ja) |
WO (1) | WO2015170641A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017021461A (ja) * | 2015-07-08 | 2017-01-26 | 株式会社ソニー・インタラクティブエンタテインメント | 操作入力装置および操作入力方法 |
JP6842253B2 (ja) * | 2016-07-27 | 2021-03-17 | パイオニア株式会社 | 認識装置及び認識方法 |
JP6444345B2 (ja) * | 2016-08-23 | 2018-12-26 | 株式会社コロプラ | 仮想空間における入力を支援するための方法および装置ならびに当該方法をコンピュータに実行させるプログラム |
US20190073040A1 (en) * | 2017-09-05 | 2019-03-07 | Future Mobility Corporation Limited | Gesture and motion based control of user interfaces |
KR20230026832A (ko) * | 2021-08-18 | 2023-02-27 | 삼성전자주식회사 | 동작 제스처를 감지하는 전자 장치 및 그 동작 방법 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5788853B2 (ja) * | 2005-02-08 | 2015-10-07 | オブロング・インダストリーズ・インコーポレーテッド | ジェスチャベースの制御システムのためのシステムおよび方法 |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
JP4900741B2 (ja) * | 2010-01-29 | 2012-03-21 | 島根県 | 画像認識装置および操作判定方法並びにプログラム |
JP5964603B2 (ja) * | 2012-02-08 | 2016-08-03 | シャープ株式会社 | データ入力装置、及び表示装置 |
US9411423B2 (en) * | 2012-02-08 | 2016-08-09 | Immersion Corporation | Method and apparatus for haptic flex gesturing |
US9081418B1 (en) * | 2013-03-11 | 2015-07-14 | Rawles Llc | Obtaining input from a virtual user interface |
-
2015
- 2015-04-28 WO PCT/JP2015/062784 patent/WO2015170641A1/ja active Application Filing
- 2015-04-28 JP JP2016517879A patent/JP6325659B2/ja active Active
- 2015-04-28 US US15/309,564 patent/US20170168584A1/en not_active Abandoned
- 2015-05-06 TW TW104114353A patent/TW201606574A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
JPWO2015170641A1 (ja) | 2017-04-20 |
US20170168584A1 (en) | 2017-06-15 |
WO2015170641A1 (ja) | 2015-11-12 |
TW201606574A (zh) | 2016-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6325659B2 (ja) | 操作画面表示装置、操作画面表示方法およびプログラム | |
JP6323040B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6074170B2 (ja) | 近距離動作のトラッキングのシステムおよび方法 | |
US20190278376A1 (en) | System and method for close-range movement tracking | |
EP2817693B1 (en) | Gesture recognition device | |
EP2891950B1 (en) | Human-to-computer natural three-dimensional hand gesture based navigation method | |
US9747018B2 (en) | Apparatus and method for controlling object | |
JP2013037675A5 (ja) | ||
EP2996022A1 (en) | Input assistance device, input assistance method, and program | |
US10372229B2 (en) | Information processing system, information processing apparatus, control method, and program | |
JP5507773B1 (ja) | 要素選択装置、要素選択方法、および、プログラム | |
JP2014235634A (ja) | 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム | |
WO2015026569A1 (en) | System and method for creating an interacting with a surface display | |
JP6141108B2 (ja) | 情報処理装置およびその方法 | |
JP2016167268A (ja) | ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム | |
JP2007241833A (ja) | 認識装置、認識システム、形状認識方法、プログラム及びコンピュータ読み取り可能な記録媒体 | |
JP5558899B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
KR101211178B1 (ko) | 증강 현실 컨텐츠 재생 시스템 및 방법 | |
KR101068281B1 (ko) | 후면부 손가락 움직임 및 제스처 인식을 이용한 휴대형 정보 단말기 및 콘텐츠 제어 방법 | |
JP6618301B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
CN103221912A (zh) | 输入命令 | |
JP6256545B2 (ja) | 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム | |
WO2016184076A1 (zh) | 字符的输出方法及装置 | |
JP2023143634A (ja) | 制御装置、制御方法、プログラム | |
JP2020071641A (ja) | 入力操作装置及びユーザインタフェースシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161107 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171120 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20171120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20171121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180320 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180412 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6325659 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |