JP6303772B2 - 入力制御装置、制御方法および制御プログラム - Google Patents
入力制御装置、制御方法および制御プログラム Download PDFInfo
- Publication number
- JP6303772B2 JP6303772B2 JP2014092079A JP2014092079A JP6303772B2 JP 6303772 B2 JP6303772 B2 JP 6303772B2 JP 2014092079 A JP2014092079 A JP 2014092079A JP 2014092079 A JP2014092079 A JP 2014092079A JP 6303772 B2 JP6303772 B2 JP 6303772B2
- Authority
- JP
- Japan
- Prior art keywords
- indicator
- space
- shape
- unit
- display surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Description
以下、図面を参照して、実施形態について説明する。図1は、3次元空間を利用した情報入力を行うシステムの一例を示している。処理装置1は、3次元空間を利用したユーザの指示に応じて、所定の入力操作の処理を行う。処理装置1は、入力制御装置の一例である。
次に、指示体の形状の一例について、図7の一例を用いて説明する。指示体の形状には、主に選択形状と操作形状とがある。選択形状は、表示面3に表示されているオブジェクト3A〜3Fを選択する形状である。操作形状は、操作に割り当てられた指示体4の形状である。
図8は、表示面3を基準として、4つの空間を設定した一例を示している。図8に示す4つの空間は、表示面3に表示されている操作対象であるオブジェクトを選択するために設定される空間である。この空間は選択空間とも称される。図8では、XYZ座標系を用いて、4つの空間を示している。表示面3は、XY平面に平行な面であり、Z軸上ではゼロの座標位置にあるものとする。
指示体4の指示点を表示面3に投影した位置によりオブジェクトの選択が行われる。従って、指示体4が移動したことを指示体認識部21が認識すると、指示体4の指示点を表示面3に投影した位置が変化する。
図10は、指示体4に割り当てられる操作の一例を示す。図10の例1および例2に示されるように、指示体4の形状と動作との組み合わせに操作が割り当てられている。図10の例1は、垂直方向(Z軸方向)に操作を割り当てる例を示しており、例2は、垂直方向に操作を割り当てない例を示している。
次に、図11乃至図15に一例として示すフローチャートを参照して、実施形態の処理について説明する。最初に、図11のフローチャートについて説明する。表示制御部25は、表示面3に情報を表示する(ステップS1)。例えば、表示制御部25がプロジェクタ2を制御して、表示面3に所定の情報を表示する。実施形態では、表示面3にオブジェクト3A〜3Fが表示されるようにプロジェクタ2を制御する。
次に、表示面3に表示されているオブジェクトの選択の一例について、図16を参照して説明する。指示体4が、表示面3を基準として最も遠い空間である選択不能空間にあるときは、表示制御部25はオブジェクト3A〜3Fの表示を変更しない。その一例を図16(A)に示す。
図17は、操作可能空間を最大限に広げた場合の一例を示している。図17の例では、Z軸上における閾値1の座標は、表示面3と同じである。また、Z軸上における閾値2の座標は、閾値3と同じである。
図18は、認識可能空間および操作可能空間の3次元モデルの一例を示している。認識可能空間は、センサ5(ステレオセンサの場合は、センサ5およびセンサ6)により認識可能な空間を示している。操作可能空間は、認識可能空間よりも狭小な空間となっている。
次に、具体例について説明する。図19は、指示体4が選択形状(第1の形)をしている状態で、選択可能空間に位置している例を示している。指示体4の指示点を表示面3に投影した位置は、オブジェクト3Eと重なっている。従って、オブジェクト3Eは強調表示されている。
次に、図27を参照して、第1の応用例について説明する。図27(A)は、表示面3に表示されているオブジェクト3Aおよび3Bの一例を示している。また、図27(A)には、第1の領域と第2の領域とが示されている。第1の領域および第2の領域を示す情報は表示面3には表示されない。ただし、当該情報は表示されてもよい。第2の領域は第1の領域よりも狭い領域になっている。
次に、図28を参照して、第2の応用例について説明する。図28は、指示体4が第1の領域の境界に位置している場合を示している。つまり、指示体4は、操作可能な領域の境界に位置している。なお、第2の応用例も、オブジェクトに対する操作が行われるものとする。従って、指示体4の形状は操作形状になっている。
次に、第3の応用例について説明する。第3の応用例でも、指示体4の形状は操作形状になっているものとする。指示体認識部21は、指示体4が第1の領域の境界に位置したことを認識したときに、スピーカ制御部28にその旨を通知する。スピーカ制御部28は、この通知に基づいて、スピーカ19を制御して、音を発生させる。これにより、ユーザは、指示体4が操作可能な領域の境界にあることを認識することができる。
次に、図29を参照して、第4の応用例について説明する。図29は、指示体4の形状および動作に割り当てられる操作の一例を示している。オブジェクトを選択する選択形状は、第1の形である。選択されたオブジェクトに対する操作を行う操作形状は、第2の形〜第4の形である。
次に、図30を参照して、第5の応用例について説明する。図30は、指示体4の形状に割り当てられる操作の一例を示している。オブジェクトを選択する選択形状は、第1の形である。選択されたオブジェクトに対する操作を行う操作形状は、第2の形〜第6の形である。
次に、図31および図32を参照して、第6の応用例について説明する。図31の例では、選択固定空間(区間3)が垂直方向に2つの空間に分割されている。選択可能空間に近い分割空間を第1の分割空間とし、選択決定空間に近い分割空間を第2の分割空間とする。
次に、図33乃至図36を参照して、第7の応用例について説明する。図33は、閾値の設定の一例を示している。図33は、操作可能空間を決定するための閾値を設定する一例を示している。
次に、図37を参照して、第8の応用例について説明する。図37の例に示すように、第8の応用例の表示面3は、非平面形状をしている。選択不能空間、選択可能空間および選択固定空間は、表示面3の形状に沿って設定される。一方、選択決定空間は、表示面3から選択固定空間の最下部までの空間に設定される。
次に、第9の応用例について説明する。指示体4が選択形状をしている場合において、指示体4が位置している空間に応じて、表示制御部25は表示面3に表示する情報の態様を変化させている。
実施形態では、水平面に表示面3を設定していたが、例えば、XZ平面に表示面3を設定してもよい。この場合、各種の空間はY軸方向に設定される。つまり、各種の空間は、表示面3の法線方向に設定されるようにしてもよい。
(付記1)
表示部に表示された操作対象に対して、空間内で操作を行う指示体の形状を認識する認識部と、
前記認識部が認識した前記指示体の形状に割り当てられた操作を特定する特定部と、
前記特定部が特定した操作に応じて、前記操作を行う空間の大きさを変更する変更部と、
を備える入力制御装置。
(付記2)
前記操作は、前記指示体の形状または当該形状と前記指示体の動作との組み合わせに割り当てられている、
付記1記載の入力制御装置。
(付記3)
前記変更部は、前記表示部に表示されている前記操作対象を選択するときと、前記操作対象を操作するときとで前記操作を行う空間の大きさを変更する、
付記1記載の入力制御装置。
(付記4)
前記変更部は、前記操作対象の選択が可能な第1の空間から、選択された前記操作対象を固定する第2の空間に前記指示体が移動し、且つ前記指示体の形状が前記選択を行う形状から前記操作を行う形状に変化したことを前記認識部が認識したときに、前記操作に応じて前記第2の空間の大きさを変更する、
付記3記載の入力制御装置。
(付記5)
前記操作を行う空間の境界を表示する境界表示部、
を備える付記1記載の入力制御装置。
(付記6)
前記変更部は、前記操作を行う空間の大きさを、前記表示部から前記操作を行うことが可能な空間の境界までの空間に変更する、
付記1記載の入力制御装置。
(付記7)
前記操作対象に対する操作が可能な空間よりも狭く設定された空間を前記操作対象が越えた後に、前記指示体の移動量に対して前記操作対象の移動量を逐次的に減少させる移動量制御部、
付記1記載の入力制御装置。
(付記8)
前記指示体が前記操作を行う空間の境界に位置していることを認識したときに、音を発生させる音源制御部、
を備える付記1記載の入力制御装置。
(付記9)
前記操作を行う空間外に前記指示体が移動した後に、前記指示体が前記操作を行う空間に再び移動したときに、前記指示体の形状が移動前と同じときには、前記操作を有効にされ、前記移動前と異なるときには、前記操作はキャンセルされる、
付記1記載の入力制御装置。
(付記10)
前記操作を行う空間は、前記表示部から遠い側の第1の分割空間と前記表示部に近い側の第2分割空間とに分割され、前記第1の分割空間に前記指示体が所定時間位置しているときに、前記操作を行うためのガイダンスを表示する、
付記1記載の入力制御装置。
(付記11)
前記表示部には前記指示体の指示点を投影した位置を示すカーソルが表示され、前記指示点が前記第1の空間に位置しているときと前記第2の空間に位置しているときとで表示態様が変化する、
付記4記載の入力制御装置。
(付記12)
前記カーソルは、前記表示部を基準として、前記認識部が認識する前記指示体の位置によって、前記カーソルの形状が変化する、
付記11記載の入力制御装置。
(付記13)
前記操作を行うための空間は複数の段階に分割され、各段階の空間は前記操作のレベルを指定する空間である、
付記1記載の入力制御装置。
(付記14)
前記表示部は非平面形状であり、前記操作を行う空間は前記非平面形状に沿って設定される、
付記1記載の入力制御装置。
(付記15)
表示部に表示された操作対象に対して、空間内で操作を行う指示体の形状を認識し、
認識した前記指示体の形状に割り当てられた操作を特定し、
特定した操作に応じて、前記操作を行う空間の大きさを変更する、
制御方法。
(付記16)
表示部に表示された操作対象に対して、空間内で操作を行う指示体の形状を認識し、
認識した前記指示体の形状に割り当てられた操作を特定し、
特定した操作に応じて、前記操作を行う空間の大きさを変更する、
処理をコンピュータに実行させる制御プログラム。
2 プロジェクタ
3 表示面
4 指示体
5 センサ
6 センサ
11 CPU
12 RAM
13 GPU
14 不揮発性メモリ
15 補助記憶装置
16 媒体接続装置
17 可搬型記録媒体
18 入出力インタフェース
19 スピーカ
21 指示体認識部
22 装置処理部
23 操作特定部
24 範囲変更部
25 表示制御部
26 移動量制御部
27 境界表示部
28 スピーカ制御部
Claims (9)
- 表示部に表示された操作対象に対して、空間内で操作を行う指示体の形状を、前記指示体をセンシングするセンサと前記指示体との距離を含むセンシング結果に基づいて認識する認識部と、
前記認識部が認識した前記指示体の形状に割り当てられた操作を特定する特定部と、
前記特定部が特定した操作に応じて、前記操作を行う空間の大きさを変更する変更部と、
を備える入力制御装置。 - 前記操作は、前記指示体の形状または当該形状と前記指示体の動作との組み合わせに割り当てられている、
請求項1記載の入力制御装置。 - 前記変更部は、前記表示部に表示されている前記操作対象を選択するときと、前記操作対象を操作するときとで前記操作を行う空間の大きさを変更する、
請求項1または2記載の入力制御装置。 - 前記変更部は、前記操作対象の選択が可能な第1の空間から、選択された前記操作対象を固定する第2の空間に前記指示体が移動し、且つ前記指示体の形状が前記選択を行う形状から前記操作を行う形状に変化したことを前記認識部が認識したときに、前記操作に応じて前記第2の空間の大きさを変更する、
請求項3記載の入力制御装置。 - 前記操作を行う空間の境界を表示する境界表示部、
を備える請求項1乃至4のうち何れか1項に記載の入力制御装置。 - 前記変更部は、前記操作を行う空間の大きさを、前記表示部から前記操作を行うことが可能な空間の境界までの空間に変更する、
請求項1乃至5のうち何れか1項に記載の入力制御装置。 - 前記操作対象に対する操作が可能な空間よりも狭く設定された空間を前記操作対象が越えた後に、前記指示体の移動量に対して前記操作対象の移動量を逐次的に減少させる移動量制御部、
を備える請求項1乃至6のうち何れか1項に記載の入力制御装置。 - 表示部に表示された操作対象に対して、空間内で操作を行う指示体の形状を、前記指示体をセンシングするセンサと前記指示体との距離を含むセンシング結果に基づいて認識し、
認識した前記指示体の形状に割り当てられた操作を特定し、
特定した操作に応じて、前記操作を行う空間の大きさを変更する、
制御方法。 - 表示部に表示された操作対象に対して、空間内で操作を行う指示体の形状を、前記指示体をセンシングするセンサと前記指示体との距離を含むセンシング結果に基づいて認識し、
認識した前記指示体の形状に割り当てられた操作を特定し、
特定した操作に応じて、前記操作を行う空間の大きさを変更する、
処理をコンピュータに実行させる制御プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014092079A JP6303772B2 (ja) | 2014-04-25 | 2014-04-25 | 入力制御装置、制御方法および制御プログラム |
US14/686,493 US20150309584A1 (en) | 2014-04-25 | 2015-04-14 | Input control device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014092079A JP6303772B2 (ja) | 2014-04-25 | 2014-04-25 | 入力制御装置、制御方法および制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015210684A JP2015210684A (ja) | 2015-11-24 |
JP6303772B2 true JP6303772B2 (ja) | 2018-04-04 |
Family
ID=54334734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014092079A Active JP6303772B2 (ja) | 2014-04-25 | 2014-04-25 | 入力制御装置、制御方法および制御プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20150309584A1 (ja) |
JP (1) | JP6303772B2 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6911834B2 (ja) * | 2016-03-29 | 2021-07-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
EP3246808A1 (de) * | 2016-05-19 | 2017-11-22 | Siemens Aktiengesellschaft | Bedien- und beobachtungsgerät und verfahren zum betrieb |
US10996742B2 (en) * | 2017-10-17 | 2021-05-04 | Logitech Europe S.A. | Input device for AR/VR applications |
JP7286613B2 (ja) * | 2018-02-19 | 2023-06-05 | 株式会社村上開明堂 | 操作検出装置及び操作検出方法 |
JP6822445B2 (ja) | 2018-07-02 | 2021-01-27 | カシオ計算機株式会社 | 投影装置、投影方法及びプログラム |
JPWO2020166351A1 (ja) * | 2019-02-13 | 2021-12-16 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、および記録媒体 |
JP7286857B2 (ja) * | 2021-07-20 | 2023-06-05 | 株式会社あかつき | 情報処理システム、プログラム及び情報処理方法 |
JP7163526B1 (ja) | 2021-07-20 | 2022-10-31 | 株式会社あかつき | 情報処理システム、プログラム及び情報処理方法 |
JP7052128B1 (ja) | 2021-07-20 | 2022-04-11 | 株式会社あかつき | 情報処理システム、プログラム及び情報処理方法 |
WO2023016352A1 (zh) * | 2021-08-13 | 2023-02-16 | 安徽省东超科技有限公司 | 定位感测方法、定位感测装置及输入终端设备 |
JP7286856B2 (ja) * | 2022-03-30 | 2023-06-05 | 株式会社あかつき | 情報処理システム、プログラム及び情報処理方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101689244B (zh) * | 2007-05-04 | 2015-07-22 | 高通股份有限公司 | 用于紧凑设备的基于相机的用户输入 |
US8555207B2 (en) * | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
US9772689B2 (en) * | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
US8971565B2 (en) * | 2008-05-29 | 2015-03-03 | Hie-D Technologies, Llc | Human interface electronic device |
US8843857B2 (en) * | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
JP2011243031A (ja) * | 2010-05-19 | 2011-12-01 | Canon Inc | ジェスチャ認識装置及びジェスチャ認識方法 |
CN104137043A (zh) * | 2011-09-30 | 2014-11-05 | 瑞艾利缇盖特(Pty)有限公司 | 用于在图形用户界面(gui)上进行人机交互的方法 |
JP2013257686A (ja) * | 2012-06-12 | 2013-12-26 | Sony Corp | 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム |
JP5935529B2 (ja) * | 2012-06-13 | 2016-06-15 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP6019947B2 (ja) * | 2012-08-31 | 2016-11-02 | オムロン株式会社 | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム |
-
2014
- 2014-04-25 JP JP2014092079A patent/JP6303772B2/ja active Active
-
2015
- 2015-04-14 US US14/686,493 patent/US20150309584A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20150309584A1 (en) | 2015-10-29 |
JP2015210684A (ja) | 2015-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6303772B2 (ja) | 入力制御装置、制御方法および制御プログラム | |
US8239765B2 (en) | Displaying stacked bar charts in a limited display area | |
JP5429060B2 (ja) | 表示制御装置、表示制御方法、表示制御プログラム並びにこの表示制御プログラムが記録された記録媒体 | |
JP5738495B2 (ja) | 情報表示装置および表示情報操作方法 | |
KR101998941B1 (ko) | 사용자 인터페이스 및 타일의 의미 스케일을 조정하기 위한 방법 | |
JP6016555B2 (ja) | 情報処理装置及びその制御方法、並びにプログラムと記憶媒体 | |
KR20080078739A (ko) | 사용자 입력에 슬라이더를 사용하는 그래픽 사용자인터페이스, 전자 장치, 방법 및 컴퓨터 프로그램 | |
KR20150109694A (ko) | 디스플레이 디바이스 및 그 제어 방법 | |
JP2012022632A (ja) | 情報処理装置およびその制御方法 | |
JP5217505B2 (ja) | 画像表示処理装置、画像表示処理方法および画像表示処理プログラム | |
JP5921703B2 (ja) | 情報表示装置および情報表示装置における操作制御方法 | |
JP5496434B2 (ja) | 地図表示装置および地図表示方法 | |
JP6221523B2 (ja) | 電子機器、電子機器の制御方法及びプログラム | |
JP5835240B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP5774133B2 (ja) | 地図表示装置および地図表示方法 | |
JP2010055166A (ja) | 情報選択装置 | |
TWI537771B (zh) | 穿戴式裝置及其操作方法 | |
KR20150000278A (ko) | 디스플레이 장치 및 제어 방법 | |
KR101641063B1 (ko) | 단말 제어 장치 및 방법 | |
JP6315443B2 (ja) | 入力装置、マルチタッチ操作の入力検出方法及び入力検出プログラム | |
JP2016114857A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP2012173980A (ja) | 表示装置、表示方法、及び表示プログラム | |
JP2015007844A (ja) | ユーザインタフェース装置、ユーザインタフェース方法およびプログラム | |
JP2013143001A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2013164701A (ja) | ユーザインタラクションを利用した電子機器とその制御方法、及び電子機器制御システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171031 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6303772 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |