JP6999821B2 - 端末装置および端末装置の制御方法 - Google Patents
端末装置および端末装置の制御方法 Download PDFInfo
- Publication number
- JP6999821B2 JP6999821B2 JP2020536349A JP2020536349A JP6999821B2 JP 6999821 B2 JP6999821 B2 JP 6999821B2 JP 2020536349 A JP2020536349 A JP 2020536349A JP 2020536349 A JP2020536349 A JP 2020536349A JP 6999821 B2 JP6999821 B2 JP 6999821B2
- Authority
- JP
- Japan
- Prior art keywords
- visual field
- specific object
- field frame
- terminal device
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 13
- 230000000007 visual effect Effects 0.000 claims description 53
- 230000033001 locomotion Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 description 20
- 210000003128 head Anatomy 0.000 description 16
- 238000001514 detection method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 210000000887 face Anatomy 0.000 description 8
- 230000009471 action Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
図1は、ヘッドマウントディスプレイ(以下、HMDと略称する)1の概略を説明するための図である。
この図に示されるようにHMD1は、実施形態に係る端末装置10と、該端末装置10が取り付けられたゴーグル20とを含む。ゴーグル20は、該端末装置10がユーザ3の両眼手前となる位置に、ヘッドバンド22によってユーザ3の頭部に装着される。
なお、端末装置10は、スマートホンに限られず、ゴーグルに取り付けられるHMD専用の表示装置であってもよい。また、ゴーグルを備える(すなわち、ゴーグルから着脱不能な)HMD装置であってもよい。
この図に示されるように、端末装置10は、処理装置102と記憶装置104とセンサー106と表示装置108と撮影装置110とを具備するコンピュータシステムにより実現される。
端末装置10の各要素は、単体または複数のバスで相互に接続される。なお、本説明における「装置」という用語は、回路、デバイスまたはユニット等の他の用語に読替えても良い。また、端末装置10の各要素は、単数または複数の機器で構成される。端末装置10の一部の要素を省略しても良い。
なお、処理装置102の機能の一部または全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等のハードウェアで実現しても良い。処理装置102は、各種の処理を並列的または逐次的に実行する。
なお、記憶装置104は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)等の記憶回路の1種類以上で構成される。
表示装置108は、処理装置102による制御のもとで各種の画像(静止画および動画を含む)を表示する。特に、本実施形態においては、上述した仮想空間を示す左眼用画像と右眼用画像とが表示装置108によって表示される。
なお、例えば液晶表示パネルまたは有機EL表示パネル等の各種の表示パネルが表示装置108として好適に利用される。
撮影装置110は、端末装置10の裏面に配置されたリアカメラである。該端末装置10が取り付けられたゴーグル20をユーザ3が装着した場合、撮影装置110は、該ユーザ3の顔が向く方向を撮影する。
この図に示されるように、端末装置10では、動作制御部150、姿勢検出部152、表示制御部154、第1判定部156および第2判定部158が構築される。
なお、仮想空間とは、端末装置10において生成された現実を模擬した空間である。仮想空間は、ユーザ3を中心に全方位に拡がった概念である。そして、全方位の空間のうち、端末装置10の姿勢情報に基づいて検出されたユーザ3の顔が向く方向に対応する空間が部分的に切り出されて、表示装置108に表示される。
なお、この図は、仮想空間として自然風景が提供された例である。仮想空間は左眼用画像および右眼用画像による立体視でユーザ3に提供されるので、視野枠Wは、表示装置108で表示される画面そのものを示しているわけではない。
該姿勢情報を取得した表示制御部154は、視野枠Wを図4の破線で示される位置まで移動させることにより、ユーザ3に提供する仮想空間を左側に移動させる。このように顔の向く方向に応じて仮想空間が移動するので、ユーザ3は、あたかも自然風景が存在する空間にいるかのような感覚を、視覚を通じて得ることができる。
なお、基準点Cenは、視野枠Wの対角中心に限られず、視野枠Wに対して予め定められた関係を有する地点であればよい。例えば、視野枠Wを左右方向に左2:右3に分割する上下線と、上下方向に上3:下2に分割する左右線との交点であってもよい。
また、基準点Cenは、図4では、説明の便宜のために十字線の交点として示されているが、実際には本実施形態では、十字線を含めて非表示としている。
本実施形態では、これらの操作オブジェクトのうち、ユーザ3からみて操作面を有し、かつ、予め定められたもの、具体的には、当該操作面の位置の指定に精度が要求されるものを、特定オブジェクトと呼んでいる。換言すれば、上記操作面を有する操作オブジェクトであっても、予め定められていないものは、特定オブジェクトではない。なお、操作面は、XY平面と平行であることが好ましいが、平行でなくてもよい。また、操作面は、平坦ではなく、電子ブックのように起伏がある面でもよい。
これらの操作オブジェクトには、ユーザによって仮想空間における任意の位置に配置されるものもあれば、アプリケーションプログラムの実行により視野枠Wの内側に配置されるものもある。なお、ユーザによって仮想空間に配置された操作オブジェクトの場所(位置)についての情報は、例えば動作制御部150によって記憶装置104に記憶される。
なお、アプリケーションプログラムの設定などで用いられるラジオボタン、またはチェックボックス等については、特定オブジェクトとするか否かについては任意である。
なお、特定オブジェクトが視野枠Wに出現した、とは、表示制御部154が、端末装置10の姿勢に応じた視野枠Wによって仮想空間を切り出して表示装置108に表示させている場合に、特定オブジェクトの一部または全部が仮想空間において表示されたことをいう。
そこで次に、ポインタの切り換え動作について説明する。
なお、この動作は、端末装置10においてアプリケーションプログラムの実行によりユーザに仮想空間が提供されている場合に実行される。すなわち、ポインタの切り換え動作は、ユーザ3の顔の向く方向(厳密にいえば端末装置10の姿勢に基づく方向)に応じた視野枠Wによって仮想空間が切り出されて、該ユーザ3に提供されている場合に実行される。
一方、視野枠Wの内側に特定オブジェクトが出現している場合(ステップS11の判定結果が「Yes」である旨)、第2判定部158は、出現している特定オブジェクトと基準点Cenとが、ユーザ3からみて重なっているか否かを判定する(ステップS12)。
一方、特定オブジェクトと基準点Cenとが重なっている場合(ステップS12の判定結果が「Yes」である旨)、処理はステップS14に進む。
なお、動作制御部150は、二次元ポインタが特定オブジェクトの操作エリアにユーザ3からみて重なっており、かつ、ユーザ3による特定のアクションを伴う場合、該アクションに対応付けられた命令を実行する。
この後、本実施形態では、視野枠Wにおける特定オブジェクトの出現の有無、および、特定オブジェクトと基準点Cenとの位置関係に変化がなければ、引き続き同じポインタが表示される。一方、変化があれば、二次元ポインタと三次元ポインタとでポインタが切り換えられる場合がある。なお、動作制御部150が、姿勢検出部152、表示制御部154、第1判定部156および第2判定部158の各部を制御してもよい。
図6は、特定オブジェクトが出現していない場合において視野枠Wにより切り出された仮想空間の表示例を示す図であり、操作オブジェクトとして、ユーザ3に対し、肯定的な回答を選択させるためのソフトウェアボタンOb1と、否定的な回答を選択させるためのソフトウェアボタンOb2とが表示された例である。上述したように本実施形態では、ソフトウェアボタンについては特定オブジェクトとしていないので、図6の例では、ステップS11の判定結果が「No」となる。このため、視野枠Wの内側には、三次元ポインタPaが表示される。
このため、三次元ポインタにおけるZ軸方向の座標については、表示された三次元ポインタPの大きさを用いて判定してもよい。
図8は、例えば図4においてソフトウェアキーボードKが視野枠Wの外左側に配置されていた状態において、ユーザ3が頭部を、左側かつ上向きに回転させることによって、ソフトウェアキーボードKが視野枠Wの内側に表示された場合の例である。
なお、図9は、例えば視野枠Wの内側に図8に示されるようにソフトウェアキーボードKが配置されていた状態において、ユーザ3が頭部を、さらに左側に回転させた場合の例である。
二次元ポインタPbは、右手先を模したパターンとなっている。しかし、二次元ポインタPbを三次元ポインタPaと一見して区別する目的で、二次元ポインタPbと三次元ポインタPaとは形状または色、もしくは双方を相互に異ならせている。
なお、同じキーを2回連続して入力する場合、ユーザ3は、例えば1回目のキーを入力してから、一旦、二次元ポインタPbが別のキーの操作エリアに重なる位置に頭部を動かす。その後、再度同じキーの操作エリアに二次元ポインタPbが重なる位置に頭部を動かした後、頭部を固定して、重なった状態を一定時間にわたって維持すればよい。
二次元ポインタPbは、三次元ポインタPaとは異なり、奥行き方向には移動せず、ソフトウェアキーボードKの操作面に沿って相対移動することになる。
実施形態では、二次元ポインタPbを基準点Cenに固定した後、特定オブジェクトを頭部の向く方向に応じて移動させることで、二次元ポインタPbにより特定オブジェクトの操作エリアを指定する構成としたが、特定オブジェクトが基準点Cenに重なっている状態において、二次元ポインタを、ユーザ3の操作に応じて特定オブジェクトの操作面に沿って移動させてもよい。
例示したフローチャートにおいて、各ステップの順序を変更しても良い。すなわち、本発明の好適な態様における各処理の順序は、特定の順序に限定されない。
Claims (6)
- 二次元の操作面を有する特定オブジェクトが、ユーザに提供される仮想空間の視野枠内に出現したか否かを判定する第1判定部と、
前記特定オブジェクトが、前記視野枠内に出現したと判定された場合に、前記視野枠内の特定地点と重なっているか否かを判定する第2判定部と、
前記特定オブジェクトが前記特定地点に重なっていると判定された場合、
表示装置を制御して、前記二次元操作面に対し相対移動が可能な二次元ポインタを前記視野枠内に表示させ、
前記特定オブジェクトが前記視野枠内に出現していないと判定された場合、前記表示装置を制御して、前記仮想空間を三次元で移動する三次元ポインタを前記視野枠内に表示させる
表示制御部と、
を有する端末装置。 - 前記表示制御部は、
前記端末装置の姿勢情報に基づいて、前記二次元ポインタを前記二次元の操作面に沿って移動させる
請求項1に記載の端末装置。 - 前記端末装置は、前記ユーザによって操作される操作体を撮影する撮影装置を備え、
前記表示制御部は、
前記撮影装置によって撮影された前記操作体の動きに基づいて、前記三次元ポインタを前記視野枠内で三次元に移動させる
請求項1または2に記載の端末装置。 - 前記特定オブジェクトが前記視野枠内に出現したと判定された場合であって、前記特定オブジェクトが前記特定地点に重なっていないと判定された場合、
前記表示制御部は、前記三次元ポインタを表示させる
請求項2または3に記載の端末装置。 - 前記特定オブジェクトの一部または全部に、命令が対応付けられた操作エリアが配置される場合において、前記二次元ポインタによって前記操作エリアが指定された場合、該操作エリアに対応付けられた命令を実行する動作制御部をさらに有する
請求項1乃至4のいずれかに記載の端末装置。 - 二次元の操作面を有する特定オブジェクトが、ユーザに提供される仮想空間の視野枠内に出現したか否かを判定し、
前記特定オブジェクトが、前記視野枠内に出現したと判定した場合に、前記視野枠内の特定地点と重なっているか否かを判定し、
前記特定オブジェクトが前記特定地点に重なっていると判定した場合、前記二次元操作面に対し相対移動が可能な二次元ポインタを前記視野枠内に表示し、
前記特定オブジェクトが、前記視野枠内に出現していないと判定した場合、前記仮想空間を三次元で移動する三次元ポインタを前記視野枠内に表示する
端末装置の制御方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018149268 | 2018-08-08 | ||
JP2018149268 | 2018-08-08 | ||
PCT/JP2019/022884 WO2020031490A1 (ja) | 2018-08-08 | 2019-06-10 | 端末装置および端末装置の制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020031490A1 JPWO2020031490A1 (ja) | 2021-08-02 |
JP6999821B2 true JP6999821B2 (ja) | 2022-02-04 |
Family
ID=69414750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020536349A Active JP6999821B2 (ja) | 2018-08-08 | 2019-06-10 | 端末装置および端末装置の制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220113791A1 (ja) |
JP (1) | JP6999821B2 (ja) |
WO (1) | WO2020031490A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7357832B1 (ja) | 2021-11-18 | 2023-10-06 | 三菱電機株式会社 | 操作装置、操作方法及び操作プログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014206990A (ja) | 2014-06-09 | 2014-10-30 | 富士フイルム株式会社 | ヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法 |
JP2018010702A (ja) | 2017-10-25 | 2018-01-18 | 株式会社コナミデジタルエンタテインメント | 端末装置、及びプログラム |
WO2018038136A1 (ja) | 2016-08-24 | 2018-03-01 | ナーブ株式会社 | 画像表示装置、画像表示方法、及び画像表示プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8922590B1 (en) * | 2013-10-01 | 2014-12-30 | Myth Innovations, Inc. | Augmented reality interface and method of use |
US10466858B2 (en) * | 2013-12-01 | 2019-11-05 | Upskill, Inc. | Systems and methods for interacting with a virtual menu |
-
2019
- 2019-06-10 JP JP2020536349A patent/JP6999821B2/ja active Active
- 2019-06-10 WO PCT/JP2019/022884 patent/WO2020031490A1/ja active Application Filing
- 2019-06-10 US US17/265,869 patent/US20220113791A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014206990A (ja) | 2014-06-09 | 2014-10-30 | 富士フイルム株式会社 | ヘッドマウント型拡張現実映像提示装置及び仮想表示物操作方法 |
WO2018038136A1 (ja) | 2016-08-24 | 2018-03-01 | ナーブ株式会社 | 画像表示装置、画像表示方法、及び画像表示プログラム |
JP2018010702A (ja) | 2017-10-25 | 2018-01-18 | 株式会社コナミデジタルエンタテインメント | 端末装置、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220113791A1 (en) | 2022-04-14 |
JPWO2020031490A1 (ja) | 2021-08-02 |
WO2020031490A1 (ja) | 2020-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11925863B2 (en) | Tracking hand gestures for interactive game control in augmented reality | |
US11995774B2 (en) | Augmented reality experiences using speech and text captions | |
US20210405761A1 (en) | Augmented reality experiences with object manipulation | |
KR20230124732A (ko) | 가상 및 그래픽 엘리먼트들을 제어하기 위한 미세 손제스처들 | |
US20210373650A1 (en) | Interactive augmented reality experiences using positional tracking | |
CN107646098A (zh) | 用于在虚拟现实中跟踪手持式设备的系统 | |
US20210405772A1 (en) | Augmented reality eyewear 3d painting | |
EP3262505B1 (en) | Interactive system control apparatus and method | |
US11422380B2 (en) | Eyewear including virtual scene with 3D frames | |
JP2012108723A (ja) | 指示受付装置 | |
US20220084303A1 (en) | Augmented reality eyewear with 3d costumes | |
US11889291B2 (en) | Head-related transfer function | |
JP6227732B1 (ja) | 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム | |
JP6999821B2 (ja) | 端末装置および端末装置の制御方法 | |
US20210406542A1 (en) | Augmented reality eyewear with mood sharing | |
JP2018049629A (ja) | 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム | |
JP6999822B2 (ja) | 端末装置および端末装置の制御方法 | |
US20230007227A1 (en) | Augmented reality eyewear with x-ray effect | |
US20220365344A1 (en) | Augmented reality gaming using virtual eyewear beams | |
JPWO2020121483A1 (ja) | 表示端末、表示制御システムおよび表示制御方法 | |
JP6776155B2 (ja) | 仮想現実を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6999821 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |