JP6801138B1 - 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム - Google Patents
端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム Download PDFInfo
- Publication number
- JP6801138B1 JP6801138B1 JP2020121991A JP2020121991A JP6801138B1 JP 6801138 B1 JP6801138 B1 JP 6801138B1 JP 2020121991 A JP2020121991 A JP 2020121991A JP 2020121991 A JP2020121991 A JP 2020121991A JP 6801138 B1 JP6801138 B1 JP 6801138B1
- Authority
- JP
- Japan
- Prior art keywords
- operation target
- terminal device
- virtual object
- augmented reality
- reality space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 17
- 230000003190 augmentative effect Effects 0.000 claims abstract description 71
- 238000003384 imaging method Methods 0.000 claims abstract description 43
- 230000008859 change Effects 0.000 claims description 15
- 238000010586 diagram Methods 0.000 abstract description 8
- 230000006870 function Effects 0.000 description 13
- 238000006073 displacement reaction Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 210000003811 finger Anatomy 0.000 description 6
- 210000000988 bone and bone Anatomy 0.000 description 5
- 230000000052 comparative effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
図1は、実施形態に係る端末装置であるユーザ端末10のハードウェア構成の一例を示す図である。ユーザ端末10は、ユーザによって用いられるコンピュータである。本実施形態では、ユーザ端末10は、主に、現実空間を撮影する撮影機能と、撮影された現実空間に仮想オブジェクトを重畳配置した拡張現実空間を表す拡張現実空間画像を表示する表示機能と、を有する。
図2は、ユーザ端末10の機能構成の一例を示す図である。ユーザ端末10は、機能要素として、表示制御部11、決定部12、オブジェクト制御部13、及び仮想オブジェクト情報記憶部14を備える。仮想オブジェクト情報記憶部14は、仮想オブジェクトに関する仮想オブジェクト情報を記憶する。仮想オブジェクト情報記憶部14は、例えば、上述した補助記憶部103によって構成され得る。
図3〜図5を参照して、拡張現実空間におけるキャラクタオブジェクト(仮想オブジェクト)の移動操作を行う場合のユーザ端末10の動作の一例について説明する。図3は、ユーザ端末10を用いたキャラクタオブジェクトの移動操作の処理手順の一例を示すフローチャートである。図4及び図5は、キャラクタオブジェクトの移動操作の一例を説明するための図である。図4は、キャラクタオブジェクトの移動前の状態を示す図である。図5は、キャラクタオブジェクトの移動後の状態を示す図である。
|v2|=|v1|×a …(1)
図6〜図9を参照して、拡張現実空間におけるキャラクタオブジェクト(仮想オブジェクト)の回転操作を行う場合のユーザ端末10の動作の一例について説明する。図6は、ユーザ端末10を用いたキャラクタオブジェクトの回転操作の処理手順の一例を示すフローチャートである。図7及び図8は、キャラクタオブジェクトの回転操作の一例を説明するための図である。図9は、比較例に係る仮想オブジェクトの回転操作を示す図である。
以上説明したように、本開示の一側面に係るユーザ端末10は、拡張現実空間をユーザに提示する端末装置であり、現実空間を撮像する撮像部105と、撮像部105により撮像された現実空間と仮想オブジェクトとを含む拡張現実空間を表す拡張現実空間画像23を表示するタッチパネル106(表示部)と、仮想オブジェクトの少なくとも一部を操作対象Tとして決定する決定部12と、拡張現実空間における操作対象Tの動作を制御するオブジェクト制御部13と、を備える。オブジェクト制御部13は、操作対象Tが決定された後のユーザ端末10の移動方向及び移動量(上記実施形態では、変位ベクトルv1)を検知し、検知されたユーザ端末10の移動方向及び移動量に基づいて操作対象Tを移動させる。
以上、本開示について、実施形態に基づいて詳細に説明した。しかし、本開示は、上記実施形態に限定されない。本開示は、その要旨を逸脱しない範囲で様々な変形が可能である。
Claims (9)
- 拡張現実空間をユーザに提示する端末装置であって、
現実空間を撮像する撮像部と、
前記撮像部により撮像された前記現実空間と仮想オブジェクトとを含む前記拡張現実空間を表す拡張現実空間画像を表示する表示部と、
前記仮想オブジェクトの少なくとも一部を操作対象として決定する決定部と、
前記拡張現実空間における前記操作対象の動作を制御するオブジェクト制御部と、を備え、
前記オブジェクト制御部は、
前記撮像部の撮像方向を基準として設定され、それぞれ前記操作対象の回転軸として用いられる3つの軸からなる直交座標系に基づいて指定された前記操作対象の回転方向を含む回転操作情報を受け付け、
前記回転操作情報に基づいて前記操作対象を回転させる、端末装置。 - 前記オブジェクト制御部は、
前記操作対象が決定された後の前記端末装置の移動方向及び移動量を検知し、
検知された前記端末装置の前記移動方向及び前記移動量に基づいて前記操作対象を移動させる、請求項1に記載の端末装置。 - 前記オブジェクト制御部は、検知された前記端末装置の前記移動量と予め設定されたパラメータとに基づいて、前記操作対象の移動量を決定する、請求項2に記載の端末装置。
- 前記オブジェクト制御部は、検知された前記端末装置の前記移動量を前記パラメータに基づいて増大させた値を、前記操作対象の移動量として決定する、請求項3に記載の端末装置。
- 前記オブジェクト制御部は、検知された前記端末装置の前記移動量を前記パラメータに基づいて減少させた値を、前記操作対象の移動量として決定する、請求項3に記載の端末装置。
- 前記オブジェクト制御部は、前記端末装置の姿勢の変化に応じて前記操作対象を回転させることなく、検知された前記端末装置の前記移動方向及び前記移動量に基づいて前記操作対象を移動させる、請求項2〜5のいずれか一項に記載の端末装置。
- 前記仮想オブジェクトは、複数の部位を有しており、
前記決定部は、前記仮想オブジェクトの1つの前記部位を前記操作対象として決定する、請求項1〜6のいずれか一項に記載の端末装置。 - 端末装置が備える撮像部によって撮像された現実空間と仮想オブジェクトとを含む拡張現実空間を表す拡張現実空間画像を、前記端末装置が備える表示部に表示するステップと、
前記仮想オブジェクトの少なくとも一部を操作対象として決定するステップと、
前記撮像部の撮像方向を基準として設定され、それぞれ前記操作対象の回転軸として用いられる3つの軸からなる直交座標系に基づいて指定された前記操作対象の回転方向を含む回転操作情報を受け付けるステップと、
前記回転操作情報に基づいて前記操作対象を回転させるステップと、を含む仮想オブジェクト操作方法。 - 端末装置が備える撮像部によって撮像された現実空間と仮想オブジェクトとを含む拡張現実空間を表す拡張現実空間画像を、前記端末装置が備える表示部に表示するステップと、
前記仮想オブジェクトの少なくとも一部を操作対象として決定するステップと、
前記撮像部の撮像方向を基準として設定され、それぞれ前記操作対象の回転軸として用いられる3つの軸からなる直交座標系に基づいて指定された前記操作対象の回転方向を含む回転操作情報を受け付けるステップと、
前記回転操作情報に基づいて前記操作対象を回転させるステップと、を前記端末装置に実行させる仮想オブジェクト操作プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020121991A JP6801138B1 (ja) | 2020-07-16 | 2020-07-16 | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム |
JP2020195161A JP7513262B2 (ja) | 2020-11-25 | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム | |
US17/997,900 US11960660B2 (en) | 2020-07-16 | 2021-07-16 | Terminal device, virtual object manipulation method, and virtual object manipulation program |
CN202180035237.1A CN115605919A (zh) | 2020-07-16 | 2021-07-16 | 终端装置、虚拟对象操作方法以及虚拟对象操作程序 |
PCT/JP2021/026792 WO2022014700A1 (ja) | 2020-07-16 | 2021-07-16 | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020121991A JP6801138B1 (ja) | 2020-07-16 | 2020-07-16 | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020195161A Division JP7513262B2 (ja) | 2020-11-25 | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6801138B1 true JP6801138B1 (ja) | 2020-12-16 |
JP2022018697A JP2022018697A (ja) | 2022-01-27 |
Family
ID=73741044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020121991A Active JP6801138B1 (ja) | 2020-07-16 | 2020-07-16 | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11960660B2 (ja) |
JP (1) | JP6801138B1 (ja) |
CN (1) | CN115605919A (ja) |
WO (1) | WO2022014700A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6801138B1 (ja) | 2020-07-16 | 2020-12-16 | 株式会社バーチャルキャスト | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013164697A (ja) * | 2012-02-10 | 2013-08-22 | Sony Corp | 画像処理装置、画像処理方法、プログラム及び画像処理システム |
JP2014191718A (ja) * | 2013-03-28 | 2014-10-06 | Sony Corp | 表示制御装置、表示制御方法および記録媒体 |
US20160292922A1 (en) * | 2013-05-21 | 2016-10-06 | Sony Corporation | Display control device, display control method, and recording medium |
JP6133344B2 (ja) * | 2015-03-10 | 2017-05-24 | 株式会社コロプラ | ヘッドマウントディスプレイへ表示するためのユーザインタフェース表示方法、及びプログラム |
US10593116B2 (en) * | 2016-10-24 | 2020-03-17 | Snap Inc. | Augmented reality object manipulation |
US9983687B1 (en) * | 2017-01-06 | 2018-05-29 | Adtile Technologies Inc. | Gesture-controlled augmented reality experience using a mobile communications device |
JP6582302B2 (ja) * | 2017-03-13 | 2019-10-02 | 株式会社コナミデジタルエンタテインメント | 表示制御装置及びプログラム |
DK180470B1 (en) * | 2017-08-31 | 2021-05-06 | Apple Inc | Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments |
JP6500159B1 (ja) * | 2018-12-07 | 2019-04-10 | 株式会社gumi | プログラム、情報処理装置、情報処理システム、情報処理方法及びヘッドマウントディスプレイ |
JP6801138B1 (ja) | 2020-07-16 | 2020-12-16 | 株式会社バーチャルキャスト | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム |
-
2020
- 2020-07-16 JP JP2020121991A patent/JP6801138B1/ja active Active
-
2021
- 2021-07-16 US US17/997,900 patent/US11960660B2/en active Active
- 2021-07-16 WO PCT/JP2021/026792 patent/WO2022014700A1/ja active Application Filing
- 2021-07-16 CN CN202180035237.1A patent/CN115605919A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2022019501A (ja) | 2022-01-27 |
WO2022014700A1 (ja) | 2022-01-20 |
US20230367403A1 (en) | 2023-11-16 |
US11960660B2 (en) | 2024-04-16 |
CN115605919A (zh) | 2023-01-13 |
JP2022018697A (ja) | 2022-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3997552B1 (en) | Virtual user interface using a peripheral device in artificial reality environments | |
US20220084279A1 (en) | Methods for manipulating objects in an environment | |
US20220121344A1 (en) | Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments | |
KR101546654B1 (ko) | 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법 및 장치 | |
US10324293B2 (en) | Vision-assisted input within a virtual world | |
CN115443445A (zh) | 用于可穿戴系统的手部手势输入 | |
US10296359B2 (en) | Interactive system control apparatus and method | |
WO2017201162A1 (en) | Virtual/augmented reality input device | |
CN107646098A (zh) | 用于在虚拟现实中跟踪手持式设备的系统 | |
EP3814876B1 (en) | Placement and manipulation of objects in augmented reality environment | |
EP2558924B1 (en) | Apparatus, method and computer program for user input using a camera | |
KR20220012990A (ko) | 인공 현실 시스템들을 위한 팔 응시-구동 사용자 인터페이스 요소 게이팅 | |
KR20110099176A (ko) | 증강현실의 포인팅 장치 | |
KR20220018561A (ko) | 사용자 인터페이스 요소들을 게이팅하기 위한 개인 어시스턴트 요소를 갖는 인공 현실 시스템들 | |
KR20220018562A (ko) | 인공 현실 시스템을 위한 모서리-식별 제스처-구동 사용자 인터페이스 요소 게이팅 | |
WO2022014700A1 (ja) | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム | |
JP2023116432A (ja) | アニメーション制作システム | |
JP2022153476A (ja) | アニメーション制作システム | |
JP7513262B2 (ja) | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム | |
GB2535730A (en) | Interactive system control apparatus and method | |
JP7470347B2 (ja) | アニメーション制作システム | |
US20220036616A1 (en) | Animation production system | |
EP3062221A1 (en) | Interactive system control apparatus and method | |
JP2023143634A (ja) | 制御装置、制御方法、プログラム | |
JP2022025469A (ja) | アニメーション制作システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200716 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200716 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6801138 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |