JP2015225652A - プロジェクタ−カメラシステム又はディスプレイ−カメラシステムに対する微細なユーザインタラクションを可能とするシステム、方法及びプログラム - Google Patents
プロジェクタ−カメラシステム又はディスプレイ−カメラシステムに対する微細なユーザインタラクションを可能とするシステム、方法及びプログラム Download PDFInfo
- Publication number
- JP2015225652A JP2015225652A JP2014178022A JP2014178022A JP2015225652A JP 2015225652 A JP2015225652 A JP 2015225652A JP 2014178022 A JP2014178022 A JP 2014178022A JP 2014178022 A JP2014178022 A JP 2014178022A JP 2015225652 A JP2015225652 A JP 2015225652A
- Authority
- JP
- Japan
- Prior art keywords
- marker pattern
- computing device
- mobile computing
- user
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 230000003993 interaction Effects 0.000 title claims abstract description 33
- 239000003550 marker Substances 0.000 claims abstract description 143
- 238000012545 processing Methods 0.000 claims abstract description 58
- 238000004364 calculation method Methods 0.000 claims abstract description 3
- 239000003086 colorant Substances 0.000 claims description 7
- 238000009877 rendering Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 3
- 238000004148 unit process Methods 0.000 claims 1
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 239000003973 paint Substances 0.000 description 4
- 238000010422 painting Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 241001422033 Thestylus Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- QBWCMBCROVPCKQ-UHFFFAOYSA-N chlorous acid Chemical compound OCl=O QBWCMBCROVPCKQ-UHFFFAOYSA-N 0.000 description 1
- 244000144992 flock Species 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001954 sterilising effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- JLGLQAWTXXGVEM-UHFFFAOYSA-N triethylene glycol monomethyl ether Chemical compound COCCOCCOCCO JLGLQAWTXXGVEM-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0317—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】ユーザに保持されたモバイルコンピューティング装置に関連して実行される方法であって、この方法は処理ユニットとカメラとメモリとを備える計算処理システムによって実行される。マーカパターンを表示するモバイルコンピューティング装置の複数の画像をカメラを用いて処理ユニットが取得し、取得された複数の画像内のマーカパターンを処理ユニットが検出し、取得された複数の画像内の検出されたマーカパターンに基づいて処理ユニットがモバイルコンピューティング装置の複数の位置を判定し、判定されたモバイルコンピューティング装置の複数の位置に基づいてユーザイベントを処理することを含む。
【選択図】図1
Description
101 プロジェクタ
102 視野
103 投影面
104 入力装置、モバイルコンピューティング装置
105 カメラ
106 サーバ
107 コンテンツストレージ
Claims (25)
- 処理ユニットとカメラとメモリとを備える計算処理システムが実行する、プロジェクタ−カメラシステム又はディスプレイ−カメラシステムに対する微細なユーザインタラクションを可能とする方法であって、
a.前記処理ユニットが、ユーザに保持されマーカパターンを表示するモバイルコンピューティング装置の複数の画像をカメラを用いて取得し、
b.前記処理ユニットが、前記取得された複数の画像内の前記マーカパターンを検出し、
c.前記処理ユニットが、前記取得された複数の画像内の前記検出されたマーカパターンに基づいて、前記モバイルコンピューティング装置の複数の位置を判定し、
d.前記処理ユニットが、前記モバイルコンピューティング装置の前記判定された複数の位置に基づいてユーザイベントを処理する、
方法。 - 前記処理ユニットが、前記取得された複数の画像内の前記検出されたマーカパターンの少なくとも1つの特徴を判定することを更に含み、前記ユーザイベントを処理することは更に、前記マーカパターンの前記判定された少なくとも1つの特徴に基づく、請求項1に記載の方法。
- 前記マーカパターンの前記判定された少なくとも1つの特徴は、前記マーカパターンのグリッドサイズである、請求項2に記載の方法。
- 前記マーカパターンの前記判定された少なくとも1つの特徴は、前記マーカパターンの色である、請求項2に記載の方法。
- 前記マーカパターンの色を判定することが、
前記マーカパターンの整列した複数の内部頂点を生成し、
前記整列した複数の内部頂点の中央に2つのポイントを特定し、
前記マーカパターンの2つの隣接する正方形の中央に2つの第2のポイントの位置を計算し、
前記2つの第2のポイントにおいて色を判定し、
前記判定された色の中の白以外の1つを前記マーカパターンの色として採用する、
ことを含む、請求項4に記載の方法。 - 前記ユーザイベントを処理することが、前記モバイルコンピューティング装置の前記判定された複数の位置に基づいてインクストロークを描画することを含み、描画される前記インクストロークの色は前記マーカパターンの色に基づいている、請求項4又は請求項5に記載の方法。
- 前記マーカパターンの前記少なくとも1つの特徴は、前記マーカパターン内における所定の図形要素の存在または欠如である、請求項2に記載の方法。
- 前記所定の図形要素は白の円形穴である、請求項7に記載の方法。
- 前記マーカパターン内における前記所定の図形要素の存在は第1の状態を表し、前記マーカパターン内における前記所定の図形要素の欠如は第2の状態を表す、請求項7又は請求項8に記載の方法。
- 前記第1の状態はペンアップ状態であり、前記第2の状態はペンダウン状態であり、
前記ユーザイベントを処理することが、前記ペンダウン状態であるならば前記モバイルコンピューティング装置の前記判定された複数の位置に基づいてインクストロークを描画することを含む、請求項9に記載の方法。 - 前記マーカパターンの判定された少なくとも1つの特徴は、前記マーカパターンの回転角である、請求項2に記載の方法。
- 前記ユーザイベントを処理することが、前記モバイルコンピューティング装置の前記判定された複数の位置に基づいてインクストロークを描画することを含み、前記インクストロークの幅は前記マーカパターンの前記回転角に基づく、請求項11に記載の方法。
- 前記マーカパターンは、チェス盤のように配列された実質的に同じ大きさの複数の正方形から成るチェス盤マーカパターンである、請求項1〜請求項12のいずれか一項に記載の方法。
- 前記マーカパターンを表示する前記モバイルコンピューティング装置は、ユーザに表示されるコンテンツの上に配置される、請求項1〜請求項13のいずれか一項に記載の方法。
- 前記コンテンツは、投影面上にコンテンツを投影するように構成されたプロジェクタを用いてユーザに表示される、請求項14に記載の方法。
- 前記コンテンツは、電子ディスプレイ装置を用いてユーザに表示される、請求項14に記載の方法。
- 前記コンテンツは、縁のあるキャンバス・グラフィカルユーザインターフェイス・ウィジェットを用いてユーザに表示される、請求項14〜請求項16のいずれか一項に記載の方法。
- 前記処理ユニットが、前記モバイルコンピューティング装置の前記判定された複数の位置を、前記複数の画像座標から、前記キャンバス・グラフィカルユーザインターフェイス・ウィジェットの座標へ変換することを更に含む、請求項17に記載の方法。
- 前記処理ユニットが、
前記キャンバス・グラフィカルユーザインターフェイス・ウィジェットの縁の色を変えることを含む較正操作を実行し、
前記変更された色に基づいて前記取得された複数の画像における前記グラフィカルユーザインターフェイス・ウィジェットの縁の位置を検出し、
前記複数の画像の座標と前記キャンバス・グラフィカルユーザインターフェイス・ウィジェットの座標との間のマッピングを生成する、
ことを更に含む、請求項17に記載の方法。 - 前記ユーザイベントを処理することは、前記モバイルコンピューティング装置の前記判定された複数の位置に基づいて、インクストロークを前記表示されたコンテンツに関連させて描画することを含む、請求項14〜請求項19のいずれか一項に記載の方法。
- 前記モバイルコンピューティング装置の前記複数の位置を判定することは、前記取得された複数の画像のそれぞれに対して前記マーカパターンの整列した複数の内部頂点を生成することを含む、請求項1〜請求項20のいずれか一項に記載の方法。
- 前記モバイルコンピューティング装置の前記複数の位置を判定することは、前記検出されたマーカパターンの重心を検出することを含む、請求項1〜請求項21のいずれか一項に記載の方法。
- 前記処理ユニットが、前記判定されたモバイルコンピューティング装置の複数の位置を、前記モバイルコンピューティング装置の移動経路として設定することを更に含む、請求項1〜請求項22のいずれか一項に記載の方法。
- a.ユーザに保持され、マーカパターンを表示するモバイルコンピューティング装置の複数の画像をカメラを用いて取得し、
b.前記取得された複数の画像内の前記マーカパターンを処理ユニットを用いて検出し、
c.前記取得された複数の画像内の前記検出されたマーカパターンに基づいて前記モバイルコンピューティング装置の複数の位置を前記処理ユニットを用いて判定し、
d.前記モバイルコンピューティング装置の前記判定された複数の位置に基づいてユーザイベントを処理する、
ことをコンピュータに実行させるプログラム。 - 処理ユニットとカメラと命令セットを格納するメモリとを備える計算処理システムであって、
前記命令セットは、
a.ユーザに保持され、マーカパターンを表示するモバイルコンピューティング装置の複数の画像をカメラを用いて取得し、
b.前記取得された複数の画像内の前記マーカパターンを前記処理ユニットを用いて検出し、
c.前記取得された複数の画像内の前記検出されたマーカパターンに基づいて、前記モバイルコンピューティング装置の複数の位置を前記処理ユニットを用いて判定し、
d.前記モバイルコンピューティング装置の前記判定された複数の位置に基づいてユーザイベントを処理する、
ことを前記処理ユニットに実行させる命令を含む、計算処理システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/288,370 US9547370B2 (en) | 2014-05-27 | 2014-05-27 | Systems and methods for enabling fine-grained user interactions for projector-camera or display-camera systems |
US14/288,370 | 2014-05-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015225652A true JP2015225652A (ja) | 2015-12-14 |
JP6379880B2 JP6379880B2 (ja) | 2018-08-29 |
Family
ID=54701682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014178022A Active JP6379880B2 (ja) | 2014-05-27 | 2014-09-02 | プロジェクタ−カメラシステム又はディスプレイ−カメラシステムに対する微細なユーザインタラクションを可能とするシステム、方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9547370B2 (ja) |
JP (1) | JP6379880B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020140685A (ja) * | 2019-02-22 | 2020-09-03 | シャープ株式会社 | 入力装置及び入力システム |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10990198B2 (en) | 2016-06-30 | 2021-04-27 | Intel Corporation | Wireless stylus with grip force expression capability |
US10338701B2 (en) * | 2017-07-18 | 2019-07-02 | Intel Corporation | Active brush stylus |
CN107613314B (zh) * | 2017-10-09 | 2019-09-20 | 武汉斗鱼网络科技有限公司 | 一种检测直播中刷人气行为的方法及装置 |
JP6784944B2 (ja) * | 2018-03-26 | 2020-11-18 | カシオ計算機株式会社 | 投影制御装置、マーカ検出方法及びプログラム |
US10649550B2 (en) | 2018-06-26 | 2020-05-12 | Intel Corporation | Predictive detection of user intent for stylus use |
US10921928B2 (en) * | 2019-02-22 | 2021-02-16 | Sharp Kabushiki Kaisha | Input apparatus and input system |
US11032482B2 (en) * | 2019-08-05 | 2021-06-08 | Cisco Technology, Inc. | Automatic screen brightness and camera exposure adjustment for remote multimedia collaboration sessions |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008117083A (ja) * | 2006-11-01 | 2008-05-22 | Sharp Corp | 座標指示装置、電子機器、座標指示方法、座標指示プログラム、及び座標指示プログラムを記録した記録媒体 |
JP2011159274A (ja) * | 2010-01-29 | 2011-08-18 | Pantech Co Ltd | 拡張現実提供端末機及び方法 |
JP2011204047A (ja) * | 2010-03-26 | 2011-10-13 | Konami Digital Entertainment Co Ltd | 拡張現実システム、マーカ端末、撮影端末、拡張現実方法、ならびに、情報記録媒体 |
US20120249762A1 (en) * | 2011-03-31 | 2012-10-04 | Smart Technologies Ulc | Interactive input system having a 3d input space |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8144118B2 (en) * | 2005-01-21 | 2012-03-27 | Qualcomm Incorporated | Motion-based tracking |
GB0622451D0 (en) * | 2006-11-10 | 2006-12-20 | Intelligent Earth Ltd | Object position and orientation detection device |
US8086026B2 (en) * | 2008-06-27 | 2011-12-27 | Waldean Schulz | Method and system for the determination of object positions in a volume |
US9311883B2 (en) * | 2011-11-11 | 2016-04-12 | Microsoft Technology Licensing, Llc | Recalibration of a flexible mixed reality device |
-
2014
- 2014-05-27 US US14/288,370 patent/US9547370B2/en active Active
- 2014-09-02 JP JP2014178022A patent/JP6379880B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008117083A (ja) * | 2006-11-01 | 2008-05-22 | Sharp Corp | 座標指示装置、電子機器、座標指示方法、座標指示プログラム、及び座標指示プログラムを記録した記録媒体 |
JP2011159274A (ja) * | 2010-01-29 | 2011-08-18 | Pantech Co Ltd | 拡張現実提供端末機及び方法 |
JP2011204047A (ja) * | 2010-03-26 | 2011-10-13 | Konami Digital Entertainment Co Ltd | 拡張現実システム、マーカ端末、撮影端末、拡張現実方法、ならびに、情報記録媒体 |
US20120249762A1 (en) * | 2011-03-31 | 2012-10-04 | Smart Technologies Ulc | Interactive input system having a 3d input space |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020140685A (ja) * | 2019-02-22 | 2020-09-03 | シャープ株式会社 | 入力装置及び入力システム |
JP7312615B2 (ja) | 2019-02-22 | 2023-07-21 | シャープ株式会社 | 入力装置及び入力システム |
Also Published As
Publication number | Publication date |
---|---|
JP6379880B2 (ja) | 2018-08-29 |
US20150346825A1 (en) | 2015-12-03 |
US9547370B2 (en) | 2017-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6379880B2 (ja) | プロジェクタ−カメラシステム又はディスプレイ−カメラシステムに対する微細なユーザインタラクションを可能とするシステム、方法及びプログラム | |
US20220129060A1 (en) | Three-dimensional object tracking to augment display area | |
US6594616B2 (en) | System and method for providing a mobile input device | |
Shen et al. | Vision-based hand interaction in augmented reality environment | |
EP2919104B1 (en) | Information processing device, information processing method, and computer-readable recording medium | |
US20140300542A1 (en) | Portable device and method for providing non-contact interface | |
US10782787B2 (en) | Mirroring touch gestures | |
US20130024819A1 (en) | Systems and methods for gesture-based creation of interactive hotspots in a real world environment | |
US20110216001A1 (en) | Bimanual interactions on digital paper using a pen and a spatially-aware mobile projector | |
US20160012612A1 (en) | Display control method and system | |
US20190050132A1 (en) | Visual cue system | |
JP2013141207A (ja) | ハンドヘルドプロジェクタを用いたマルチユーザインタラクション | |
Cowan et al. | ShadowPuppets: supporting collocated interaction with mobile projector phones using hand shadows | |
US20160334884A1 (en) | Remote Sensitivity Adjustment in an Interactive Display System | |
JP6686345B2 (ja) | 操作イベントを検出する方法、システム及びプログラム | |
CN112313605A (zh) | 增强现实环境中对象的放置和操纵 | |
US9946333B2 (en) | Interactive image projection | |
JP6834197B2 (ja) | 情報処理装置、表示システム、プログラム | |
Baldauf et al. | Snap target: Investigating an assistance technique for mobile magic lens interaction with large displays | |
JP6699406B2 (ja) | 情報処理装置、プログラム、位置情報作成方法、情報処理システム | |
Schlatter et al. | User-aware content orientation on interactive tabletop surfaces | |
WO2018042923A1 (ja) | 情報処理システム、情報処理方法、およびプログラム | |
TW201621651A (zh) | 滑鼠模擬系統及方法 | |
Yamaguchi et al. | A Study of Followable User Interface to Hand Behavior | |
Stødle | Device-free interaction and cross-platform pixel based output to display walls |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180424 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180618 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180703 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180716 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6379880 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |