JP7162079B2 - 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体 - Google Patents
頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体 Download PDFInfo
- Publication number
- JP7162079B2 JP7162079B2 JP2020565364A JP2020565364A JP7162079B2 JP 7162079 B2 JP7162079 B2 JP 7162079B2 JP 2020565364 A JP2020565364 A JP 2020565364A JP 2020565364 A JP2020565364 A JP 2020565364A JP 7162079 B2 JP7162079 B2 JP 7162079B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- display screen
- coordinate system
- pose
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
Description
Wは、ディスプレイ画面の幅(ピクセル単位)を表し、
Hは、ディスプレイ画面の高さ(ピクセル単位)を表し、
fxは、ディスプレイ画面の座標系のx軸上の置換因数を表し、
fyは、ディスプレイ画面の座標系のy軸上の置換因数を表し、
(x0,y0)は、自己中心座標系の原点の座標を変換した後の、ディスプレイ画面の座標系における原点の座標を表し、
(xz,yz)は、自己中心座標系における3次元の姿勢ベクトルのz軸成分を変換した後の、ディスプレイ画面の座標系における2次元の姿勢ベクトルのz軸成分の座標を表し、
xxは、自己中心座標系における3次元の姿勢ベクトルのx軸成分を変換した後の、ディスプレイ画面の座標系における2次元の姿勢ベクトルのx軸成分の横座標を表し、
yyは、自己中心座標系における3次元の姿勢ベクトルのy軸成分を変換した後の、ディスプレイ画面の座標系における2次元の姿勢ベクトルのy軸成分の縦座標を表す。
Wは、ディスプレイ画面170の幅(ピクセル単位)を表し、
Hは、ディスプレイ画面170の高さ(ピクセル単位)を表し、
fxは、ディスプレイ画面170の座標系のx軸上の置換因数を表し、
fyは、ディスプレイ画面170の座標系のy軸上の置換因数を表し、
(x0,y0)は、自己中心座標系150の原点の座標(0,0,0)を変換した後に得られるディスプレイ画面170の座標系における原点の新しい座標を表し、
(xz,yz)は、自己中心座標系150における3次元の姿勢ベクトルの座標(0,0,k)のz軸成分を変換した後に得られるディスプレイ画面170の座標系における2次元の姿勢ベクトルのz軸成分の新しい座標を表し、
xxは、自己中心座標系150における3次元の姿勢ベクトルの座標(k,0,0)のx軸成分を変換した後に得られるディスプレイ画面170の座標系における2次元の姿勢ベクトルのx軸成分の新しい横座標を表し、
yyは、自己中心座標系150における3次元の姿勢ベクトルの座標(0,k,0)のy軸成分を変換した後に得られるディスプレイ画面170の座標系における2次元の姿勢ベクトルのy軸成分の新しい縦座標を表す。
Claims (9)
- コンピュータ装置(120)を遠隔制御する方法であって、
ビデオフレームから画像を繰り返し撮影し、
前記撮影された画像内で人間の顔を検出し、
前記検出された人間の顔を、先に検出された人間の顔と照合し、
照合元の前記検出された人間の顔から顔の特徴部(140)を抽出し、
前記抽出された顔の特徴部に基づき、照合元の前記検出された人間の顔の3次元の頭部姿勢を推定し、前記3次元の頭部姿勢は、前記人間の顔を起点に方向づけられた3次元の姿勢ベクトルにより自己中心座標系(150)において表され、前記3次元の姿勢ベクトルは、前記自己中心座標系(150)のx軸、y軸およびz軸の周りをそれぞれの回転行列を用いて自由に回転し、前記自己中心座標系(150)の前記x軸、y軸およびz軸上を並進ベクトルを用いて自由に並進し、
前記コンピュータ装置(120)のディスプレイ画面(170)上のユーザインタフェースを前記推定された3次元の頭部姿勢に応じて制御し、
前記コンピュータ装置(120)の前記ディスプレイ画面(170)上の前記ユーザインタフェースを制御することは、前記コンピュータ装置(120)の前記ディスプレイ画面(170)上のカーソル(110)を前記推定された3次元の頭部姿勢にマッピングすることを含み、
前記コンピュータ装置(120)の前記ディスプレイ画面(170)上の前記カーソル(110)を前記推定された3次元の頭部姿勢にマッピングすることは、前記自己中心座標系(150)における前記3次元の姿勢ベクトルを前記ディスプレイ画面(170)の2次元平面の座標系における2次元の姿勢ベクトルに変換することを含み、
前記自己中心座標系(150)における前記3次元の姿勢ベクトルを前記ディスプレイ画面(170)の前記2次元平面の座標系における2次元の姿勢ベクトルに変換することは、前記自己中心座標系(150)の前記3次元の頭部姿勢ベクトルの軸を前記ディスプレイ画面(170)の前記2次元平面に投影し、回転に基づく情報を利用する3次元から2次元へのマッピング関数を適用することを含み、
前記ディスプレイ画面(170)の前記座標系における前記2次元の姿勢ベクトルの座標(x screen ,y screen )は、ピクセルで表され、下記式の前記3次元から2次元へのマッピング関数を適用した後で得られ、
Wは、前記ディスプレイ画面(170)の幅(ピクセル単位)を表し、
Hは、前記ディスプレイ画面(170)の高さ(ピクセル単位)を表し、
f x は、前記ディスプレイ画面(170)の前記座標系の前記x軸上の置換因数を表し、
f y は、前記ディスプレイ画面(170)の前記座標系の前記y軸上の置換因数を表し、
(x 0 ,y 0 )は、前記自己中心座標系(150)の原点の座標を変換した後の、前記ディスプレイ画面(170)の前記座標系における原点の座標を表し、
(x z ,y z )は、前記自己中心座標系(150)における前記3次元の姿勢ベクトルのz軸成分を変換した後の、前記ディスプレイ画面(170)の前記座標系における前記2次元の姿勢ベクトルのz軸成分の座標を表し、
x x は、前記自己中心座標系(150)における前記3次元の姿勢ベクトルのx軸成分を変換した後の、前記ディスプレイ画面(170)の前記座標系における前記2次元の姿勢ベクトルのx軸成分の横座標を表し、
y y は、前記自己中心座標系(150)における前記3次元の姿勢ベクトルのy軸成分を変換した後の、前記ディスプレイ画面(170)の前記座標系における前記2次元の姿勢ベクトルのy軸成分の縦座標を表す
ことを特徴とする方法。 - 請求項1に記載の方法であって、前記回転に基づく情報は、ピッチ角およびヨー角に対する方向情報であることを特徴とする方法。
- 請求項1または請求項2に記載の方法であって、前記抽出された顔の特徴部は、一般的な3次元の顔モデルと照合させて使用されることを特徴とする方法。
- 請求項1または請求項2に記載の方法であって、前記画像は、少なくとも1つの画像撮影装置(160)を用いて前記ビデオフレームから繰り返し撮影されることを特徴とする方法。
- インタラクティブシステム(100)であって、
ビデオフレームから画像を繰り返し撮影するように構成された少なくとも1つの画像撮影装置(160)と、
コンピュータ装置(120)とを備え、
前記コンピュータ装置(120)は、
ディスプレイ画面(170)と、
プロセッサとを備え、
前記プロセッサは、
前記撮影された画像内で人間の顔を検出し、
前記検出された人間の顔を、先に検出された人間の顔と照合し、
照合元の前記検出された人間の顔から顔の特徴部(140)を抽出し、
前記抽出された顔の特徴部に基づき、照合元の前記検出された人間の顔の3次元の頭部姿勢を推定し、前記3次元の頭部姿勢は、前記人間の顔を起点に方向づけられた3次元の姿勢ベクトルにより自己中心座標系(150)において表され、前記3次元の姿勢ベクトルは、前記自己中心座標系(150)のx軸、y軸およびz軸の周りをそれぞれの回転行列を用いて自由に回転し、前記自己中心座標系(150)の前記x軸、y軸およびz軸上を並進ベクトルを用いて自由に並進し、
前記コンピュータ装置(120)のディスプレイ画面(170)上のユーザインタフェースを前記推定された3次元の頭部姿勢に応じて制御するように構成され、
前記コンピュータ装置(120)の前記ディスプレイ画面(170)上の前記ユーザインタフェースを制御することは、前記コンピュータ装置(120)の前記ディスプレイ画面(170)上のカーソル(110)を前記推定された3次元の頭部姿勢にマッピングすることを含み、
前記コンピュータ装置(120)の前記ディスプレイ画面(170)上の前記カーソル(110)を前記推定された3次元の頭部姿勢にマッピングすることは、前記自己中心座標系(150)における前記3次元の姿勢ベクトルを前記ディスプレイ画面(170)の2次元平面の座標系における2次元の姿勢ベクトルに変換することを含み、
前記自己中心座標系(150)における前記3次元の姿勢ベクトルを前記ディスプレイ画面(170)の前記2次元平面の座標系における2次元の姿勢ベクトルに変換することは、前記自己中心座標系(150)の前記3次元の頭部姿勢ベクトルの軸を前記ディスプレイ画面(170)の前記2次元平面に投影し、回転に基づく情報を利用する3次元から2次元へのマッピング関数を適用することを含み、
前記ディスプレイ画面(170)の前記座標系における前記2次元の姿勢ベクトルの座標(x screen ,y screen )は、ピクセルで表され、下記式の前記3次元から2次元へのマッピング関数を適用した後で得られ、
Wは、前記ディスプレイ画面(170)の幅(ピクセル単位)を表し、
Hは、前記ディスプレイ画面(170)の高さ(ピクセル単位)を表し、
f x は、前記ディスプレイ画面(170)の前記座標系の前記x軸上の置換因数を表し、
f y は、前記ディスプレイ画面(170)の前記座標系の前記y軸上の置換因数を表し、
(x 0 ,y 0 )は、前記自己中心座標系(150)の原点の座標を変換した後の、前記ディスプレイ画面(170)の前記座標系における原点の座標を表し、
(x z ,y z )は、前記自己中心座標系(150)における前記3次元の姿勢ベクトルのz軸成分を変換した後の、前記ディスプレイ画面(170)の前記座標系における前記2次元の姿勢ベクトルのz軸成分の座標を表し、
x x は、前記自己中心座標系(150)における前記3次元の姿勢ベクトルのx軸成分を変換した後の、前記ディスプレイ画面(170)の前記座標系における前記2次元の姿勢ベクトルのx軸成分の横座標を表し、
y y は、前記自己中心座標系(150)における前記3次元の姿勢ベクトルのy軸成分を変換した後の、前記ディスプレイ画面(170)の前記座標系における前記2次元の姿勢ベクトルのy軸成分の縦座標を表す
ことを特徴とするシステム。 - 請求項5に記載のインタラクティブシステム(100)であって、前記コンピュータ装置(120)は、照合元の前記検出された人間の顔を記憶するように構成された記憶部を備えることを特徴とするシステム。
- 請求項5または請求項6に記載のインタラクティブシステム(100)であって、前記少なくとも1つの画像撮影装置(160)は、前記コンピュータ装置(120)内に実装されることを特徴とするシステム。
- 請求項5または請求項6に記載のインタラクティブシステム(100)であって、前記カーソル(110)が前記ディスプレイ画面(170)上で自由に移動するように構成されることを特徴とするシステム。
- プログラム命令を含むコンピュータプログラムを記録する記録媒体であって、前記コンピュータプログラムがデバイス上で実行された場合、前記プログラム命令が前記デバイスに請求項1または請求項2に記載の方法を行うように構成されることを特徴とするコンピュータプログラムを記録する記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18173425.2 | 2018-05-21 | ||
EP18173425.2A EP3572910B1 (en) | 2018-05-21 | 2018-05-21 | Method, system and computer program for remotely controlling a display device via head gestures |
PCT/EP2018/070797 WO2019223889A1 (en) | 2018-05-21 | 2018-07-31 | Method, system and computer program for remotely controlling a display device via head gestures |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022517050A JP2022517050A (ja) | 2022-03-04 |
JP7162079B2 true JP7162079B2 (ja) | 2022-10-27 |
Family
ID=62245164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020565364A Active JP7162079B2 (ja) | 2018-05-21 | 2018-07-31 | 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11416078B2 (ja) |
EP (1) | EP3572910B1 (ja) |
JP (1) | JP7162079B2 (ja) |
KR (1) | KR20210010930A (ja) |
CN (1) | CN112088348A (ja) |
WO (1) | WO2019223889A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005119356A2 (en) * | 2004-05-28 | 2005-12-15 | Erik Jan Banning | Interactive direct-pointing system and calibration method |
CN111839926B (zh) * | 2020-06-18 | 2022-04-12 | 南京邮电大学 | 一种头姿交互控制与自主学习控制共享的轮椅控制方法及系统 |
US11367306B1 (en) * | 2020-06-23 | 2022-06-21 | Amazon Technologies, Inc. | System to determine user engagement with autonomous mobile device |
US11797081B2 (en) * | 2021-08-20 | 2023-10-24 | Huawei Technologies Co., Ltd. | Methods, devices and media for input/output space mapping in head-based human-computer interactions |
CN114201054A (zh) * | 2022-02-18 | 2022-03-18 | 深圳佑驾创新科技有限公司 | 一种基于头部姿态实现非接触式人机交互的方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008073801A2 (en) | 2006-12-07 | 2008-06-19 | Emotiv Systems Pty Ltd | Inertial sensor input device |
US20120169887A1 (en) | 2011-01-05 | 2012-07-05 | Ailive Inc. | Method and system for head tracking and pose estimation |
JP2013156680A (ja) | 2012-01-26 | 2013-08-15 | Kumamoto Univ | フェーストラッキング方法、フェーストラッカおよび車両 |
US20160148434A1 (en) | 2014-11-20 | 2016-05-26 | Thomson Licensing | Device and method for processing visual data, and related computer program product |
US20170160797A1 (en) | 2015-12-07 | 2017-06-08 | Kenneth Alberto Funes MORA | User-input apparatus, method and program for user-input |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09146692A (ja) * | 1995-11-20 | 1997-06-06 | Fujitsu Ltd | 画像表示装置 |
US8555207B2 (en) | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
US8160311B1 (en) | 2008-09-26 | 2012-04-17 | Philip Raymond Schaefer | System and method for detecting facial gestures for control of an electronic device |
TW201020896A (en) | 2008-11-19 | 2010-06-01 | Nat Applied Res Laboratories | Method of gesture control |
GB2474536B (en) | 2009-10-13 | 2011-11-02 | Pointgrab Ltd | Computer vision gesture based control of a device |
US9104239B2 (en) | 2011-03-09 | 2015-08-11 | Lg Electronics Inc. | Display device and method for controlling gesture functions using different depth ranges |
US9423870B2 (en) | 2012-05-08 | 2016-08-23 | Google Inc. | Input determination method |
EP2712541B1 (en) * | 2012-09-27 | 2015-12-30 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Tiled image based scanning for head and/or eye position for eye tracking |
US9317175B1 (en) | 2013-09-24 | 2016-04-19 | Amazon Technologies, Inc. | Integration of an independent three-dimensional rendering engine |
JP2015087824A (ja) | 2013-10-28 | 2015-05-07 | オムロン株式会社 | 画面操作装置および画面操作方法 |
US9507417B2 (en) | 2014-01-07 | 2016-11-29 | Aquifi, Inc. | Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
CN105659191B (zh) | 2014-06-17 | 2019-01-15 | 杭州凌感科技有限公司 | 用于提供图形用户界面的系统和方法 |
-
2018
- 2018-05-21 EP EP18173425.2A patent/EP3572910B1/en active Active
- 2018-07-31 CN CN201880093212.5A patent/CN112088348A/zh active Pending
- 2018-07-31 KR KR1020207036485A patent/KR20210010930A/ko not_active Application Discontinuation
- 2018-07-31 WO PCT/EP2018/070797 patent/WO2019223889A1/en active Application Filing
- 2018-07-31 US US17/057,043 patent/US11416078B2/en active Active
- 2018-07-31 JP JP2020565364A patent/JP7162079B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008073801A2 (en) | 2006-12-07 | 2008-06-19 | Emotiv Systems Pty Ltd | Inertial sensor input device |
US20120169887A1 (en) | 2011-01-05 | 2012-07-05 | Ailive Inc. | Method and system for head tracking and pose estimation |
JP2013156680A (ja) | 2012-01-26 | 2013-08-15 | Kumamoto Univ | フェーストラッキング方法、フェーストラッカおよび車両 |
US20160148434A1 (en) | 2014-11-20 | 2016-05-26 | Thomson Licensing | Device and method for processing visual data, and related computer program product |
US20170160797A1 (en) | 2015-12-07 | 2017-06-08 | Kenneth Alberto Funes MORA | User-input apparatus, method and program for user-input |
Also Published As
Publication number | Publication date |
---|---|
JP2022517050A (ja) | 2022-03-04 |
WO2019223889A1 (en) | 2019-11-28 |
US11416078B2 (en) | 2022-08-16 |
KR20210010930A (ko) | 2021-01-28 |
US20210311556A1 (en) | 2021-10-07 |
EP3572910A1 (en) | 2019-11-27 |
EP3572910B1 (en) | 2021-11-24 |
CN112088348A (zh) | 2020-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10761612B2 (en) | Gesture recognition techniques | |
JP7162079B2 (ja) | 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体 | |
US10762386B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
US9933856B2 (en) | Calibrating vision systems | |
TW202119199A (zh) | 虛擬鍵盤 | |
US9696859B1 (en) | Detecting tap-based user input on a mobile device based on motion sensor data | |
US20140139429A1 (en) | System and method for computer vision based hand gesture identification | |
CN104380338B (zh) | 信息处理器以及信息处理方法 | |
US10037614B2 (en) | Minimizing variations in camera height to estimate distance to objects | |
JP6723814B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6609640B2 (ja) | 電子デバイス上における環境マッピング用のフィーチャ・データの管理 | |
Caputo et al. | 3D hand gesture recognition based on sensor fusion of commodity hardware | |
CN111949112A (zh) | 对象交互方法及装置、系统、计算机可读介质和电子设备 | |
CN111527468A (zh) | 一种隔空交互方法、装置和设备 | |
Tsuji et al. | Touch sensing for a projected screen using slope disparity gating | |
US20200211275A1 (en) | Information processing device, information processing method, and recording medium | |
JPH08212327A (ja) | 身振り認識装置 | |
Fiorentino et al. | Magic mirror interface for augmented reality maintenance: an automotive case study | |
Haubner et al. | Recognition of dynamic hand gestures with time-of-flight cameras | |
Shenoy et al. | Stereovision based 3D hand gesture recognition for pervasive computing applications | |
Fernando | Pointing Gesture Recognition Using Stereo Vision for Video Conferencing | |
Guan et al. | Single camera vision pointing recognition for natural HCI |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220927 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7162079 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |