JP6141108B2 - 情報処理装置およびその方法 - Google Patents
情報処理装置およびその方法 Download PDFInfo
- Publication number
- JP6141108B2 JP6141108B2 JP2013121187A JP2013121187A JP6141108B2 JP 6141108 B2 JP6141108 B2 JP 6141108B2 JP 2013121187 A JP2013121187 A JP 2013121187A JP 2013121187 A JP2013121187 A JP 2013121187A JP 6141108 B2 JP6141108 B2 JP 6141108B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- image
- information processing
- processing apparatus
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Description
ジェスチャ入力が行われるジェスチャ入力領域を撮影した画像を取得する取得手段と、
前記画像からジェスチャ入力のために使用する物体を検出する第一の検出手段と、
前記検出された物体が前記画像内に設けられた判定領域と交わる交点の画像座標を検出する第二の検出手段と、
前記ジェスチャ入力領域を撮影した画像群から前記第二の検出手段が検出した画像座標群に基づき、1つの基点画像座標を算出する算出手段と、
前記物体によりなされるジェスチャを認識するために用いられるジェスチャ座標系を、1つの基準画像座標と前記1つの基点画像座標とに基づいて決定する第一の決定手段と、
前記画像群から前記第一の検出手段が検出した前記物体の特徴量群を、前記ジェスチャ座標系における前記物体の特徴量群に変換し、該変換された特徴量群に基づいて、前記画像群における前記物体の動きを、前記物体によりなされるジェスチャとして認識する認識手段と
を有することを特徴とする。
図1のブロック図により実施例の情報処理装置の構成例を示す。
図2のブロック図により実施例1の情報処理装置の機能構成例を示す。なお、図2に示す機能構成はCPU101がプログラムを実行し、カメラ105などを制御することにより実現される。
図3により実施例の情報処理装置の概観例を示す。テーブル301は、映像表示機能を備え、操作対象の画像(または映像)302がテーブル301に表示される。テーブル301の上部にはカメラ105が設置され、カメラ105によって俯瞰撮影された画像に基づき、テーブル301の上部の空間(入力領域)で実行されたユーザのジェスチャが認識される。
図4、図5のフローチャートにより実施例1のジェスチャ認識処理を説明する。情報処理装置は、入力部107を介して入力されるユーザ指示に従い、カメラ105に撮影を開始させ、ジェスチャ認識処理を開始する。
ジェスチャ特徴量の座標をジェスチャ座標系に変換する処理を説明する。図6によりカメラ105からテーブル301上の空間を撮影した画像を示す。
まず、画像において定義される基本座標系504において、テーブル301の中心位置が操作対象位置505として決定される。式(1)は操作対象位置Targetを示す。
Target = (xT, yT)o T …(1)
ここで、式末尾の「o」は基本座標系504の座標を示す、
式末尾の「T」は転置行列を示す。
if ((x, y)o T ∈ 腕領域)
Arm(x, y)o =‘1’;
else
Arm(x, y)o =‘0’; …(2)
if ((x, y)o T ∈ 判定領域)
Border(x, y)o =‘1’;
else
Border(x, y)o =‘0’; …(3)
Cross = (xC, yC)o T
= ΣAB=1(x, y)o T/ΣAB …(4)
ここで、Crossは交点位置、
AB = Arm(x, y)o×Border(x, y)o。
Hand = (xH, yH)o T
= argSmax(‖Cross - (x, y)o T‖2|Arm(x, y)o=1) …(5)
ここで、Handは指先位置、
S=(x, y)o T。
次に、入力領域から腕が退いたことが検出されると、各画像から計算された交点位置Crossに基づき、式(6)により交点位置Crossの平均的な位置が基点位置509として算出される。
Base = (xB, yB)o T
= ΣNin NoutCross/(Nout - Nin) …(6)
ここで、Baseは基点位置、
Ninは入力領域に腕が挿入された画像の番号(フレーム番号)、
Noutは入力領域から腕が退いたと判定された画像の前画像の番号。
Orign = (0, 0)g T
= Base = (xB, yB)o T …(7)
ここで、式末尾の「g」はジェスチャ座標系を示す。
↑V = ↑BT/‖↑BT‖2 …(8)
ここで、↑はベクトルを表す、
‖↑X‖2はベクトルXの長さを表す。
┌ ┐
│0 -1│
↑U =│ │↑V …(9)
│1 0│
└ ┘
Hand' = (uH, vH)g T …(10)
ここで、uH = {(xH-xB)(yT-yB)-(yH-yB)(xT-xB)}/√{(xT-xB)2+(yT-yB)2}、
vH = {(xH-xB)(xT-xB)+(yH-yB)(yT-tB)}/√{(xT-xB)2+(yT-yB)2}。
上記では、操作対象位置決定部205は、入力領域の中心付近を操作対象位置に決定する例を説明した。しかし、テーブル301上に載置された物体、または、表示された画像の位置に基づき、操作対象位置を決定することも可能である。
実施例2では、操作対象を特定し、操作対象に基づくジェスチャ座標系を決定し、ジェスチャ特徴量(指先位置)をジェスチャ座標系へ座標変換し、座標変換後の特徴量に基づきジェスチャ認識処理を行う例を説明した。逆に、ジェスチャ認識結果に基づき操作対象を特定することも可能である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステムあるいは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (21)
- ジェスチャ認識を行う情報処理装置であって、
ジェスチャ入力が行われるジェスチャ入力領域を撮影した画像を取得する取得手段と、
前記画像からジェスチャ入力のために使用する物体を検出する第一の検出手段と、
前記検出された物体が前記画像内に設けられた判定領域と交わる交点の画像座標を検出する第二の検出手段と、
前記ジェスチャ入力領域を撮影した画像群から前記第二の検出手段が検出した画像座標群に基づき、1つの基点画像座標を算出する算出手段と、
前記物体によりなされるジェスチャを認識するために用いられるジェスチャ座標系を、1つの基準画像座標と前記1つの基点画像座標とに基づいて決定する第一の決定手段と、
前記画像群から前記第一の検出手段が検出した前記物体の特徴量群を、前記ジェスチャ座標系における前記物体の特徴量群に変換し、該変換された特徴量群に基づいて、前記画像群における前記物体の動きを、前記物体によりなされるジェスチャとして認識する認識手段と
を有することを特徴とする情報処理装置。 - さらに、
前記画像群から前記第一の検出手段が検出した前記物体の特徴量群を、前記ジェスチャ座標系における前記物体の特徴量群に変換し、該変換された特徴量群に基づいて、前記画像群における前記物体の動きを、ジェスチャモデルとして学習する学習手段を有することを特徴とする請求項1に記載された情報処理装置。 - 前記物体の特徴量は、該物体において前記交点の画像座標から最も遠い先端部分の画像座標であることを特徴とする請求項1に記載された情報処理装置。
- 前記認識手段は、前記学習手段により学習済みの前記ジェスチャモデルと、前記変換された特徴量群と、に基づきジェスチャ認識を行うことを特徴とする請求項2に記載された情報処理装置。
- 前記算出手段は、前記基点画像座標として、前記第二の検出手段が前記画像群から検出した画像座標群の平均画像座標を算出することを特徴とする請求項1に記載された情報処理装置。
- 前記基準画像座標は、前記ジェスチャ入力領域の中心付近に対応する画像座標であることを特徴とする請求項1に記載された情報処理装置。
- 前記基準画像座標は、前記ジェスチャ入力領域に配置され且つ前記ジェスチャによる操作対象に対応する画像座標であることを特徴とする請求項1に記載された情報処理装置。
- 更に、
前記画像群から前記第一の検出手段が検出した前記物体の画像座標群の平均画像座標を推定する推定手段と、
前記平均画像座標と前記基点画像座標とを結ぶ直線に基づき、前記ジェスチャ入力領域に配置された複数の操作対象から1つの操作対象を決定する決定手段とを有し、
前記基準画像座標は、前記決定された1つの操作対象に対応する画像座標であることを特徴とする請求項1に記載された情報処理装置。 - 更に、
前記ジェスチャ入力領域に配置された操作対象の複数の候補のそれぞれについて、該候補の画像座標と前記基点画像座標とに基づいて、前記ジェスチャ座標系を決定する決定手段と、
前記画像群から前記第一の検出手段が検出した前記物体の特徴量群を、前記複数の候補のそれぞれについて決定したジェスチャ座標系における前記物体の特徴量群に変換し、該変換された特徴量群と前記ジェスチャモデルとに基づいて、前記複数の候補から1つの候補を決定し、該決定した1つの候補の画像座標を前記基準画像座標として設定する手段と
を有することを特徴とする請求項4に記載された情報処理装置。 - 前記ジェスチャ入力領域に配置された操作対象の複数の候補は、前記ジェスチャ入力領域に載置された複数の物体または前記ジェスチャ入力領域に表示された複数の画像であることを特徴とする請求項9に記載された情報処理装置。
- 前記第一の決定手段は、前記基点画像座標を原点とする前記ジェスチャ座標系を決定することを特徴とする請求項1に記載された情報処理装置。
- 前記第一の決定手段は、前記基点画像座標から前記基準画像座標に向かうベクトルを前記ジェスチャ座標系の一軸とする前記ジェスチャ座標系を決定することを特徴とする請求項1に記載された情報処理装置。
- 前記判定領域は、前記ジェスチャ入力領域の境界であることを特徴とする請求項1から請求項12の何れか一項に記載された情報処理装置。
- 前記判定領域は、前記ジェスチャ入力領域を撮影する撮像手段の撮影範囲の境界であることを特徴とする請求項1乃至12の何れか一項に記載された情報処理装置。
- 前記画像群は、前記物体が前記ジェスチャ入力領域に侵入してから退くまでの期間内に前記ジェスチャ入力領域を撮影した画像群であり、
前記認識手段は、前記期間中における前記物体の動きを前記物体によるジェスチャとして認識する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記第二の検出手段は、前記ジェスチャ入力領域を撮影した画像から前記物体が検出されている間は前記交点の画像座標を検出し、
前記算出手段は、前記ジェスチャ入力領域を撮影した画像から前記物体が検出されなくなったことに応じて、前記ジェスチャ入力領域を撮影した画像から前記物体が検出されている間に前記第二の検出手段が検出した画像座標群に基づいて前記基点画像座標を算出する
ことを特徴とする請求項1に記載の情報処理装置。 - ジェスチャを認識する情報処理装置であって、
ジェスチャ入力を行うために使用される物体が、該ジェスチャ入力が行われる領域であるジェスチャ入力領域に侵入してから退くまでの期間内に、該ジェスチャ入力領域を撮影した画像群から、該期間内の該物体の位置の変化を表す情報を検出する検出手段と、
基準位置と前記情報により表される変化とに基づいて、前記物体によるジェスチャを認識するために用いるジェスチャ座標系を決定する決定手段と、
前記ジェスチャ座標系における前記変化の特徴量に基づいて、前記物体によるジェスチャを認識する認識手段と
を備えることを特徴とする情報処理装置。 - ジェスチャ認識を行う情報処理装置が行う情報処理方法であって、
前記情報処理装置の取得手段が、ジェスチャ入力が行われるジェスチャ入力領域を撮影した画像を取得し、
前記情報処理装置の第一の検出手段が、前記画像からジェスチャ入力のために使用する物体を検出し、
前記情報処理装置の第二の検出手段が、前記検出された物体が前記画像内に設けられた判定領域と交わる交点の画像座標を検出し、
前記情報処理装置の算出手段が、前記ジェスチャ入力領域を撮影した画像群から前記検出した画像座標群に基づき、1つの基点画像座標を算出し、
前記情報処理装置の第一の決定手段が、前記物体によりなされるジェスチャを認識するために用いられるジェスチャ座標系を、1つの基準画像座標と前記1つの基点画像座標とに基づいて決定し、
前記情報処理装置の認識手段が、前記画像群から検出した前記物体の特徴量群を、前記ジェスチャ座標系における前記物体の特徴量群に変換し、該変換された特徴量群に基づいて、前記画像群における前記物体の動きを、前記物体によりなされるジェスチャとして認識することを特徴とする情報処理方法。 - ジェスチャを認識する情報処理装置が行う情報処理方法であって、
前記情報処理装置の検出手段が、ジェスチャ入力を行うために使用される物体が、該ジェスチャ入力が行われる領域であるジェスチャ入力領域に侵入してから退くまでの期間内に、該ジェスチャ入力領域を撮影した画像群から、該期間内の該物体の位置の変化を表す情報を検出し、
前記情報処理装置の決定手段が、基準位置と前記情報により表される変化とに基づいて、前記物体によるジェスチャを認識するために用いるジェスチャ座標系を決定し、
前記情報処理装置の認識手段が、前記ジェスチャ座標系における前記変化の特徴量に基づいて、前記物体によるジェスチャを認識することを特徴とする情報処理方法。 - コンピュータを請求項1から請求項17の何れか一項に記載された情報処理装置の各手段として機能させるためのプログラム。
- 請求項20に記載されたプログラムが格納されたコンピュータ読み取り可能な記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013121187A JP6141108B2 (ja) | 2013-06-07 | 2013-06-07 | 情報処理装置およびその方法 |
US14/286,234 US9747023B2 (en) | 2013-06-07 | 2014-05-23 | Information processing apparatus and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013121187A JP6141108B2 (ja) | 2013-06-07 | 2013-06-07 | 情報処理装置およびその方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014238727A JP2014238727A (ja) | 2014-12-18 |
JP2014238727A5 JP2014238727A5 (ja) | 2016-07-07 |
JP6141108B2 true JP6141108B2 (ja) | 2017-06-07 |
Family
ID=52005038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013121187A Active JP6141108B2 (ja) | 2013-06-07 | 2013-06-07 | 情報処理装置およびその方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9747023B2 (ja) |
JP (1) | JP6141108B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150169070A1 (en) * | 2013-12-17 | 2015-06-18 | Google Inc. | Visual Display of Interactive, Gesture-Controlled, Three-Dimensional (3D) Models for Head-Mountable Displays (HMDs) |
US9552070B2 (en) * | 2014-09-23 | 2017-01-24 | Microsoft Technology Licensing, Llc | Tracking hand/body pose |
JP7017689B2 (ja) * | 2017-12-29 | 2022-02-09 | 富士通株式会社 | 情報処理装置、情報処理システムおよび情報処理方法 |
US10809760B1 (en) * | 2018-10-29 | 2020-10-20 | Facebook, Inc. | Headset clock synchronization |
CN111460854B (zh) * | 2019-01-18 | 2023-04-28 | 杭州海康威视数字技术股份有限公司 | 一种远距离目标检测方法、装置及系统 |
CN112699849A (zh) * | 2021-01-15 | 2021-04-23 | 维沃移动通信有限公司 | 手势识别方法和装置、电子设备、可读存储介质和芯片 |
CN117021117B (zh) * | 2023-10-08 | 2023-12-15 | 电子科技大学 | 一种基于混合现实的移动机器人人机交互与定位方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0784715A (ja) * | 1993-09-10 | 1995-03-31 | Hitachi Ltd | 情報処理装置 |
US5436639A (en) * | 1993-03-16 | 1995-07-25 | Hitachi, Ltd. | Information processing system |
JP3144400B2 (ja) * | 1998-11-13 | 2001-03-12 | 日本電気株式会社 | ジェスチャ認識装置及び方法 |
JP4332649B2 (ja) * | 1999-06-08 | 2009-09-16 | 独立行政法人情報通信研究機構 | 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体 |
SE0000850D0 (sv) * | 2000-03-13 | 2000-03-13 | Pink Solution Ab | Recognition arrangement |
DE602004006190T8 (de) * | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
US7755608B2 (en) * | 2004-01-23 | 2010-07-13 | Hewlett-Packard Development Company, L.P. | Systems and methods of interfacing with a machine |
US7535481B2 (en) * | 2004-06-28 | 2009-05-19 | Microsoft Corporation | Orienting information presented to users located at different sides of a display surface |
WO2008029467A1 (fr) * | 2006-09-07 | 2008-03-13 | Osaka Electro-Communication University | Système, procédé et programme d'entrée de mouvement |
JP4991458B2 (ja) * | 2007-09-04 | 2012-08-01 | キヤノン株式会社 | 画像表示装置及びその制御方法 |
JP2012048380A (ja) * | 2010-08-25 | 2012-03-08 | Canon Inc | 情報処理装置およびその動作方法 |
JP2012098988A (ja) * | 2010-11-04 | 2012-05-24 | Sony Corp | 画像処理装置および方法、並びにプログラム |
EP2720114A4 (en) * | 2011-06-13 | 2015-02-25 | Citizen Holdings Co Ltd | INFORMATION INPUT DEVICE |
-
2013
- 2013-06-07 JP JP2013121187A patent/JP6141108B2/ja active Active
-
2014
- 2014-05-23 US US14/286,234 patent/US9747023B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9747023B2 (en) | 2017-08-29 |
US20140361981A1 (en) | 2014-12-11 |
JP2014238727A (ja) | 2014-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6141108B2 (ja) | 情報処理装置およびその方法 | |
US11294470B2 (en) | Human-to-computer natural three-dimensional hand gesture based navigation method | |
US10997465B2 (en) | Information processing device, information processing method, and storage medium | |
JP6642968B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
KR20200111617A (ko) | 제스처 인식 방법, 장치, 전자 기기 및 저장 매체 | |
KR101631011B1 (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
US20140139429A1 (en) | System and method for computer vision based hand gesture identification | |
US10453235B2 (en) | Image processing apparatus displaying image of virtual object and method of displaying the same | |
KR101360149B1 (ko) | 센서리스 기반 손가락 모션 트래킹 방법 및 그 장치 | |
JP6618276B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
KR101631015B1 (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
JP2014235634A (ja) | 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム | |
JP6455186B2 (ja) | 指先位置推定装置、指先位置推定方法、及び、プログラム | |
KR101256046B1 (ko) | 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템 | |
JP6325659B2 (ja) | 操作画面表示装置、操作画面表示方法およびプログラム | |
JP2021000694A (ja) | ロボット教示装置及びロボットシステム | |
JP2017191426A (ja) | 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体 | |
JP2017033556A (ja) | 画像処理方法及び電子機器 | |
KR101068281B1 (ko) | 후면부 손가락 움직임 및 제스처 인식을 이용한 휴대형 정보 단말기 및 콘텐츠 제어 방법 | |
CN111158489B (zh) | 一种基于摄像头的手势交互方法及手势交互系统 | |
JP2018195052A (ja) | 画像処理装置、画像処理プログラム及びジェスチャ認識システム | |
JP2018195053A (ja) | 画像処理装置、画像処理プログラム及びジェスチャ認識システム | |
JP2017211739A (ja) | ユーザインターフェース装置およびユーザインターフェースプログラム | |
KR101517932B1 (ko) | 손 제스처 인식용 초광각 스테레오 카메라 시스템 장치 및 방법 | |
Craciun et al. | Interface for gestural interaction in virtual reality environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160523 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160523 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170407 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170502 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6141108 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |