JP6217373B2 - 動作判定方法、動作判定装置および動作判定プログラム - Google Patents
動作判定方法、動作判定装置および動作判定プログラム Download PDFInfo
- Publication number
- JP6217373B2 JP6217373B2 JP2013257891A JP2013257891A JP6217373B2 JP 6217373 B2 JP6217373 B2 JP 6217373B2 JP 2013257891 A JP2013257891 A JP 2013257891A JP 2013257891 A JP2013257891 A JP 2013257891A JP 6217373 B2 JP6217373 B2 JP 6217373B2
- Authority
- JP
- Japan
- Prior art keywords
- customer
- person
- distance
- orientation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
- G06T2207/20044—Skeletonization; Medial axis transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
Description
さらに、1つの案では、上記動作判定方法と同様の処理を実行させる動作判定プログラムが提供される。
[第1の実施の形態]
図1は、第1の実施の形態の情報処理装置の処理例を示す図である。情報処理装置2は、所定の基準位置と人物11の頭部との距離D1(第1の距離)と、この基準位置と人物11の首との距離D2(第2の距離)とを取得可能となっている。距離D1,D2は、例えば、撮像装置によって撮像された画像や、所定のセンサによって計測されたものである。なお、距離D1,D2の測定方法は、特に限定されるものではない。
図2は、第2の実施の形態の動作判定システムの例を示す図である。動作判定システム3は、センサデバイス100および動作判定装置200を有する。センサデバイス100および動作判定装置200は、商品が販売される店舗の中に配置される。あるいは、センサデバイス100のみが店舗の中に配置され、動作判定装置200が店舗の外部に配置されてもよい。なお、センサデバイス100の機能の一部は、第1の実施の形態の撮像装置1の機能の一例である。動作判定装置200は、第1の実施の形態の情報処理装置2の一例である。
深度センサ105は、撮像カメラ104で撮像された画像の各画素について深度を計測し、プロセッサ101に出力する。深度の計測方式には、例えば、レーザ光線の往復時間により深度を計測するTOF(Time Of Flight)方式や、反射する光線(例えば、赤外線等)のパターンのひずみで深度を計測するパターン照射方式等様々な計測方式があり、何れの方式を採用してもよい。TOF方式およびパターン照射方式が採用される場合、深度センサ105は、レーザ光線や赤外線等の光線照射装置と、照射された光線の反射成分を検出するセンサとを有する。
なお、プロセッサ101に実行させるプログラムは、フラッシュメモリ103に他の記憶装置からコピーするようにしてもよい。
図5は、動作判定装置のハードウェア構成例を示すブロック図である。動作判定装置200は、プロセッサ201、RAM202、HDD203、画像信号処理部204、入力信号処理部205、ディスクドライブ206および通信インタフェース207を有する。これらのユニットは、動作判定装置200内でバス208に接続されている。
なお、動作判定装置200はディスクドライブ206を備えていなくてもよく、専ら他の端末装置から制御される場合には、画像信号処理部204や入力信号処理部205を備えていなくてもよい。また、ディスプレイ21や入力デバイス22は、動作判定装置200の筐体と一体に形成されていてもよい。
画像取得部110は、撮像カメラ104によって撮像された画像のデータを所定時間間隔で取得する。
なお、画像取得部110、骨格検出部120および送信部130は、例えば、プロセッサ101が所定のプログラムを実行することで実現される。
商品情報記憶部210は、動作判定システム3を用いる店舗で扱われる商品に関する情報を格納した商品情報テーブルを記憶する。商品に関する情報には、商品に対応する商品が配置される画像上の領域の範囲を示す位置情報が含まれる。商品情報記憶部210は、例えば、HDD203等に確保された不揮発性の記憶領域として実現される。
購入レベル判定部223は、対象領域判定部221による顧客の向きの判定結果や、手首位置判定部222による判定結果に基づいて、顧客の購入動作を分類した購入レベルを判定する。
図9は、骨格情報の例を示す図である。骨格情報131は、顧客の頭や手首の関節等の各骨格の位置を示す情報である。骨格情報131は、骨格検出部120により生成される。骨格情報131は、顧客ID(Identification)、部位および位置情報の項目を有する。
図10は、商品情報テーブルの例を示す図である。商品情報テーブル211には、店舗において商品が配置される領域に対応する画像上の設定領域が、商品ごとに設定される。設定される商品ごとの画像上の設定領域は、例えば、その設定領域に対する顧客の手首の出入りを判定するために利用されるものである。商品情報テーブル211は、商品情報記憶部210に記憶されている。商品情報テーブル211は、商品ID、領域情報および種別の項目を有する。
領域情報の項目には、商品が配置される商品配置領域に対応する設定領域を示す情報が設定される。動作判定システム3において、設定領域は、四角形であるとする。また、設定領域を示す情報は、設定領域の四隅の座標により表される。四隅の各座標は、“(X軸方向の位置,Y軸方向の位置)”により表される。X軸は、撮像カメラ104により撮像された画像において、横方向の軸であり、左方向を正とする。Y軸は、撮像カメラ104により撮像された画像において、縦方向の軸であり、上方向を正とする。なお、設定領域は、四角形に限定されず、円や楕円形であってもよい。また、設定領域が長方形である場合、例えば、設定領域を示す情報は、例えば、右上と左下の座標のみで表されてもよい。
次に、図11〜12を用いて、顧客の向きを判定する方法について説明する。図11〜12における商品棚31,32の配置は、図3や図7と同様である。すなわち、図11,12において、商品に対応する各商品配置領域(例えば、領域31a)は、図7における画像5と同様に設定される。
図13は、顧客が商品を手に取ったか判定する処理の例を示すフローチャートである。図13の処理は、センサデバイス100から画像に関する情報の受信を契機に実行される。以下、図13に示す処理をステップ番号に沿って説明する。画像に関する情報は、所定時間間隔で受信される。
(S13)対象領域判定部221は、顧客30の向きが“横”であるか判定する。顧客30の向きが“横”である場合、処理を終了する。顧客30の向きが“横”以外(すなわち、“手前”または“奥”)である場合、処理をステップS14へ進める。
(S17)手首位置判定部222は、顧客30の手首の位置が、ステップS15,S16の何れかの処理で限定された何れかの対象領域に含まれるか判定する。顧客30の手首の位置は、顧客30の顧客IDと一致し、かつ、部位が“右手首”または“左手首”であるレコードを骨格情報131から検索し、検索した各レコードの位置情報を読み出すことで取得できる。以下、“手首の位置”には、右手首の位置および左手首の位置が含まれるものとする。
(S18)手首位置判定部222は、顧客30の手首が位置する対象領域に対応する商品配置領域に、顧客30の手が進入したと判定する。
(S126)対象領域判定部221は、顧客30について、頭の深度が首の深度未満か判定する。頭および首の深度は、ステップS124で読み出した位置情報におけるZ軸方向の位置から取得される。
(S127)対象領域判定部221は、顧客30の向きを“手前”と判定する。
以上の図13〜14の処理によれば、対象領域判定部221は、顧客30の頭の深度および首の深度に基づいて、顧客30の向きを判定する。これにより、顧客30の向きを簡易に判定することができる。
(S21)購入レベル判定部223は、対象領域判定部221による判定結果に基づき、撮像された画像上に映った顧客の向きが、手前側または奥側であるかを判定する。顧客の向きが手前側または奥側である場合、処理をステップS22へ進める。顧客の向きが手前側でも奥側でもない場合(例えば、横向きの場合)、処理が終了される。
(S25)購入レベル判定部223は、図13のステップS18の判定結果に基づき、ステップS23で手が進入したと判定された対象領域から、その外部へ手が出たかを判定する。対象領域から手が出たと判定されるまで、ステップS25の処理は一定時間間隔で繰り返される。そして、対象領域から手が出たと判定した場合、処理をステップS26に進める。
次に、第3の実施の形態の動作判定システムについて説明する。
第2の実施の形態の動作判定システム3では、顧客30の首および頭の深度を比較し、首より頭が前にあるかを判定することで顧客30の向きを判定していた。ただし、このような向きの判定方法は、首および頭の深度がほぼ水平方向に対して計測されていることを想定したものである。このため、顧客の上半身がほぼ垂直であると仮定すると、センサデバイス100の光軸の垂直方向に対する傾きが大きくなるほど、判定に使用する深度(すなわち、センサデバイス100からの距離)に誤差が生じて、判定精度が悪化する。
線分AP0は、顧客30の頭とセンサデバイス100とを結ぶ線分である。線分AP0の距離は、顧客30の頭の深度で表されるものとする。線分BP0は、顧客30の首とセンサデバイス100とを結ぶ線分である。線分BP0の距離は、顧客30の首の深度で表されるものとする。
第3の実施の形態の動作判定システムによれば、センサデバイス100の俯角(角度θ0)や顧客30の頭および首の位置情報に基づき、頭および首の深度を、その深度の水平成分を示すように補正する。これにより、センサデバイス100の設置場所の高さにかかわらず、顧客30についての頭の距離と首の距離とを正確に比較できるため、顧客30の向きを精度良く比較できる。よって、顧客の手が商品配置領域に進入したかを精度良く判定できる。
(付記1) 情報処理装置が、
人物の頭部と基準位置との間の第1の距離、および、前記人物の首と前記基準位置との間の第2の距離を取得し、
前記第1の距離と前記第2の距離との比較結果に基づいて前記人物の向きを判定する、
ことを特徴とする動作判定方法。
前記情報処理装置が、
判定された前記人物の向きに基づいて、前記画像上に設定された複数の設定領域から所定の処理の対象とする1つ以上の設定領域を特定する、
処理をさらに含むことを特徴とする付記1記載の動作判定方法。
前記画像における前記人物の手の座標に基づいて、前記特定された設定領域に前記手が含まれるかを判定する、
処理をさらに含むことを特徴とする付記2記載の動作判定方法。
前記設定領域の特定では、前記人物が前記撮像装置とは反対の方向を向いていないと判定された場合、前記複数の設定領域のうち、少なくとも前記人物の背後に存在する被写体上に設定された設定領域を、前記所定の処理の対象として特定する設定領域から除外する、
ことを特徴とする付記3記載の動作判定方法。
前記第1の距離と前記第2の距離との比較結果に基づいて前記人物の向きを判定する判定部と、
を有することを特徴とする動作判定装置。
前記基準位置に配置された撮像装置によって撮像された画像に映った前記人物の向きを判定し、
判定された前記人物の向きに基づいて、前記画像上に設定された複数の設定領域から所定の処理の対象とする1つ以上の設定領域を特定する、
ことを特徴とする付記7記載の動作判定装置。
前記判定部は、前記人物が前記撮像装置とは反対の方向を向いていないと判定された場合、前記複数の設定領域のうち、少なくとも前記人物の背後に存在する被写体上に設定された設定領域を、前記所定の処理の対象として特定する設定領域から除外する、
ことを特徴とする付記9記載の動作判定装置。
人物の頭部と基準位置との間の第1の距離、および、前記人物の首と前記基準位置との間の第2の距離を取得し、
前記第1の距離と前記第2の距離との比較結果に基づいて前記人物の向きを判定する、
処理を実行させることを特徴とする動作判定プログラム。
2 情報処理装置
10 画像
11 人物
D1,D2 距離
L 線分
Claims (8)
- 情報処理装置が、
人物の頭部と基準位置との間の第1の距離、および、前記人物の首と前記基準位置との間の第2の距離を取得し、
前記第1の距離と前記第2の距離との比較結果に基づいて前記人物の向きを判定する、
ことを特徴とする動作判定方法。 - 前記人物の向きの判定では、前記基準位置に配置された撮像装置によって撮像された画像に映った前記人物の向きを判定し、
前記情報処理装置が、
判定された前記人物の向きに基づいて、前記画像上に設定された複数の設定領域から所定の処理の対象とする1つ以上の設定領域を特定する、
処理をさらに含むことを特徴とする請求項1記載の動作判定方法。 - 前記情報処理装置が、
前記画像における前記人物の手の座標に基づいて、前記特定された設定領域に前記手が含まれるかを判定する、
処理をさらに含むことを特徴とする請求項2記載の動作判定方法。 - 前記複数の設定領域の少なくとも1つは、前記撮像装置から見て前記人物の背後に存在する被写体上に設定されており、
前記設定領域の特定では、前記人物が前記撮像装置とは反対の方向を向いていないと判定された場合、前記複数の設定領域のうち、少なくとも前記人物の背後に存在する被写体上に設定された設定領域を、前記所定の処理の対象として特定する設定領域から除外する、
ことを特徴とする請求項3記載の動作判定方法。 - 前記人物の向きの判定では、取得した前記第1の距離または前記第2の距離の少なくとも一方を、前記撮像装置の撮像方向と水平面との角度に応じて補正した値を用いて、前記人物の向きを判定することを特徴とする請求項2乃至4の何れか1つに記載の動作判定方法。
- 前記人物の向きの判定では、前記第1の距離と前記第2の距離との比較結果に基づき、前記人物が前記基準位置の方向と当該基準位置とは反対の方向のどちらを向いているかを判定することを特徴とする請求項1乃至5の何れか1つに記載の動作判定方法。
- 人物の頭部と基準位置との間の第1の距離、および、前記人物の首と前記基準位置との間の第2の距離を取得する取得部と、
前記第1の距離と前記第2の距離との比較結果に基づいて前記人物の向きを判定する判定部と、
を有することを特徴とする動作判定装置。 - コンピュータに、
人物の頭部と基準位置との間の第1の距離、および、前記人物の首と前記基準位置との間の第2の距離を取得し、
前記第1の距離と前記第2の距離との比較結果に基づいて前記人物の向きを判定する、
処理を実行させることを特徴とする動作判定プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013257891A JP6217373B2 (ja) | 2013-12-13 | 2013-12-13 | 動作判定方法、動作判定装置および動作判定プログラム |
US14/559,967 US9582721B2 (en) | 2013-12-13 | 2014-12-04 | Method and apparatus for determining movement |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013257891A JP6217373B2 (ja) | 2013-12-13 | 2013-12-13 | 動作判定方法、動作判定装置および動作判定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015114950A JP2015114950A (ja) | 2015-06-22 |
JP6217373B2 true JP6217373B2 (ja) | 2017-10-25 |
Family
ID=53368864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013257891A Expired - Fee Related JP6217373B2 (ja) | 2013-12-13 | 2013-12-13 | 動作判定方法、動作判定装置および動作判定プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9582721B2 (ja) |
JP (1) | JP6217373B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180025175A1 (en) | 2015-01-15 | 2018-01-25 | Nec Corporation | Information output device, camera, information output system, information output method, and program |
US10681295B2 (en) * | 2017-10-30 | 2020-06-09 | Omnivision Technologies, Inc. | Time of flight camera with photon correlation successive approximation |
JP6920246B2 (ja) * | 2018-04-26 | 2021-08-18 | Kddi株式会社 | 行動認識装置、モデル構築装置及びプログラム |
JP7022040B2 (ja) * | 2018-09-26 | 2022-02-17 | Kddi株式会社 | オブジェクト識別装置、方法およびプログラム |
JP7435587B2 (ja) * | 2019-03-01 | 2024-02-21 | 日本電気株式会社 | 物品推定装置、物品推定方法、及びプログラム |
JP7337354B2 (ja) * | 2019-05-08 | 2023-09-04 | 株式会社オレンジテクラボ | 情報処理装置及び情報処理プログラム |
JP7548059B2 (ja) | 2021-02-25 | 2024-09-10 | 富士通株式会社 | 設定方法、設定プログラム及び設定装置 |
GB2610414B (en) * | 2021-09-03 | 2024-08-14 | Integrated Design Ltd | Anti-climb system |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001073680A1 (en) * | 2000-03-27 | 2001-10-04 | Massachusetts General Hospital | Methods and systems for distinguishing individuals utilizing anatomy and gait parameters |
JP4876687B2 (ja) | 2006-04-19 | 2012-02-15 | 株式会社日立製作所 | 注目度計測装置及び注目度計測システム |
JP2009003701A (ja) | 2007-06-21 | 2009-01-08 | Denso Corp | 情報システム及び情報処理装置 |
US7961910B2 (en) * | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8564534B2 (en) * | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
JP2012123667A (ja) | 2010-12-09 | 2012-06-28 | Panasonic Corp | 姿勢推定装置および姿勢推定方法 |
JP5953484B2 (ja) * | 2011-03-30 | 2016-07-20 | 株式会社国際電気通信基礎技術研究所 | 計測装置,計測方法および計測プログラム |
JP2013250882A (ja) * | 2012-06-01 | 2013-12-12 | Sharp Corp | 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム |
-
2013
- 2013-12-13 JP JP2013257891A patent/JP6217373B2/ja not_active Expired - Fee Related
-
2014
- 2014-12-04 US US14/559,967 patent/US9582721B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20150169961A1 (en) | 2015-06-18 |
US9582721B2 (en) | 2017-02-28 |
JP2015114950A (ja) | 2015-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6217373B2 (ja) | 動作判定方法、動作判定装置および動作判定プログラム | |
JP6194777B2 (ja) | 動作判定方法、動作判定装置および動作判定プログラム | |
Wasenmüller et al. | Comparison of kinect v1 and v2 depth images in terms of accuracy and precision | |
US10782399B2 (en) | Object detecting method and apparatus using light detection and ranging (LIDAR) sensor and radar sensor | |
US9111177B2 (en) | Position/orientation measurement apparatus, processing method therefor, and non-transitory computer-readable storage medium | |
JP5950122B2 (ja) | キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム | |
KR102307941B1 (ko) | 눈 추적 시스템들을 위한 개선된 교정 | |
JP6435750B2 (ja) | 3次元座標算出装置、3次元座標算出方法および3次元座標算出プログラム | |
US9208395B2 (en) | Position and orientation measurement apparatus, position and orientation measurement method, and storage medium | |
CN104732514B (zh) | 用于处理高度图的设备、系统和方法 | |
US10310675B2 (en) | User interface apparatus and control method | |
JP2012037491A (ja) | 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法、および点群位置データ処理プログラム | |
JP7253441B2 (ja) | 追跡装置及び情報処理プログラム | |
US12026916B2 (en) | Method and apparatus for in-field stereo calibration | |
KR102226372B1 (ko) | 다수 카메라와 라이다 센서 융합을 통한 객체 추적 시스템 및 방법 | |
Zhao et al. | Metric calibration of unfocused plenoptic cameras for three-dimensional shape measurement | |
JP2019056606A (ja) | ステレオカメラ | |
JP6244960B2 (ja) | 物体認識装置、物体認識方法及び物体認識プログラム | |
JP7253440B2 (ja) | 追跡装置及び情報処理プログラム | |
JP6303918B2 (ja) | ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置 | |
JP2022081808A (ja) | 情報処理プログラム、情報処理方法および情報処理装置 | |
US10408604B1 (en) | Remote distance estimation system and method | |
US9885779B2 (en) | Optical calibration system adapted for optical distance measurement system | |
JP4229964B2 (ja) | エリアイメージセンサを用いた位置検出装置 | |
US11768920B2 (en) | Apparatus and method for performing heterogeneous sensor fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160905 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170911 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6217373 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |