JP2012113714A - ユーザがコンピュータシステムとやり取りを行うことができる、ビデオストリームにおける動く非剛体オブジェクトをリアルタイムで検出し及び追跡する方法及び装置 - Google Patents
ユーザがコンピュータシステムとやり取りを行うことができる、ビデオストリームにおける動く非剛体オブジェクトをリアルタイムで検出し及び追跡する方法及び装置 Download PDFInfo
- Publication number
- JP2012113714A JP2012113714A JP2011252752A JP2011252752A JP2012113714A JP 2012113714 A JP2012113714 A JP 2012113714A JP 2011252752 A JP2011252752 A JP 2011252752A JP 2011252752 A JP2011252752 A JP 2011252752A JP 2012113714 A JP2012113714 A JP 2012113714A
- Authority
- JP
- Japan
- Prior art keywords
- interest
- image
- region
- points
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】第1の画像及び第2の画像を受信し、第1の画像の第1の関心のある領域を識別した後、第1の関心のある領域に対応する第2の関心のある領域を、第2の画像において識別する。第1の関心のある領域及び第2の関心のある領域が互いに比較され(440)、第1の関心のある領域及び第2の関心のある領域の対応するポイントの少なくとも一つの特徴の変化を特徴付ける関心のあるマスクを決定する。その後、オブジェクトの動きを、関心のあるマスクから決定する(445)。動きが分析され、それに応答して、予め決定された動作が、トリガがかけられ又はトリガがかけられない。
【選択図】図4
Description
少なくとも一つの第1の画像をイメージセンサから受け取るステップと、
第1の画像中の少なくとも一つの関心のある第1の領域を識別するステップであって、少なくとも一つの関心のある第1の領域は、少なくとも一つの第1の画像の一部に対応するステップと、
少なくとも一つの第2の画像をイメージセンサから受け取るステップと、
少なくとも一つの第2の画像中の少なくとも一つの関心のある第2の領域を識別するステップであって、少なくとも一つの関心のある第2の領域は、少なくとも一つの第1の画像の少なくとも一つの関心のある第1の領域に対応するステップと、
少なくとも一つの関心のある第1の領域と少なくとも一つの関心のある第2の領域とを比較し、少なくとも一つの関心のある第1の領域と少なくとも一つの関心のある第2の領域の対応するポイントの少なくとも一つの特徴の変化を特徴付ける関心のあるマスクを決定するステップと、
少なくとも一つのオブジェクトの動きを関心のあるマスクから決定するステップであって、少なくとも一つのオブジェクトは、少なくとも一つの関心のある第1の領域と少なくとも一つの関心のある第2の領域のうちの少なくとも一つで少なくとも部分的に表されているステップと、
動きを分析し、分析に応答して、予め決定された動作にトリガをかけ又はトリガをかけないステップと、を備えることを特徴とする方法を対象にする。
図1a及び図1bを備える図1は、オブジェクトの動き及びユーザのやり取りを決定するために用いることができる画像ストリームの二つの連続する画像を示す。
Claims (15)
- イメージセンサの領域に位置した少なくとも一つのオブジェクトの動きに従ってソフトウェアアプリケーションとのやり取りを検出するコンピュータ方法であって、前記イメージセンサは、前記コンピュータ方法を実行するコンピュータに接続され、画像ストリームを前記コンピュータに供給する方法において、
少なくとも一つの第1の画像を前記イメージセンサから受け取るステップと、
前記第1の画像中の少なくとも一つの関心のある第1の領域を識別するステップであって、前記少なくとも一つの関心のある第1の領域は、前記少なくとも一つの第1の画像の一部に対応するステップと、
少なくとも一つの第2の画像を前記イメージセンサから受け取るステップと、
前記少なくとも一つの第2の画像中の少なくとも一つの関心のある第2の領域を識別するステップであって、前記少なくとも一つの関心のある第2の領域は、前記少なくとも一つの第1の画像の前記少なくとも一つの関心のある第1の領域に対応するステップと、
前記少なくとも一つの関心のある第1の領域と前記少なくとも一つの関心のある第2の領域とを比較し、前記少なくとも一つの関心のある第1の領域と前記少なくとも一つの関心のある第2の領域の対応するポイントの少なくとも一つの特徴の変化を特徴付ける関心のあるマスクを決定するステップ(440)と、
前記少なくとも一つのオブジェクトの動きを前記関心のあるマスクから決定するステップであって、前記少なくとも一つのオブジェクトは、前記少なくとも一つの関心のある第1の領域と前記少なくとも一つの関心のある第2の領域のうちの少なくとも一つで少なくとも部分的に表されているステップ(445)と、
前記動きを分析し、前記分析に応答して、予め決定された動作にトリガをかけ又はトリガをかけないステップ(470)と、を備えることを特徴とする方法。 - 前記動きを決定するステップ(445)は、前記少なくとも一つの第1の画像及び前記少なくとも一つの第2の画像中の少なくとも一対の関心のあるポイントを決定し及びマッチングするステップであって、前記少なくとも一対の関心のあるポイントのうちの少なくとも一つのポイントは、前記関心のあるマスクに属するステップを備える請求項1に記載の方法。
- 前記動きを決定するステップ(445)は、前記少なくとも一つの第1の画像及び前記少なくとも一つの第2の画像中の複数の対の関心のあるポイントを決定し及びマッチングするステップであって、前記複数の対の関心のあるポイントの各々のうちの少なくとも一つのポイントは、前記関心のあるマスクに属し、前記動きは、第1セットの関心のあるポイントの第2セットの関心のあるポイントへの変換に基づいて推定され、前記第1のセット及び前記第2のセットの関心のあるポイントは、前記複数の対の関心のあるポイントに属し、前記第1セットの関心のあるポイントの関心のあるポイントは、前記少なくとも一つの第1の画像にも属し、前記第2セットの関心のあるポイントの関心のあるポイントは、前記少なくとも一つの第2の画像にも属するステップを備える請求項2に記載の方法。
- 前記変換は、前記複数の対の関心のあるポイントの同一の対の関心のあるポイントからの二つの関心のあるポイント間の距離に基づく重み関数を実現する請求項3に記載の方法。
- 前記少なくとも一つの対の関心のあるポイントに属する、前記少なくとも一つの第1の画像の少なくとも一つの関心のあるポイントを、前記決定した動きに従って有効にするステップであって、少なくとも一つの有効にした関心のあるポイントを、前記少なくとも一つの第2の画像に続く少なくとも一つの第3の画像中の前記オブジェクトを追跡するために使用し、少なくとも一つの有効にした関心のあるポイントを、前記少なくとも一つの第2の画像及び前記少なくとも一つの第3の画像に基づいて形成された関心のあるマスクを変更するのに使用するステップを更に備える請求項3又は4に記載の方法。
- 前記少なくとも一つの関心のある第1の領域と前記少なくとも一つの関心のある第2の領域とを比較するステップは、前記少なくとも一つの関心のある第1の領域及び前記少なくとも一つの関心のある第2の領域の対応するポイントの値の減算をポイントごとに実行するステップと、前記減算の結果と予め決定されたしきい値とを比較するステップと、を備える請求項1から5のうちのいずれか1項に記載の方法。
- 前記少なくとも一つの第1の画像中の少なくとも一つの予め決定された特徴を検出するステップを更に有し、前記少なくとも一つの関心のある領域を、前記検出ステップに応答して少なくとも部分的に識別する請求項1から6のうちのいずれか1項に記載の方法。
- 前記少なくとも一つの予め決定された特徴を、予め決定された形状及び/又は予め決定された色とする請求項7に記載の方法。
- 前記少なくとも一つの第2の画像中の少なくとも一つの変更した関心のある第2の領域を推定するステップであって、前記少なくとも一つの第2の画像中の少なくとも一つの変更した関心のある第2の領域は、前記少なくとも一つの第1の画像の前記少なくとも一つの関心のある第1の領域及び前記少なくとも一つの第2の画像の前記少なくとも一つの関心のある第2の領域に従って推定されるステップを更に備える請求項1から8のうちのいずれか1項に記載の方法。
- 前記少なくとも一つの第2の画像中の前記少なくとも一つの変更した関心のある第2の領域の推定は、KLTタイプのオブジェクト追跡アルゴリズムを実現する請求項9に記載の方法。
- 前記動きは、移動、回転及び/又は倍率によって特徴付けられる請求項1から10のうちのいずれか1項に記載の方法。
- 前記動きは、倍率によって特徴付けられ、前記予め決定された動作にトリガをかけるか否かを、前記倍率に基づいて決定する請求項11に記載の方法。
- 前記イメージセンサの領域に位置した少なくとも二つのオブジェクトの動きを決定し、前記予め決定された動作にトリガをかけるか否かを、前記少なくとも二つのオブジェクトに関連した動きの組合せに従って決定する請求項1から12のうちのいずれか1項に記載の方法。
- 請求項1から13のうちのいずれか1項に記載の方法のステップの各々を実行するのに適合した命令を備えるコンピュータプログラムであって、前記プログラムをコンピュータ上で実行するコンピュータプログラム。
- 請求項1から13のうちのいずれか1項に記載の方法のステップの各々を実行するのに適合した手段を備える装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1059541A FR2967804B1 (fr) | 2010-11-19 | 2010-11-19 | Procede et dispositif de detection et de suivi d'objets non rigides en mouvement, en temps reel, dans un flux video, permettant a un utilisateur d'interagir avec un systeme informatique |
FR1059541 | 2010-11-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012113714A true JP2012113714A (ja) | 2012-06-14 |
JP5967904B2 JP5967904B2 (ja) | 2016-08-10 |
Family
ID=44168356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011252752A Expired - Fee Related JP5967904B2 (ja) | 2010-11-19 | 2011-11-18 | ユーザがコンピュータシステムとやり取りを行うことができる、ビデオストリームにおける動く非剛体オブジェクトをリアルタイムで検出し及び追跡する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20120129605A1 (ja) |
EP (1) | EP2455916B1 (ja) |
JP (1) | JP5967904B2 (ja) |
KR (1) | KR20120054550A (ja) |
FR (1) | FR2967804B1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016526713A (ja) * | 2013-06-14 | 2016-09-05 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | トラッカ補助画像キャプチャ |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8320662B2 (en) * | 2009-01-07 | 2012-11-27 | National Instruments Corporation | Distinguishing colors of illuminated objects using machine vision |
US9218316B2 (en) | 2011-01-05 | 2015-12-22 | Sphero, Inc. | Remotely controlling a self-propelled device in a virtualized environment |
US10281915B2 (en) | 2011-01-05 | 2019-05-07 | Sphero, Inc. | Multi-purposed self-propelled device |
US9429940B2 (en) | 2011-01-05 | 2016-08-30 | Sphero, Inc. | Self propelled device with magnetic coupling |
US9150263B2 (en) | 2011-01-05 | 2015-10-06 | Sphero, Inc. | Self-propelled device implementing three-dimensional control |
US9090214B2 (en) | 2011-01-05 | 2015-07-28 | Orbotix, Inc. | Magnetically coupled accessory for a self-propelled device |
US9292758B2 (en) * | 2012-05-14 | 2016-03-22 | Sphero, Inc. | Augmentation of elements in data content |
US9827487B2 (en) * | 2012-05-14 | 2017-11-28 | Sphero, Inc. | Interactive augmented reality using a self-propelled device |
EP2850512A4 (en) | 2012-05-14 | 2016-11-16 | Sphero Inc | OPERATION OF A CALCULATION DEVICE BY DETECTING ROUNDED OBJECTS IN A PICTURE |
US8854481B2 (en) * | 2012-05-17 | 2014-10-07 | Honeywell International Inc. | Image stabilization devices, methods, and systems |
US10056791B2 (en) | 2012-07-13 | 2018-08-21 | Sphero, Inc. | Self-optimizing power transfer |
US8933970B2 (en) | 2012-09-11 | 2015-01-13 | Longsand Limited | Controlling an augmented reality object |
JP5782061B2 (ja) * | 2013-03-11 | 2015-09-24 | レノボ・シンガポール・プライベート・リミテッド | 移動物体の動作を認識する方法および携帯式コンピュータ |
US9011246B1 (en) * | 2013-11-18 | 2015-04-21 | Scott Kier | Systems and methods for immersive backgrounds |
US9829882B2 (en) | 2013-12-20 | 2017-11-28 | Sphero, Inc. | Self-propelled device with center of mass drive system |
JP2016045874A (ja) * | 2014-08-26 | 2016-04-04 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10335677B2 (en) | 2014-12-23 | 2019-07-02 | Matthew Daniel Fuchs | Augmented reality system with agent device for viewing persistent content and method of operation thereof |
US9569661B2 (en) * | 2015-05-21 | 2017-02-14 | Futurewei Technologies, Inc. | Apparatus and method for neck and shoulder landmark detection |
US10460453B2 (en) * | 2015-12-30 | 2019-10-29 | Texas Instruments Incorporated | Feature point identification in sparse optical flow based tracking in a computer vision system |
EP3296950A1 (en) * | 2016-09-15 | 2018-03-21 | Thomson Licensing | Method and device for blurring a virtual object in a video |
JP6874772B2 (ja) | 2016-11-25 | 2021-05-19 | 日本電気株式会社 | 画像生成装置、画像生成方法、およびプログラム |
JP6841097B2 (ja) * | 2017-03-09 | 2021-03-10 | 富士通株式会社 | 動き量算出プログラム、動き量算出方法、動き量算出装置及び業務支援システム |
BE1029378B1 (fr) * | 2021-05-05 | 2022-12-05 | P³Lab | Procede de traitement d'images |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05205052A (ja) * | 1992-01-23 | 1993-08-13 | Matsushita Electric Ind Co Ltd | 自動追尾装置 |
JP2006014875A (ja) * | 2004-06-30 | 2006-01-19 | Sony Computer Entertainment Inc | 情報処理装置、プログラム、および、情報処理装置におけるオブジェクト制御方法 |
US20060192782A1 (en) * | 2005-01-21 | 2006-08-31 | Evan Hildreth | Motion-based tracking |
JP2006259899A (ja) * | 2005-03-15 | 2006-09-28 | Omron Corp | 画像処理システム、画像処理装置および方法、記録媒体、並びにプログラム |
JP2008071172A (ja) * | 2006-09-14 | 2008-03-27 | Toshiba Corp | 顔認証装置、顔認証方法および入退場管理装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR957353A (ja) | 1950-02-18 | |||
FR752809A (fr) | 1932-03-31 | 1933-09-30 | Lorenz C Ag | Dispositif pour diriger l'atterrissage des avions |
US1966429A (en) | 1932-04-21 | 1934-07-17 | Buxton Inc | Key case |
BE395422A (ja) | 1933-03-08 | |||
FR854382A (fr) | 1938-12-30 | 1940-04-11 | Gaine anti-fuite pour haute pression | |
FR902764A (fr) | 1943-02-09 | 1945-09-12 | Petit cadre pour diapositives |
-
2010
- 2010-11-19 FR FR1059541A patent/FR2967804B1/fr active Active
-
2011
- 2011-11-03 EP EP11187631.4A patent/EP2455916B1/fr active Active
- 2011-11-18 JP JP2011252752A patent/JP5967904B2/ja not_active Expired - Fee Related
- 2011-11-18 US US13/300,509 patent/US20120129605A1/en not_active Abandoned
- 2011-11-18 KR KR1020110121105A patent/KR20120054550A/ko not_active Application Discontinuation
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05205052A (ja) * | 1992-01-23 | 1993-08-13 | Matsushita Electric Ind Co Ltd | 自動追尾装置 |
JP2006014875A (ja) * | 2004-06-30 | 2006-01-19 | Sony Computer Entertainment Inc | 情報処理装置、プログラム、および、情報処理装置におけるオブジェクト制御方法 |
US20060192782A1 (en) * | 2005-01-21 | 2006-08-31 | Evan Hildreth | Motion-based tracking |
JP2006259899A (ja) * | 2005-03-15 | 2006-09-28 | Omron Corp | 画像処理システム、画像処理装置および方法、記録媒体、並びにプログラム |
JP2008071172A (ja) * | 2006-09-14 | 2008-03-27 | Toshiba Corp | 顔認証装置、顔認証方法および入退場管理装置 |
Non-Patent Citations (1)
Title |
---|
橋本 学: "安全・安心社会のための映像セキュリティ技術", システム/制御/情報, vol. 第50巻 第10号, JPN6015032147, 15 October 2006 (2006-10-15), JP, pages 18 - 23, ISSN: 0003132296 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016526713A (ja) * | 2013-06-14 | 2016-09-05 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | トラッカ補助画像キャプチャ |
US11538232B2 (en) | 2013-06-14 | 2022-12-27 | Qualcomm Incorporated | Tracker assisted image capture |
Also Published As
Publication number | Publication date |
---|---|
EP2455916B1 (fr) | 2017-08-23 |
JP5967904B2 (ja) | 2016-08-10 |
EP2455916A1 (fr) | 2012-05-23 |
KR20120054550A (ko) | 2012-05-30 |
FR2967804B1 (fr) | 2013-01-04 |
US20120129605A1 (en) | 2012-05-24 |
FR2967804A1 (fr) | 2012-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5967904B2 (ja) | ユーザがコンピュータシステムとやり取りを行うことができる、ビデオストリームにおける動く非剛体オブジェクトをリアルタイムで検出し及び追跡する方法及び装置 | |
US20100002909A1 (en) | Method and device for detecting in real time interactions between a user and an augmented reality scene | |
Tsai et al. | Design of hand gesture recognition system for human-computer interaction | |
Rautaray et al. | Real time multiple hand gesture recognition system for human computer interaction | |
JP2010532465A (ja) | 拡張リアリティイメージのためのカメラポーズ推定装置および方法 | |
Morshidi et al. | Gravity optimised particle filter for hand tracking | |
JP7282216B2 (ja) | 単眼スチルカメラのビデオにおけるレイヤードモーションの表現と抽出 | |
Antoshchuk et al. | Gesture recognition-based human–computer interaction interface for multimedia applications | |
Ma et al. | Real-time and robust hand tracking with a single depth camera | |
US20190130645A1 (en) | Augmented reality and virtual reality engine for virtual desktop infrastucture | |
Matikainen et al. | Prop-free pointing detection in dynamic cluttered environments | |
Güdükbay et al. | Motion capture and human pose reconstruction from a single-view video sequence | |
Akman et al. | Multi-cue hand detection and tracking for a head-mounted augmented reality system | |
Wu et al. | Design and implementation of virtual fitting system based on gesture recognition and clothing transfer algorithm | |
López et al. | Head-tracking virtual 3-D display for mobile devices | |
Erra et al. | Experiences in the development of an augmented reality dressing room | |
Jiang et al. | Observation-oriented silhouette-aware fast full body tracking with Kinect | |
Schlattmann et al. | Markerless 4 gestures 6 DOF real‐time visual tracking of the human hand with automatic initialization | |
Song et al. | Real-time single camera natural user interface engine development | |
Habermann et al. | Reticam: Real-time human performance capture from monocular video | |
Kitanovski et al. | Augmented reality mirror for virtual facial alterations | |
Huo et al. | Multiple people tracking and pose estimation with occlusion estimation | |
Gutiérrez A et al. | Mixed realities | |
Kapoor et al. | Marker-less detection of virtual objects using augmented reality | |
Salti et al. | Real-time 3d arm pose estimation from monocular video for enhanced HCI |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141118 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20150612 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150810 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20151110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160705 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5967904 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |