JP5777731B2 - ジェスチャー認識のための環境依存型ダイナミックレンジ制御 - Google Patents
ジェスチャー認識のための環境依存型ダイナミックレンジ制御 Download PDFInfo
- Publication number
- JP5777731B2 JP5777731B2 JP2013547409A JP2013547409A JP5777731B2 JP 5777731 B2 JP5777731 B2 JP 5777731B2 JP 2013547409 A JP2013547409 A JP 2013547409A JP 2013547409 A JP2013547409 A JP 2013547409A JP 5777731 B2 JP5777731 B2 JP 5777731B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- dynamic range
- environment
- user
- gesture recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
Claims (19)
- ジェスチャー認識のダイナミックレンジを調整するための方法であって、
ジェスチャー認識可能な電子装置のユーザの環境が公的な場所か私的な場所かを、音声信号、ビデオ信号、および/または位置情報のうちの1つもしくは複数に基づいて検出することと、
前記検出された環境が私的な場所である際には大きなジェスチャーに適切であり、公的な場所である際には小さなジェスチャーに適切であると、判断することと、
前記ユーザの前記検出された環境と、適切なジェスチャーサイズの前記判断とに基づいて、前記ジェスチャー認識可能な電子装置に関するジェスチャー入力ダイナミックレンジを調整することとを含む方法。 - 前記電子装置がジェスチャー認識制御ユーザインターフェース(UI)を表示する場合、前記調整されたジェスチャー入力ダイナミックレンジに基づいて、ジェスチャー認識制御UIのサイズを調整すること
をさらに含む、請求項1に記載の方法。 - 前記ジェスチャー認識制御UIが、制御要素およびアプリケーションユーザインターフェースのセットからの少なくとも1つを含む、請求項2に記載の方法。
- 前記ジェスチャー認識制御UIの少なくとも1つの要素のサイズおよび/または位置のうちの1つもしくは複数を修正することによって、前記ジェスチャー認識制御UIを調整すること
をさらに含む、請求項2に記載の方法。 - 前記電子装置がジェスチャー認識制御UIを表示しない場合、現在のジェスチャー入力ダイナミックレンジを反映するジェスチャー入力ダイナミックレンジインジケータを表示すること
をさらに含む、請求項1に記載の方法。 - 前記位置情報が、全地球測位サービス(GPS)信号、無線ネットワーク信号、およびセルラ通信信号のうちの1つまたは複数から取得される、請求項1に記載の方法。
- 画像認識、前記電子装置の構成、および/または前記電子装置と前記ユーザとの間の距離のうちの1つまたは複数に基づいて、前記環境を検出すること
をさらに含む、請求項1に記載の方法。 - ジェスチャー認識のダイナミックレンジを調整することが可能な装置であって、
ジェスチャーを検出するように構成された画像捕捉装置と、
命令を記憶するように構成されたメモリと、
前記メモリに結合されたプロセッサを備え、前記プロセッサは前記命令を実行するように適合され、前記命令は、実行されるとき、
ユーザの環境が公的な場所か私的な場所かを、音声信号、ビデオ信号、および/または位置情報のうちの1つもしくは複数に基づいて検出して、
前記検出された環境が私的な場所である際には大きなジェスチャーに適切であり、公的な場所である際には小さなジェスチャーに適切であると判断し、
前記ユーザの前記検出された環境と、適切なジェスチャーサイズの前記判断とに基づいて、ジェスチャー入力ダイナミックレンジを調整するように前記プロセッサを構成する、装置。 - 前記プロセッサが、
前記装置がジェスチャー認識制御ユーザインターフェース(UI)を表示する場合、前記調整されたジェスチャー入力ダイナミックレンジに基づいて、ジェスチャー認識制御UIのサイズを調整するようにさらに構成される、請求項8に記載の装置。 - 前記プロセッサが、
前記ジェスチャー認識制御UIの少なくとも1つの要素のサイズおよび/または位置のうちの1つもしくは複数を修正することによって、前記ジェスチャー認識制御UIを調整するようにさらに構成される、請求項9に記載の装置。 - 前記プロセッサが、
前記装置がジェスチャー認識制御UIを表示しない場合、現在のジェスチャー入力ダイナミックレンジを反映するジェスチャー入力ダイナミックレンジインジケータを表示するようにさらに構成される、請求項8に記載の装置。 - 全地球測位サービス(GPS)信号、無線ネットワーク信号、およびセルラ通信信号のうちの1つから前記位置情報を取得することが可能な少なくとも1つの通信モジュールをさらに備える、請求項8に記載の装置。
- 前記環境のタイプを判断するために前記環境から音声信号を捕捉するためのマイクロフォンおよびビデオ信号を捕捉するためのカメラのうちの1つまたは複数をさらに備える、請求項8に記載の装置。
- 前記プロセッサが、
画像認識、前記装置の構成、前記装置のタイプ、および/または前記ユーザと前記装置との間の距離のうちの1つもしくは複数に基づいて、前記環境を検出するようにさらに構成される、請求項8に記載の装置。 - デスクトップコンピュータ、ラップトップコンピュータ、ハンドヘルドコンピュータ、車載コンピュータ、スマートフォン、テレビジョンモニタ、投影装置、およびコンピューティング装置に結合されたディスプレイのうちの1つを備える、請求項8に記載の装置。
- ジェスチャー認識のダイナミックレンジを調整するための命令を記憶しているコンピュータ可読記憶媒体であって、前記命令が、
ジェスチャー認識可能な電子装置のユーザの環境が公的な場所か私的な場所かを、音声信号、ビデオ信号、および/または位置情報のうちの1つもしくは複数に基づいて検出することと、
前記検出された環境が私的な場所である際には大きなジェスチャーに適切であり、公的な場所である際には小さなジェスチャーに適切であると判断することと、
前記ユーザの前記環境と、適切なジェスチャーサイズの前記判断とに基づいて、前記ジェスチャー認識可能な電子装置に関するジェスチャー入力ダイナミックレンジを調整することとを含むコンピュータ可読記憶媒体。 - 前記命令が、
前記電子装置がジェスチャー認識制御ユーザインターフェース(UI)を表示する場合、前記調整されたジェスチャー入力ダイナミックレンジに基づいて、ジェスチャー認識制御UIのサイズを調整することをさらに含む、請求項16に記載のコンピュータ可読記憶媒体。 - 前記命令が、
前記ジェスチャー認識制御UIの少なくとも1つの要素のサイズおよび/または位置のうちの1つもしくは複数を修正することによって、前記ジェスチャー認識制御UIを調整することをさらに含む、請求項17に記載のコンピュータ可読記憶媒体。 - 前記命令が、
画像認識、前記電子装置の構成、前記電子装置のタイプ、および/または前記ユーザと前記電子装置との間の距離のうちの1つもしくは複数に基づいて、前記環境を検出することをさらに含む、請求項16に記載のコンピュータ可読記憶媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2010/062354 WO2012091704A1 (en) | 2010-12-29 | 2010-12-29 | Environment-dependent dynamic range control for gesture recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014506361A JP2014506361A (ja) | 2014-03-13 |
JP5777731B2 true JP5777731B2 (ja) | 2015-09-09 |
Family
ID=46383430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013547409A Expired - Fee Related JP5777731B2 (ja) | 2010-12-29 | 2010-12-29 | ジェスチャー認識のための環境依存型ダイナミックレンジ制御 |
Country Status (5)
Country | Link |
---|---|
US (2) | US8766912B2 (ja) |
JP (1) | JP5777731B2 (ja) |
KR (1) | KR101430887B1 (ja) |
CN (1) | CN103154856B (ja) |
WO (1) | WO2012091704A1 (ja) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8532342B2 (en) * | 2008-02-12 | 2013-09-10 | Certusview Technologies, Llc | Electronic manifest of underground facility locate marks |
CN103154856B (zh) * | 2010-12-29 | 2016-01-06 | 英派尔科技开发有限公司 | 针对手势识别的环境相关动态范围控制 |
US8497838B2 (en) * | 2011-02-16 | 2013-07-30 | Microsoft Corporation | Push actuation of interface controls |
US8782716B2 (en) * | 2011-07-29 | 2014-07-15 | Google Inc. | Systems and methods for rendering user interface objects in accordance with a variable scaling factor |
US9024894B1 (en) * | 2012-08-29 | 2015-05-05 | Time Warner Cable Enterprises Llc | Remote control including touch-sensing surface |
US9288387B1 (en) * | 2012-09-11 | 2016-03-15 | Amazon Technologies, Inc. | Content display controls based on environmental factors |
US9159116B2 (en) * | 2013-02-13 | 2015-10-13 | Google Inc. | Adaptive screen interfaces based on viewing distance |
EP2969697B1 (en) * | 2013-03-12 | 2018-06-13 | Robert Bosch GmbH | System and method for identifying handwriting gestures in an in-vehicle infromation system |
US10249018B2 (en) * | 2013-04-25 | 2019-04-02 | Nvidia Corporation | Graphics processor and method of scaling user interface elements for smaller displays |
US9671868B2 (en) | 2013-06-11 | 2017-06-06 | Honeywell International Inc. | System and method for volumetric computing |
US9934611B2 (en) * | 2013-09-11 | 2018-04-03 | Qualcomm Incorporated | Structural modeling using depth sensors |
US9536106B2 (en) * | 2013-10-08 | 2017-01-03 | D.R. Systems, Inc. | System and method for the display of restricted information on private displays |
US9451434B2 (en) | 2013-11-27 | 2016-09-20 | At&T Intellectual Property I, L.P. | Direct interaction between a user and a communication network |
US20150201236A1 (en) * | 2014-01-15 | 2015-07-16 | Khalifa Al Remeithi | Display Proximity Control Device |
US9785243B2 (en) | 2014-01-30 | 2017-10-10 | Honeywell International Inc. | System and method for providing an ergonomic three-dimensional, gesture based, multimodal interface for use in flight deck applications |
US20160057816A1 (en) * | 2014-08-25 | 2016-02-25 | Nibu Alias | Method and system of a smart-microwave oven |
US10452195B2 (en) | 2014-12-30 | 2019-10-22 | Samsung Electronics Co., Ltd. | Electronic system with gesture calibration mechanism and method of operation thereof |
US10757216B1 (en) | 2015-02-20 | 2020-08-25 | Amazon Technologies, Inc. | Group profiles for group item recommendations |
US11363460B1 (en) | 2015-03-03 | 2022-06-14 | Amazon Technologies, Inc. | Device-based identification for automated user detection |
CN105824401A (zh) * | 2015-06-24 | 2016-08-03 | 维沃移动通信有限公司 | 一种移动终端的控制方法及其移动终端 |
US10353473B2 (en) | 2015-11-19 | 2019-07-16 | International Business Machines Corporation | Client device motion control via a video feed |
US10222979B2 (en) * | 2015-12-04 | 2019-03-05 | Datalogic Usa, Inc. | Size adjustable soft activation trigger for touch displays on electronic device |
US9805514B1 (en) * | 2016-04-21 | 2017-10-31 | Microsoft Technology Licensing, Llc | Dynamic haptic retargeting |
US11137884B2 (en) * | 2016-06-14 | 2021-10-05 | International Business Machines Corporation | Modifying an appearance of a GUI to improve GUI usability |
US10079002B2 (en) * | 2016-06-29 | 2018-09-18 | Microsoft Technology Licensing, Llc | Modifying graphical elements based on environment |
KR20180097031A (ko) * | 2017-02-22 | 2018-08-30 | 이현민 | 휴대 단말 장치와 프로젝션 장치를 포함하는 증강 현실 시스템 |
CN112181129B (zh) * | 2019-07-04 | 2024-04-16 | 阿里巴巴集团控股有限公司 | 一种设备控制方法、装置、设备和机器可读介质 |
CN112702281B (zh) * | 2020-12-23 | 2023-08-01 | 深圳Tcl新技术有限公司 | 基于手势控制的带宽分配方法、装置、系统与存储介质 |
JP2022163813A (ja) * | 2021-04-15 | 2022-10-27 | キヤノン株式会社 | 装着型の情報端末、その制御方法及びプログラム |
CN113342174A (zh) * | 2021-07-06 | 2021-09-03 | 物芯智能科技有限公司 | 一种ar眼镜及vos操作系统 |
CN114115639A (zh) * | 2021-11-26 | 2022-03-01 | 维沃移动通信有限公司 | 界面控制方法、装置、电子设备及存储介质 |
CN114385004A (zh) * | 2021-12-15 | 2022-04-22 | 北京五八信息技术有限公司 | 基于增强现实的交互方法、装置、电子设备及可读介质 |
CN118332238A (zh) * | 2024-04-17 | 2024-07-12 | 上海奥令科电子科技有限公司 | 一种可实现集成电路中多路并行fft计算的系统及方法 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5594469A (en) * | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
GB0204652D0 (en) * | 2002-02-28 | 2002-04-10 | Koninkl Philips Electronics Nv | A method of providing a display gor a gui |
US7623115B2 (en) | 2002-07-27 | 2009-11-24 | Sony Computer Entertainment Inc. | Method and apparatus for light input device |
US7577925B2 (en) | 2005-04-08 | 2009-08-18 | Microsoft Corporation | Processing for distinguishing pen gestures and dynamic self-calibration of pen-based computing systems |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
JP4964729B2 (ja) | 2007-10-01 | 2012-07-04 | 任天堂株式会社 | 画像処理プログラムおよび画像処理装置 |
US8539357B2 (en) * | 2007-11-21 | 2013-09-17 | Qualcomm Incorporated | Media preferences |
US8344998B2 (en) * | 2008-02-01 | 2013-01-01 | Wimm Labs, Inc. | Gesture-based power management of a wearable portable electronic device with display |
JP2009265709A (ja) | 2008-04-22 | 2009-11-12 | Hitachi Ltd | 入力装置 |
US10729973B2 (en) * | 2008-06-30 | 2020-08-04 | Microsoft Technology Licensing, Llc | Dynamic selection of sensor sensitivity in a game input system |
US8411963B2 (en) * | 2008-08-08 | 2013-04-02 | The Nielsen Company (U.S.), Llc | Methods and apparatus to count persons in a monitored environment |
TW201009650A (en) | 2008-08-28 | 2010-03-01 | Acer Inc | Gesture guide system and method for controlling computer system by gesture |
US8527908B2 (en) * | 2008-09-26 | 2013-09-03 | Apple Inc. | Computer user interface system and methods |
JP5260643B2 (ja) | 2008-09-29 | 2013-08-14 | パナソニック株式会社 | ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体 |
JP2010127784A (ja) | 2008-11-27 | 2010-06-10 | Pioneer Electronic Corp | 表示装置、表示方法、表示プログラムおよび記録媒体 |
US8418085B2 (en) | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
US8379101B2 (en) * | 2009-05-29 | 2013-02-19 | Microsoft Corporation | Environment and/or target segmentation |
US8843857B2 (en) * | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
US8631355B2 (en) * | 2010-01-08 | 2014-01-14 | Microsoft Corporation | Assigning gesture dictionaries |
US8490002B2 (en) * | 2010-02-11 | 2013-07-16 | Apple Inc. | Projected display shared workspaces |
US20120017172A1 (en) * | 2010-07-15 | 2012-01-19 | Microsoft Corporation | Display-agnostic user interface for mobile devices |
US8640021B2 (en) * | 2010-11-12 | 2014-01-28 | Microsoft Corporation | Audience-based presentation and customization of content |
CN103154856B (zh) * | 2010-12-29 | 2016-01-06 | 英派尔科技开发有限公司 | 针对手势识别的环境相关动态范围控制 |
-
2010
- 2010-12-29 CN CN201080069222.9A patent/CN103154856B/zh not_active Expired - Fee Related
- 2010-12-29 JP JP2013547409A patent/JP5777731B2/ja not_active Expired - Fee Related
- 2010-12-29 KR KR1020137006111A patent/KR101430887B1/ko active IP Right Grant
- 2010-12-29 WO PCT/US2010/062354 patent/WO2012091704A1/en active Application Filing
- 2010-12-29 US US13/121,791 patent/US8766912B2/en not_active Expired - Fee Related
-
2014
- 2014-06-05 US US14/297,584 patent/US9851804B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US9851804B2 (en) | 2017-12-26 |
US20140285458A1 (en) | 2014-09-25 |
CN103154856B (zh) | 2016-01-06 |
JP2014506361A (ja) | 2014-03-13 |
CN103154856A (zh) | 2013-06-12 |
WO2012091704A1 (en) | 2012-07-05 |
US8766912B2 (en) | 2014-07-01 |
KR101430887B1 (ko) | 2014-08-18 |
KR20130042010A (ko) | 2013-04-25 |
US20120280901A1 (en) | 2012-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5777731B2 (ja) | ジェスチャー認識のための環境依存型ダイナミックレンジ制御 | |
US10528359B2 (en) | Application launching in a multi-display device | |
AU2018203008B2 (en) | Foldable electronic apparatus and interfacing method thereof | |
US10082886B2 (en) | Automatic configuration of an input device based on contextual usage | |
CN107533422B (zh) | 服务器和服务器的控制群组行为的方法 | |
US20130145308A1 (en) | Information Processing Apparatus and Screen Selection Method | |
US11175823B2 (en) | Method and apparatus for controlling terminal device using gesture control function, and non-transitory computer-readable storage medium | |
US10474324B2 (en) | Uninterruptable overlay on a display | |
KR102325341B1 (ko) | 영상 표시 장치 및 그 동작방법 | |
JP2018514865A (ja) | ウェアラブル装置、そのタッチスクリーン、そのタッチ操作方法、及びそのグラフィカルユーザインタフェース | |
US11243679B2 (en) | Remote data input framework | |
AU2015314941A1 (en) | Actionable item switcher view | |
CN104571814A (zh) | 一种投影方法及电子设备 | |
US11107345B1 (en) | Automatically configuring a remote control for a device | |
KR20160096645A (ko) | 컴퓨팅 디바이스에 대한 장치의 결합 | |
KR20150115454A (ko) | 서비스 화면을 표시하기 위한 전자 장치 및 방법 | |
US20150253158A1 (en) | Determination of a Charge Surface Position | |
KR20180056973A (ko) | 다중 센서감지를 통해 다른 기기로 추가기능 및 피드백을 제공하는 기기 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150105 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5777731 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |