JP5547294B2 - タッチの衝撃強度を決定するためのマイクロフォンを有するタッチインタフェース - Google Patents
タッチの衝撃強度を決定するためのマイクロフォンを有するタッチインタフェース Download PDFInfo
- Publication number
- JP5547294B2 JP5547294B2 JP2012534185A JP2012534185A JP5547294B2 JP 5547294 B2 JP5547294 B2 JP 5547294B2 JP 2012534185 A JP2012534185 A JP 2012534185A JP 2012534185 A JP2012534185 A JP 2012534185A JP 5547294 B2 JP5547294 B2 JP 5547294B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- impact strength
- input area
- touch input
- touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 64
- 230000005236 sound signal Effects 0.000 claims description 63
- 238000004458 analytical method Methods 0.000 claims description 45
- 238000010606 normalization Methods 0.000 claims description 12
- 230000003321 amplification Effects 0.000 claims description 9
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 28
- 230000006870 function Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/043—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
Claims (15)
- コンピュータにより実行される、ユーザの入力に基づいてタッチに応答する方法であって、
ユーザがタッチ入力領域にタッチしたときに、前記タッチ入力領域の位置座標を決定し、前記タッチ入力領域の位置座標が第1の接触しきい値を満足したときから、前記タッチ入力領域の位置座標が第2の接触しきい値を満足したときまでの経過時間に基づいて、ユーザのタッチの第1の衝撃強度を決定するステップと、
前記ユーザが前記タッチ入力領域にタッチしたときに、マイクロフォンから音声信号を取得するステップと、
前記音声信号に基づいて、ユーザの前記タッチの第2の衝撃強度を決定するステップと、
前記第1の衝撃強度及び前記第2の衝撃強度からユーザの前記タッチの衝撃強度を決定し、決定された衝撃強度が第1のしきい値を超えた場合、決定された衝撃強度に関連付けられた第1のコマンドを生成し、決定された衝撃強度が第2のしきい値を超えた場合、決定された衝撃強度に関連付けられた、前記第1のコマンドとは異なる第2のコマンドを生成するステップと、を備え、
ホスト計算装置は、生成された前記第1のコマンドに基づいて第1のアクションを実行し、生成された前記第2のコマンドに基づいて第2のアクションを実行する
ことを特徴とする方法。 - 低い衝撃強度は、前記タッチ入力領域の周囲のハンドリングに関連付けられ、高い衝撃強度は、意図的なユーザのタップに関連付けられることを特徴とする請求項1に記載の方法。
- 前記位置座標に基づいて、前記音声信号を正規化するステップを更に備えることを特徴とする請求項1又は2に記載の方法。
- 前記タッチ入力領域のそれぞれ異なる位置座標において、ほぼ等しい衝撃強度を有する複数のタップを実行することにより、前記マイクロフォンを較正するステップと、
前記複数のタップのそれぞれについて前記音声信号を測定するステップと、
前記複数のタップについて測定された音声信号を、それぞれがほぼ同一の読み取り値を有するように正規化するステップと、
を更に備えることを特徴とする請求項1から3のいずれかに記載の方法 - 前記タッチ入力領域において1以上の弱いタップを実行するようユーザに要求するステップと、
前記1以上の弱いタップについて音声信号を測定するステップと、
前記タッチ入力領域において1以上の強いタップを実行するよう前記ユーザに要求するステップと、
前記1以上の強いタップについて音声信号を測定するステップと、
前記強いタップについて測定された音声信号と、前記弱いタップについて測定された音声信号とに基づいて、前記強いタップと前記弱いタップとを区別するための前記第1及び第2のしきい値を設定するステップと、
を更に備えることを特徴とする請求項1から4のいずれかに記載の方法。 - 前記タッチ入力領域において1以上のタップではないジェスチャーを実行するよう前記ユーザに要求するステップと、
前記1以上のタップではないジェスチャーの実行中に取得される前記音声信号を測定するステップと、
意図的なユーザのタップとタップではないジェスチャーとを区別するための前記第1のしきい値を設定するステップと、
を更に備えることを特徴とする請求項1から5のいずれかに記載の方法。 - ユーザによりタッチされるタッチ入力領域の、位置センサにより検知される位置に対応する位置座標を識別し、前記タッチ入力領域の位置座標が第1の接触しきい値を満足したときから、前記タッチ入力領域の位置座標が第2の接触しきい値を満足したときまでの経過時間に基づいて、ユーザのタッチの第1の衝撃強度を決定する位置識別部と、
前記ユーザにより前記タッチ入力領域がタッチされたときに、音声センサにより生成される音声信号を取得し、前記音声信号に基づいて前記ユーザの前記タッチの第2の衝撃強度を決定する音声分析部と、
前記位置識別部から前記位置座標及び前記第1の衝撃強度を取得し、前記音声分析部から前記第2の衝撃強度を取得し、前記第1の衝撃強度及び前記第2の衝撃強度からユーザの前記タッチの衝撃強度を決定し、決定された衝撃強度が第1のしきい値を超えた場合、決定された衝撃強度に関連付けられた第1のコマンドを生成し、決定された衝撃強度が第2のしきい値を超えた場合、決定された衝撃強度に関連付けられた、前記第1のコマンドとは異なる第2のコマンドを生成する制御部と、を備え、
ホスト計算装置は、生成された前記第1のコマンドに基づいて第1のアクションを実行し、生成された前記第2のコマンドに基づいて第2のアクションを実行する
ことを特徴とする電子装置。 - 前記タッチ入力領域を含む少なくとも一つのタッチパッド又はタッチスクリーンを更に備え、
前記少なくとも一つのタッチパッド又はタッチスクリーンは、前記ユーザが前記タッチ入力領域にタッチしたときに、前記位置識別部に位置信号を送ることを特徴とする請求項7に記載の電子装置。 - 前記タッチ入力領域の内部の映像追跡を実行するように構成されたカメラを更に備え、
前記カメラは、前記ユーザが前記タッチ入力領域にタッチしたときに、前記位置識別部に位置信号を送ることを特徴とする請求項7に記載の電子装置。 - 前記音声センサを更に備え、
前記音声センサは、前記ホスト計算装置及び前記電子装置の無線インタフェースのうち少なくとも一つに無線接続されることを特徴とする請求項7から9のいずれかに記載の電子装置。 - 低い衝撃強度は、前記タッチ入力領域の周囲のハンドリングに関連付けられ、高い衝撃強度は、意図的なユーザのタップに関連付けられることを特徴とする請求項7から10のいずれかに記載の電子装置。
- 前記タッチ入力領域において1以上の弱いタップを実行することをユーザに要求する第1の要求と、前記タッチ入力領域において1以上の強いタップを実行することを前記ユーザに要求する第2の要求とを表示するためのディスプレーを更に備え、
前記音声分析部は、前記1以上の弱いタップ及び前記1以上の強いタップについての音声信号を取得し、取得した前記強いタップについての音声信号と、取得した前記弱いタップについての音声信号とに基づいて、前記強いタップと前記弱いタップとを区別するための前記第1及び第2のしきい値を設定することを特徴とする請求項7から11のいずれかに記載の電子装置。 - 前記音声分析部は、前記タッチ入力領域におけるタップではないジェスチャーにより生じたことが分かっている第1の音声信号を取得し、前記タッチ入力領域における意図的なユーザのタップにより生じたことが分かっている第2の音声信号を取得し、意図的なユーザのタップとタップではないジェスチャーとを区別するための前記第1のしきい値を設定することを特徴とする請求項7から12のいずれかに記載の電子装置。
- 前記音声分析部は、正規化値とそれぞれの位置座標の集合とを関連付けたルックアップテーブルを保持し、
前記音声分析部は、前記位置識別部から前記位置座標を取得し、取得した位置座標に関連付けられた前記正規化値に基づいて、取得した音声信号を変更することを特徴とする請求項7から13のいずれかに記載の電子装置。 - 前記音声分析部は、前記位置座標を入力として用い、増幅値を出力として生成する正規化モデルを含み、
前記音声分析部は、前記位置識別部から前記位置座標を取得し、前記モデルを用いて前記増幅値を決定し、前記増幅値に基づいて取得した音声信号を変更することを特徴とする請求項7から13のいずれかに記載の電子装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/579,362 US8411050B2 (en) | 2009-10-14 | 2009-10-14 | Touch interface having microphone to determine touch impact strength |
US12/579,362 | 2009-10-14 | ||
PCT/US2010/037420 WO2011046638A1 (en) | 2009-10-14 | 2010-06-04 | Touch interface having microphone to determine touch impact strength |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013508808A JP2013508808A (ja) | 2013-03-07 |
JP5547294B2 true JP5547294B2 (ja) | 2014-07-09 |
Family
ID=43854458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012534185A Active JP5547294B2 (ja) | 2009-10-14 | 2010-06-04 | タッチの衝撃強度を決定するためのマイクロフォンを有するタッチインタフェース |
Country Status (4)
Country | Link |
---|---|
US (1) | US8411050B2 (ja) |
EP (1) | EP2488932B1 (ja) |
JP (1) | JP5547294B2 (ja) |
WO (1) | WO2011046638A1 (ja) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8930846B2 (en) | 2010-10-01 | 2015-01-06 | Z124 | Repositioning applications in a stack |
US9213365B2 (en) | 2010-10-01 | 2015-12-15 | Z124 | Method and system for viewing stacked screen displays using gestures |
JP5010714B2 (ja) | 2010-05-21 | 2012-08-29 | 株式会社東芝 | 電子機器、入力制御プログラム、及び入力制御方法 |
US9946459B2 (en) * | 2010-05-28 | 2018-04-17 | Lenovo (Singapore) Pte. Ltd. | Systems and methods for determining intentional touch screen contact |
CN102279693A (zh) * | 2010-06-11 | 2011-12-14 | 深圳富泰宏精密工业有限公司 | 触控式键盘 |
US8959013B2 (en) * | 2010-09-27 | 2015-02-17 | Apple Inc. | Virtual keyboard for a non-tactile three dimensional user interface |
US8319746B1 (en) | 2011-07-22 | 2012-11-27 | Google Inc. | Systems and methods for removing electrical noise from a touchpad signal |
US8878794B2 (en) | 2011-09-27 | 2014-11-04 | Z124 | State of screen info: easel |
JP5204286B2 (ja) * | 2011-11-02 | 2013-06-05 | 株式会社東芝 | 電子機器および入力方法 |
WO2013165346A1 (en) * | 2012-04-30 | 2013-11-07 | Hewlett-Packard Development Company | Notification based on an event identified from vibration data |
GB2518050A (en) * | 2012-04-30 | 2015-03-11 | Hewlett Packard Development Co | Control Signal Based On a Command Tapped By A User |
US20130346085A1 (en) * | 2012-06-23 | 2013-12-26 | Zoltan Stekkelpak | Mouth click sound based computer-human interaction method, system and apparatus |
US10437392B2 (en) * | 2012-07-05 | 2019-10-08 | Samsung Electronics Co., Ltd. | Apparatus and method for detecting hard and soft touch by using acoustic sensors |
US20140055633A1 (en) | 2012-08-27 | 2014-02-27 | Richard E. MARLIN | Device and method for photo and video capture |
US9063563B1 (en) | 2012-09-25 | 2015-06-23 | Amazon Technologies, Inc. | Gesture actions for interface elements |
US9717459B2 (en) | 2013-03-04 | 2017-08-01 | Anne Bibiana Sereno | Touch sensitive system and method for cognitive and behavioral testing and evaluation |
CN104049933B (zh) * | 2013-03-11 | 2019-07-26 | 联想(北京)有限公司 | 一种信息处理的方法及电子设备 |
US9282244B2 (en) | 2013-03-14 | 2016-03-08 | Microsoft Technology Licensing, Llc | Camera non-touch switch |
US9066007B2 (en) | 2013-04-26 | 2015-06-23 | Skype | Camera tap switch |
KR101500130B1 (ko) * | 2013-09-02 | 2015-03-06 | 현대자동차주식회사 | 스티어링 휠에 설치된 차량용 제어장치 |
KR20150046997A (ko) * | 2013-10-23 | 2015-05-04 | 현대자동차주식회사 | 사용자 단말의 터치 인식 장치 및 방법 |
KR20150061336A (ko) * | 2013-11-27 | 2015-06-04 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
EP2887233A1 (en) * | 2013-12-20 | 2015-06-24 | Thomson Licensing | Method and system of audio retrieval and source separation |
US10452099B2 (en) | 2014-03-26 | 2019-10-22 | Intel Corporation | Handling-noise based gesture control for electronic devices |
US20160048372A1 (en) * | 2014-08-14 | 2016-02-18 | Nokia Corporation | User Interaction With an Apparatus Using a Location Sensor and Microphone Signal(s) |
KR101625304B1 (ko) * | 2014-11-18 | 2016-05-27 | 경희대학교 산학협력단 | 음향 정보에 기초한 사용자 다수 행위 인식 방법 |
KR101749933B1 (ko) * | 2015-11-12 | 2017-06-22 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
KR102434104B1 (ko) * | 2016-05-03 | 2022-08-19 | 엘지전자 주식회사 | 전자 장치 및 그 제어 방법 |
US11320391B2 (en) * | 2018-02-24 | 2022-05-03 | Bora Fadil Aykin | System and method for auto-ranging/auto-calibrating universal ion-selective probe mobile technology interface |
TWI689864B (zh) * | 2018-04-26 | 2020-04-01 | 宏達國際電子股份有限公司 | 手持裝置、其顯示模式的控制方法與電腦可讀取記錄媒體 |
JP2019207451A (ja) * | 2018-05-28 | 2019-12-05 | マクセル株式会社 | 映像表示装置、映像表示方法 |
JP7139743B2 (ja) | 2018-07-17 | 2022-09-21 | コニカミノルタ株式会社 | 画像形成装置、指示受付方法およびコンピュータプログラム |
KR102656636B1 (ko) * | 2018-11-30 | 2024-04-12 | 주식회사 씨케이머티리얼즈랩 | 패턴 데이터 생성 장치 및 방법, 패턴 데이터 재생 장치 및 방법 |
KR20210001335A (ko) * | 2019-06-27 | 2021-01-06 | 현대자동차주식회사 | 차량용 스피커를 이용한 충격 감지 장치 및 방법 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5764218A (en) * | 1995-01-31 | 1998-06-09 | Apple Computer, Inc. | Method and apparatus for contacting a touch-sensitive cursor-controlling input device to generate button values |
US7663607B2 (en) * | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
US20020018051A1 (en) * | 1998-09-15 | 2002-02-14 | Mona Singh | Apparatus and method for moving objects on a touchscreen display |
US20030132950A1 (en) * | 2001-11-27 | 2003-07-17 | Fahri Surucu | Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains |
JP2001306254A (ja) * | 2000-02-17 | 2001-11-02 | Seiko Epson Corp | 打音検出による入力機能 |
JP4055388B2 (ja) * | 2001-10-12 | 2008-03-05 | ソニー株式会社 | 情報処理装置、情報処理システム、及びプログラム |
US7046230B2 (en) * | 2001-10-22 | 2006-05-16 | Apple Computer, Inc. | Touch pad handheld device |
WO2003065192A1 (en) * | 2002-01-31 | 2003-08-07 | Nokia Corporation | Method, system and device for distinguishing pointing means |
US7333092B2 (en) * | 2002-02-25 | 2008-02-19 | Apple Computer, Inc. | Touch pad for handheld device |
GB0312465D0 (en) * | 2003-05-30 | 2003-07-09 | Therefore Ltd | A data input method for a computing device |
JP2006085687A (ja) * | 2004-08-19 | 2006-03-30 | Toshiba Corp | 入力装置、コンピュータ装置、情報処理方法及び情報処理プログラム |
US7619616B2 (en) * | 2004-12-21 | 2009-11-17 | Microsoft Corporation | Pressure sensitive controls |
CN101133385B (zh) * | 2005-03-04 | 2014-05-07 | 苹果公司 | 手持电子设备、手持设备及其操作方法 |
US20070137462A1 (en) * | 2005-12-16 | 2007-06-21 | Motorola, Inc. | Wireless communications device with audio-visual effect generator |
US8564544B2 (en) * | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US20090122024A1 (en) * | 2007-10-30 | 2009-05-14 | Takashi Nakamura | Display Device Provided With Optical Input Function |
JP5411425B2 (ja) * | 2007-12-25 | 2014-02-12 | 任天堂株式会社 | ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法 |
US20090237373A1 (en) * | 2008-03-19 | 2009-09-24 | Sony Ericsson Mobile Communications Ab | Two way touch-sensitive display |
KR101032632B1 (ko) * | 2008-04-01 | 2011-05-06 | 한국표준과학연구원 | 작용힘에 따른 사용자 인터페이스의 제공방법 및 기록매체 |
-
2009
- 2009-10-14 US US12/579,362 patent/US8411050B2/en active Active
-
2010
- 2010-06-04 WO PCT/US2010/037420 patent/WO2011046638A1/en active Application Filing
- 2010-06-04 EP EP10823758.7A patent/EP2488932B1/en active Active
- 2010-06-04 JP JP2012534185A patent/JP5547294B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
EP2488932A4 (en) | 2014-08-27 |
EP2488932A1 (en) | 2012-08-22 |
EP2488932B1 (en) | 2015-11-25 |
WO2011046638A1 (en) | 2011-04-21 |
US20110084914A1 (en) | 2011-04-14 |
US8411050B2 (en) | 2013-04-02 |
JP2013508808A (ja) | 2013-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5547294B2 (ja) | タッチの衝撃強度を決定するためのマイクロフォンを有するタッチインタフェース | |
US11829555B2 (en) | Controlling audio volume using touch input force | |
US10877581B2 (en) | Detecting touch input force | |
US9785281B2 (en) | Acoustic touch sensitive testing | |
US20030063073A1 (en) | Touch panel system and method for distinguishing multiple touch inputs | |
US11907464B2 (en) | Identifying a contact type | |
TWI480790B (zh) | 觸控裝置及其驅動方法 | |
TWI605364B (zh) | 觸控裝置及其觸控模式切換方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130917 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140226 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20140305 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140514 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5547294 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |