JP2019204311A - 入出力装置 - Google Patents

入出力装置 Download PDF

Info

Publication number
JP2019204311A
JP2019204311A JP2018099380A JP2018099380A JP2019204311A JP 2019204311 A JP2019204311 A JP 2019204311A JP 2018099380 A JP2018099380 A JP 2018099380A JP 2018099380 A JP2018099380 A JP 2018099380A JP 2019204311 A JP2019204311 A JP 2019204311A
Authority
JP
Japan
Prior art keywords
input
unit
output
output device
traced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018099380A
Other languages
English (en)
Other versions
JP7076285B2 (ja
Inventor
山本 剛
Takeshi Yamamoto
剛 山本
島村 俊重
Toshishige Shimamura
俊重 島村
勇一 岡部
Yuichi Okabe
勇一 岡部
石井雄三
Yuzo Ishii
雄三 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018099380A priority Critical patent/JP7076285B2/ja
Priority to US17/056,252 priority patent/US11249601B2/en
Priority to PCT/JP2019/018932 priority patent/WO2019225380A1/ja
Publication of JP2019204311A publication Critical patent/JP2019204311A/ja
Application granted granted Critical
Publication of JP7076285B2 publication Critical patent/JP7076285B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】視覚鈍感状態に陥ることが抑制された状態で、より複雑な情報が入出力できるようにする。【解決手段】軌跡検出部102は、身体に装着された入力部101でなぞられた軌跡を検出する。パターン判定部103は、軌跡検出部102が検出した軌跡による入力パターンを判定する。送信部104は、パターン判定部103が判定した入力パターンを入力情報として、外部機器へ送信する。受信部105は、外部機器から送信された出力情報を受信する。触覚出力部106は、受信部105が受信した出力情報を、皮膚がなぞられる疑似触覚として身体に対して与える。【選択図】 図1

Description

本発明は、ウエアラブルな入出力装置に関する。
スマートフォン、腕時計型コンピュータに代表される携帯可能な小型IT機器が普及している。これらの携帯機器の操作には、各機器に設置された出力用ディスプレイに一体化されたタッチパネルやキーボードが用いられている。一方、タッチパネルやキーボードの操作時には、視覚鈍感状態に陥ることが指摘されている。例えば、歩きながらスマートフォンを操作している際に駅のプラットフォームから転落する、周囲の歩行者と衝突するなどの事故が多発し、これが社会問題となっている(非特許文献1)。
歩行中や自転車に乗っている際にスマートフォンを安全に操作する手段として、タッチ操作などのジェスチャーを検出する装置を入力インタフェースとして用いるデバイスが提案されている(非特許文献2参照)。
米国特許第5596656号公報
JAFユーザーテスト、"歩行中の「ながらスマホ」"、日本自動車連盟、[平成30年5月11日検索](http://www.jaf.or.jp/eco-safety/safety/usertest/smt/detail1.htm)。 "Jacquard"、Google Advanced Technology Projects,[平成30年5月11日検索],(https://atap.google.com/jacquard/levi/)。 「速記単語帳」、日本速記協会、[平成30年5月11日検索],(http://www.sokki.or.jp/sokki/tango/)。 「CTSU静電容量タッチ検出の基礎」、RENASASアプリケーションノート、R30AN0218JJ0100、Rev 1.00、2014年、[平成30年5月11日検索]、(https://www.renesas.com/ja-jp/doc/products/mpumcu/apn/rx/002/r30an0218jj0100_rx113.pdf)。 「音楽や映像に触覚を加えたコンテンツをデザイン・体験できるコンセプト"Comptics"をSXSW2018にて初披露」、NTT株式会社ニュースリリース、2018年3月9日、[平成30年5月11日検索]、(http://www.ntt.co.jp/news2018/1803/180309a.html)。
上述した従来の技術では、携帯機器などの入力に相当するジェスチャーの検出を、衣服の袖口に織り込まれた導電性を有する糸により実施している。この技術では「袖口をタップ」、「スワイプ(こする)」といった単純な動作しか検出することができない。さらに、上述した技術では、入力に対するフィードバックを得るためには、音声やスマホのディスプレイといった別の出力インタフェースが必要となっている。このため、従来の技術では、複雑(詳細)な情報入力が容易ではなく、また、操作時には、視覚鈍感状態に陥る場合が発生するという問題がある。
本発明は、以上のような問題点を解消するためになされたものであり、視覚鈍感状態に陥ることが抑制された状態で、より複雑な情報を入出力できるようにすることを目的とする。
本発明に係る入出力装置は、身体に装着された入力部でなぞられた軌跡を検出する軌跡検出部と、軌跡検出部が検出した軌跡による入力パターンを判定するパターン判定部と、パターン判定部が判定した入力パターンを入力情報として送信する送信部と、出力情報を受信する受信部と、受信部が受信した出力情報を、皮膚がなぞられる疑似触覚として身体に対して与える触覚出力部とを備える。
上記入出力装置において、触覚出力部は、電気刺激により皮膚がなぞられる疑似触覚を身体に対して与える。
上記入出力装置において、軌跡検出部は、複数の電極部から構成されている。
上記入出力装置において、触覚出力部は、複数の電極部により皮膚がなぞられる疑似触覚を身体に対して与える。
上記入出力装置において、複数の電極部は、可撓性を有する導電性材料から構成されている。例えば、複数の電極部は、導電性を有する布から構成されている。
以上説明したことにより、本発明によれば、視覚鈍感状態に陥ることが抑制された状態で、より複雑な情報が入力できることに加え、出力を確認できるという優れた効果が得られる。
図1は、本発明の実施の形態における入出力装置の構成を示す構成図である。 図2は、本発明の実施の形態における入出力装置の入力部101の構成例を示す構成図である。 図3は、入力される軌跡としての簡略化した記号の一例を示す説明図である。 図4は、入力される軌跡としての速記単語を示す説明図である。
以下、本発明の実施の形態おける入出力装置について図1を参照して説明する。この入出力装置は、入力部101、軌跡検出部102、パターン判定部103、送信部104、受信部105、触覚出力部106を備える。
軌跡検出部102は、身体に装着された入力部101でなぞられた軌跡を検出する。パターン判定部103は、軌跡検出部102が検出した軌跡による入力パターンを判定する。送信部104は、パターン判定部103が判定した入力パターンを入力情報として、図示しない外部機器へ送信する。受信部105は、図示しない外部機器から送信された出力情報を受信する。
触覚出力部106は、受信部105が受信した出力情報を、皮膚がなぞられる疑似触覚として身体に対して与える。触覚出力部106は、入力部101が装着されている身体の皮膚に対して疑似触覚を出力する。
例えば、入力部101は、図2に示すように、可撓性を有する複数の電極部111から構成されている。電極部111は、例えば、導電性を有する布から構成され、導電性を有する糸からなる配線112により接続されている。また、入力部101は、例えば、着衣(衣服)の袖部201の裏面に設けられ、前腕202に装着される。このように構成された入力部101の電極部111は、前腕202の皮膚に接触した状態となる。
電極部111が接続する配線112は、マイクロコンピュータ203に接続されている。マイクロコンピュータ203は、よく知られているように、CPU(Central Processing Unit;中央演算処理装置)と主記憶装置と外部記憶装置とネットワーク接続装置となどを備え、主記憶装置に展開されたプログラムによりCPUが動作することで、上述した各機能が実現される。
例えば、軌跡検出部102は、分割された各々の電極部111の容量変化を計測することで、入力部101でなぞられた軌跡を検出する(非特許文献4参照)。
パターン判定部103は、例えば、文字の画像データを、対応する文字のデータ(テキストデータ)に関連付けて記憶されている。パターン判定部103は、軌跡検出部102が検出した軌跡による入力パターンと、記憶している画像データとのマッチングを行い、設定されている上限でマッチングが判定されると、マッチした画像データに対応する文字のデータを出力する。
軌跡は、例えば、図3に示すような、簡略化した記号であってもよい(特許文献1参照)。また、軌跡は、図4に示すような、速記単語などの記号であってもよい(非特許文献3参照)。これらの場合、パターン判定部103は、記号の画像データを、対応する文字,文字列のデータに関連付けて記憶していればよい。これにより、簡略な記号の軌跡により、より複雑な情報が入力できるようになる。このように、パターン判定部103が判定した文字、文字列の情報が、送信部104より図示しない外部機器に送信されて処理される。
また、例えば、触覚出力部106は、分割された電極部111により、前腕202の皮膚に対して電気刺激を与えることで、受信部105が受信した出力情報を、指でなぞられ感触が得られるような疑似触覚(刺激)として身体に対して与える(非特許文献5参照)。
触覚出力部106は、受信した出力情報を構成する文字,文字列のパターンに対応した位置の電極部111により電気刺激を与えることで、文字,文字列パターンがなぞられたような疑似触覚を皮膚に対して与える。例えば、送信部104により送信された入力情報が、外部機器により処理され、この処理結果が出力情報として送信され、受信部105で受信され、触覚出力部106により身体に疑似触覚として与えられる。また、外部機器より送信された警報の情報が、受信部105で受信され、触覚出力部106により身体に疑似触覚として与えられる。
以上に説明したように、本発明によれば、軌跡検出部が、身体に装着された入力部でなぞられた軌跡を検出し、パターン判定部103が、検出した軌跡による入力パターンを判定し、触覚出力部が、受信された出力情報を皮膚がなぞられる疑似触覚として身体に対して出力するようにしたので、視覚鈍感状態に陥ることが抑制された状態で、より複雑な情報が入出力できるようになる。
本発明によれば、ユーザは、タッチパネルやキーボード等の従来型入力インタフェース
およびディスプレイやスピーカー等の出力インタフェースを用いることなく,IT機器の操作や出力状態を確認することができる。また,キーボードやタッチパネルを操作することが困難な場合であっても、入出力が可能となる。また、本発明による入出力装置は、衣服と一体化させることが可能であるため,周囲の人に気づかれることなく、入力操作など実行することを可能とする。
なお、本発明は以上に説明した実施の形態に限定されるものではなく、本発明の技術的思想内で、当分野において通常の知識を有する者により、多くの変形および組み合わせが実施可能であることは明白である。
101…入力部、102…軌跡検出部、103…パターン判定部、104…送信部、105…受信部、106…触覚出力部。

Claims (6)

  1. 身体に装着された入力部でなぞられた軌跡を検出する軌跡検出部と、
    前記軌跡検出部が検出した軌跡による入力パターンを判定するパターン判定部と、
    前記パターン判定部が判定した入力パターンを入力情報として送信する送信部と、
    出力情報を受信する受信部と、
    前記受信部が受信した出力情報を、皮膚がなぞられる疑似触覚として前記身体に対して与える触覚出力部と
    を備えることを特徴とする入出力装置。
  2. 請求項1記載の入出力装置において、
    前記触覚出力部は、電気刺激により皮膚がなぞられる疑似触覚を前記身体に対して与えることを特徴とする入出力装置。
  3. 請求項1または2記載の入出力装置において、
    前記軌跡検出部は、複数の電極部から構成されていることを特徴とする入出力装置。
  4. 請求項3記載の入出力装置において、
    前記触覚出力部は、前記複数の電極部により皮膚がなぞられる疑似触覚を前記身体に対して与えることを特徴とする入出力装置。
  5. 請求項3または4記載の入出力装置において、
    前記複数の電極部は、可撓性を有する導電性材料から構成されていることを特徴とする入出力装置。
  6. 請求項5記載の入出力装置において、
    前記複数の電極部は、導電性を有する布から構成されていることを特徴とする入出力装置。
JP2018099380A 2018-05-24 2018-05-24 入出力装置 Active JP7076285B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018099380A JP7076285B2 (ja) 2018-05-24 2018-05-24 入出力装置
US17/056,252 US11249601B2 (en) 2018-05-24 2019-05-13 Input/output device
PCT/JP2019/018932 WO2019225380A1 (ja) 2018-05-24 2019-05-13 入出力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018099380A JP7076285B2 (ja) 2018-05-24 2018-05-24 入出力装置

Publications (2)

Publication Number Publication Date
JP2019204311A true JP2019204311A (ja) 2019-11-28
JP7076285B2 JP7076285B2 (ja) 2022-05-27

Family

ID=68616687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018099380A Active JP7076285B2 (ja) 2018-05-24 2018-05-24 入出力装置

Country Status (3)

Country Link
US (1) US11249601B2 (ja)
JP (1) JP7076285B2 (ja)
WO (1) WO2019225380A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230381511A1 (en) * 2020-11-06 2023-11-30 Nippon Telegraph And Telephone Corporation Kinetic control support apparatus, kinetic control support method, and program
US11861066B2 (en) * 2021-03-15 2024-01-02 Korea Advanced Institute Of Science And Technology Computer system for providing tactile interface for real-time two-dimensional tactile input/output interaction of visually impaired people, and operating method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11515151A (ja) * 1995-10-25 1999-12-21 レネ ゴンザレス,ギルバート 触知通信装置及び方法
JP2001029485A (ja) * 1999-07-15 2001-02-06 Sony Corp 電気刺激装置及び電気刺激を用いた力触覚呈示装置並びにこれらの制御方法
JP2005328270A (ja) * 2004-05-13 2005-11-24 Hitachi Ltd 触覚刺激通信装置
JP2014228959A (ja) * 2013-05-20 2014-12-08 日本電信電話株式会社 インターフェース、及び情報処理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5596656B1 (en) 1993-10-06 2000-04-25 Xerox Corp Unistrokes for computerized interpretation of handwriting
US20120242584A1 (en) * 2011-03-22 2012-09-27 Nokia Corporation Method and apparatus for providing sight independent activity reports responsive to a touch gesture
KR101661991B1 (ko) * 2015-06-05 2016-10-04 재단법인 실감교류인체감응솔루션연구단 모바일 확장 공간에서의 3d 드로잉을 지원하기 위한 hmd 장치 및 방법
WO2017073811A1 (ko) * 2015-10-29 2017-05-04 엘지전자 주식회사 이동 단말기 및 그의 동작 방법
WO2017077351A1 (en) * 2015-11-05 2017-05-11 Bálint Géza Hand held electronic device with an air mouse
US10642356B1 (en) * 2016-06-26 2020-05-05 Apple Inc. Wearable interactive user interface
US10156029B1 (en) * 2017-06-14 2018-12-18 Apple Inc. Fabric control device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11515151A (ja) * 1995-10-25 1999-12-21 レネ ゴンザレス,ギルバート 触知通信装置及び方法
JP2001029485A (ja) * 1999-07-15 2001-02-06 Sony Corp 電気刺激装置及び電気刺激を用いた力触覚呈示装置並びにこれらの制御方法
JP2005328270A (ja) * 2004-05-13 2005-11-24 Hitachi Ltd 触覚刺激通信装置
JP2014228959A (ja) * 2013-05-20 2014-12-08 日本電信電話株式会社 インターフェース、及び情報処理装置

Also Published As

Publication number Publication date
US11249601B2 (en) 2022-02-15
US20210181874A1 (en) 2021-06-17
WO2019225380A1 (ja) 2019-11-28
JP7076285B2 (ja) 2022-05-27

Similar Documents

Publication Publication Date Title
Whitmire et al. Digitouch: Reconfigurable thumb-to-finger input and text entry on head-mounted displays
JP6415592B2 (ja) ウェアラブル装置
KR101877823B1 (ko) 정보 처리를 위한 방법, 장치, 및 디바이스
WO2019225380A1 (ja) 入出力装置
Dobbelstein et al. PocketThumb: A wearable dual-sided touch interface for cursor-based control of smart-eyewear
CN104243882B (zh) 一种投影方法及穿戴式电子设备
CN105814511B (zh) 偏差平面手腕输入装置、方法和计算机可读介质
Fang et al. Handwriting velcro: Endowing AR glasses with personalized and posture-adaptive text input using flexible touch sensor
KR20150117120A (ko) 터치 입력 장치 및 이를 갖는 전자 장치
WO2016046653A1 (en) Control unit and method of interacting with a graphical user interface
Meli et al. Hand in air tapping: A wearable input technology to type wireless
CN208156625U (zh) 触控笔及具有触控屏的电子设备
Karrer et al. Pinstripe: eyes-free continuous input anywhere on interactive clothing
CN104571517A (zh) 一种人体动作对电子设备进行输入及控制的方法
TW201531888A (zh) 觸控指套
JP2015141595A (ja) 電子機器および電子機器操作制御プログラム
JP6558717B2 (ja) 入力機器、入力方法及びコンピュータプログラム
JP2014164428A (ja) ポインティング装置およびポインタ操作方法
JP3180086U (ja) タッチパネル式小型端末用操作具
KR20080082207A (ko) 촉각 센서를 이용한 손가락 접촉식 문자 입력 장치
KR101543756B1 (ko) 손가락을 이용한 신호 전달시스템
KR101263013B1 (ko) 문자 입력 방법
TR2022008168U5 (tr) Telefon ve tabletler i̇çi̇n parmak korumaliği
Hino et al. Character input using the motion sensor on a smartwatch
KR20170088191A (ko) 마우스 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211008

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220407

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220420

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220517

R150 Certificate of patent or registration of utility model

Ref document number: 7076285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150