JP2022037377A - 入力システム及び入力方法 - Google Patents

入力システム及び入力方法 Download PDF

Info

Publication number
JP2022037377A
JP2022037377A JP2020141485A JP2020141485A JP2022037377A JP 2022037377 A JP2022037377 A JP 2022037377A JP 2020141485 A JP2020141485 A JP 2020141485A JP 2020141485 A JP2020141485 A JP 2020141485A JP 2022037377 A JP2022037377 A JP 2022037377A
Authority
JP
Japan
Prior art keywords
referent
space
input system
state quantity
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020141485A
Other languages
English (en)
Other versions
JP7504723B2 (ja
Inventor
直樹 渡辺
Naoki Watanabe
龍憲 加藤
Tatsunori Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wacom Co Ltd
Original Assignee
Wacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wacom Co Ltd filed Critical Wacom Co Ltd
Priority to JP2020141485A priority Critical patent/JP7504723B2/ja
Priority to US17/399,736 priority patent/US11586300B2/en
Priority to CN202110929198.1A priority patent/CN114115516A/zh
Publication of JP2022037377A publication Critical patent/JP2022037377A/ja
Priority to US18/162,441 priority patent/US11995252B2/en
Priority to US18/645,275 priority patent/US20240272731A1/en
Priority to JP2024094792A priority patent/JP2024107350A/ja
Application granted granted Critical
Publication of JP7504723B2 publication Critical patent/JP7504723B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0441Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using active external devices, e.g. active pens, for receiving changes in electrical potential transmitted by the digitiser, e.g. tablet driving signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】指示デバイスの指示位置を検出する検出デバイスと、空間を表示する表示ユニットとが別体で設けられる装置構成において、ユーザによる入力操作性を向上可能な入力システム及び入力方法を提供する。【解決手段】入力システム10において、ウェアラブルデバイス20のプロセッサ24は、指示デバイス30による所定の操作を受け付けた時点にて位置検出部23により検出された視線位置に基づいて、指示デバイス30の基準位置を含む指示対象領域を空間の中から設定し、空間上に重ねて指示デバイス30の指示位置を指示対象領域内に表示するように表示ユニット22を制御する。【選択図】図1

Description

本発明は、入力システム及び入力方法に関する。
従来から、スタイラスを含む指示デバイスの筆記操作を通じて、ストロークの集合体を記述するインクデータを入力可能なデジタルインクシステムが知られている。例えば、ユーザによる筆記操作に追従して、この筆記箇所とは異なる別の箇所に筆記コンテンツを表示する場合が想定される。
特許文献1には、3次元空間上に2次元の仮想平面を設定した後、この仮想平面上に筆記したストロークを、ユーザが装着可能な表示装置に即時に表示する技術が開示されている。
特開2013-125487号公報
ところで、様々な物体が存在する仮想空間を表示することで、ユーザは、あたかもその空間内に筆記を残すような疑似体験を得ることができる。しかしながら、特許文献1で開示される技術では、仮想平面が設定された後にそのまま固定されるので、場合によっては、ユーザの意図とは異なる箇所に筆記コンテンツが表示され、ユーザによる入力操作性を損なうという問題がある。
本発明は上記した問題に鑑みてなされたものであり、その目的は、指示デバイスの指示位置を検出する検出デバイスと、空間を表示する表示ユニットとが別体で設けられる装置構成において、ユーザによる入力操作性を向上可能な入力システム及び入力方法を提供することにある。
第一の本発明における入力システムは、指示デバイスと、前記指示デバイスの指示位置を検出する検出デバイスと、前記検出デバイスとは別体に設けられ、かつ空間を表示する表示ユニットと、前記空間内のユーザの視線位置を検出する位置検出部と、プロセッサと、を備え、前記プロセッサは、前記指示デバイスによる所定の操作を受け付けた時点にて前記位置検出部により検出された前記視線位置に基づいて、前記指示デバイスの基準位置を含む指示対象領域を前記空間の中から設定し、前記空間上に重ねて前記指示デバイスの指示位置を前記指示対象領域内に表示するように前記表示ユニットを制御する。
第二の本発明における入力方法は、指示デバイスと、前記指示デバイスの指示位置を検出する検出デバイスと、前記検出デバイスとは別体に設けられ、かつ空間を表示する表示ユニットと、前記空間内のユーザの視線位置を検出する位置検出部と、を含んで構成される入力システムを用いた方法であって、1又は複数のプロセッサが、前記指示デバイスによる所定の操作を受け付けた時点にて前記位置検出部により検出された前記視線位置に基づいて、前記指示デバイスの基準位置を含む指示対象領域を前記空間の中から設定するステップと、前記空間上に重ねて前記指示デバイスの指示位置を前記指示対象領域内に表示するように前記表示ユニットを制御するステップと、を実行する。
本発明によれば、指示デバイスの指示位置を検出する検出デバイスと、空間を表示する表示ユニットとが別体で設けられる装置構成において、ユーザによる入力操作性がより高まる。
本発明の一実施形態における入力システムの全体構成図である。 図1に示す入力システムの入力動作に関するフローチャートである。 ウェアラブルデバイスに表示される仮想空間の一例を示す図である。 領域定義テーブルが有するデータ構造の一例を示す図である。 ペンダウン操作の前後にわたる3D画像の遷移を示す図である。 ペン座標系と仮想座標系の間の対応関係を示す図である。 ペンアップ操作の前後にわたる3D画像の遷移を示す図である。 ペン座標系と検出座標系の間の対応関係を示す図である。 タブレットの状態量を考慮した補正動作に関する模式図である。
以下、添付図面を参照しながら本発明の実施形態について説明する。説明の理解を容易にするため、各図面において同一の構成要素及びステップに対して可能な限り同一の符号を付するとともに、重複する説明を省略する場合がある。
[入力システム10の構成]
図1は、本発明の一実施形態における入力システム10の全体構成図である。この入力システム10は、指示デバイスを用いた筆記操作を通じて、ストロークの集合体を記述するインクデータを入力可能な「デジタルインクシステム」である。具体的には、入力システム10は、表示デバイスの一態様であるウェアラブルデバイス20と、指示デバイスの一態様であるスタイラス30と、検出デバイスの一態様であるタブレット40と、を含んで構成される。
ウェアラブルデバイス20は、ユーザUが装着可能な可搬型表示装置である。具体的には、ウェアラブルデバイス20は、筐体21と、表示パネル22(「表示ユニット」に相当)と、視線センサ23(「位置検出部」に相当)と、プロセッサ24(「プロセッサ」に相当)と、通信モジュール25と、を含んで構成される。
筐体21は、各々の電子部品を保持するフレームと、該フレームをユーザUの頭部に固定する固定部材と、を備える。表示パネル22は、画像又は映像を表示可能であり、例えば、液晶パネル、有機EL(Electro-Luminescence)パネル、電子ペーパーなどであってもよい。視線センサ23は、例えば赤外線センサからなり、ユーザUの視線に相関する物理量(例えば、目の動き)を検出する。
プロセッサ24は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)を含む処理演算装置によって構成される。プロセッサ24は、図示しないメモリに格納されたプログラムを読み出して実行することで、画像の表示制御、該表示制御に必要な様々な演算、データの送受信制御などを行う。
通信モジュール25は、外部装置に対して電気信号を送受信するための通信インターフェースである。これにより、ウェアラブルデバイス20は、スタイラス30又はタブレット40との間で様々なデータのやり取りが可能である。
スタイラス30は、タブレット40との間で一方向又は双方向に通信可能に構成される電子ペンである。電子ペンの方式は、電磁誘導方式(EMR)又はアクティブ静電結合方式(AES)のうちのいずれであってもよい。例えば、AES方式の場合には、スタイラス30は、筆圧センサ31と、慣性計測ユニット(Inertial Measurement Unit;以下、第1IMU32)と、マイクロコントロールユニット(Micro Control Unit;以下、MCU33)と、通信チップ34と、を含んで構成される。
筆圧センサ31は、例えば、ペン先への押圧により発生する静電容量の変化を捉える、可変容量コンデンサを用いた圧力センサである。この筆圧センサ31により、筆圧のみならず、スタイラス30のペンダウン又はペンアップを含むペンイベントを検出することができる。
第1IMU32は、例えば、3軸のジャイロセンサと3方向の加速度センサを組み合わせてなる計測ユニットである。これにより、第1IMU32は、後述するペン座標系60(図6及び図8参照)上での自装置の状態又は状態の時間変化を示す状態量を測定可能に構成される。この状態量には、位置・姿勢の特定に用いられる様々な物理量、例えば、位置、速度、加速度、ジャーク、角度、角速度などが含まれる。
MCU33は、スタイラス30の動作を制御可能なプロセッサを含む制御ユニットである。例えば、MCU33は、スタイラス30による指示位置の計算に関する様々な演算の他に、当該演算の結果を含むデータの送受信制御などを行う。
通信チップ34は、BlueTooth(登録商標)を含む様々な無線通信規格に従って、外部装置との間で無線通信を行うための集積回路である。これにより、スタイラス30は、通信チップ34を介して、ウェアラブルデバイス20又はタブレット40との間で様々なデータのやり取りが可能である。
タブレット40は、スタイラス30の指示位置を検出可能な装置であり、表示機能の有無を問わない。また、タブレット40に代わって、スマートフォン、パーソナルコンピュータを含む様々な検出デバイスが用いられてもよい。ユーザUは、スタイラス30を片手で把持し、タブレット40のタッチ面41にペン先を押し当てながら移動させることで、ウェアラブルデバイス20の表示面に絵や文字を書き込むことができる。
このタブレット40は、センサ電極42と、タッチIC(Integrated Circuit)43と、CPU44と、通信チップ45と、第2IMU46と、を含んで構成される。第2IMU46は、必要に応じて省略されてもよい。
センサ電極42は、導体の接近又は接触により生じた静電容量の変化を検出可能な電極の集合体である。静電容量の検出方式は、相互容量方式又は自己容量方式のいずれであってもよい。例えば、相互容量方式の場合、このセンサ電極42は、検出座標系80(図8参照)のXd軸の位置を検出するための複数のXライン電極と、Yd軸の位置を検出するための複数のYライン電極と、を備える。
タッチIC43は、センサ電極42の駆動制御を行う集積回路である。タッチIC43は、CPU44から供給された制御信号に基づいてセンサ電極42を駆動する。これにより、タッチIC43は、スタイラス30の状態を検出する「ペン検出機能」や、ユーザUの指などによるタッチを検出する「タッチ検出機能」を実行する。
CPU44は、図示しないメモリに格納されたプログラムを読み出して実行することで、例えば、インクデータの生成、データの送受信制御を含む様々な機能を実行可能である。なお、CPU44に代えて、MPU、GPUを含む様々な処理演算装置が用いられてもよい。
通信チップ45は、通信チップ34と同様に、BlueTooth(登録商標)を含む様々な通信規格に従って、外部装置との間で無線通信を行うための集積回路である。これにより、タブレット40は、通信チップ45を介して、ウェアラブルデバイス20又はスタイラス30との間で様々なデータのやり取りが可能である。
第2IMU46は、第1IMU32と同様に、例えば、3軸のジャイロセンサと3方向の加速度センサを組み合わせてなる計測ユニットである。これにより、第2IMU46は、後述する検出座標系80(図8参照)上での自装置の位置・姿勢に関する状態量を測定可能に構成される。
[入力システム10の動作]
本実施形態における入力システム10は、以上のように構成される。続いて、入力システム10による入力動作について、図2のフローチャート及び図3~図7を参照しながら説明する。
<基本動作>
図2のステップS1において、入力システム10は、ユーザUが視認可能な態様で仮想空間50を表示する。具体的には、ウェアラブルデバイス20のプロセッサ24が表示パネル22に対して表示制御を行うことで、仮想空間50を示す画像又は映像が表示される。
図3は、ウェアラブルデバイス20に表示される仮想空間50の一例を示す図である。この仮想空間50は、架空の室内を3次元的に示している。この室内には、天井・床・壁・クローゼットなどの建造物、ベッド・テーブル・椅子などの家具を含む様々な物体が設けられる。
図2のステップS2において、入力システム10は、スタイラス30によるペンダウン操作を受け付けたか否かを確認する。具体的には、スタイラス30のMCU33は、筆圧センサ31の検出信号に基づいて、筆圧状態が「OFF」から「ON」に変化したか否かを判定する。ペンダウン操作が検出されなかった場合(ステップS2:NO)、当該操作を検出するまでの間、ステップS1に留まる。一方、ペンダウン操作が検出された場合(ステップS2:YES)、次のステップS3に進む。なお、ウェアラブルデバイス20は、スタイラス30による検出結果を直接的に取得してもよいし、タブレット40を経由して間接的に取得してもよい。
ステップS3において、入力システム10は、ステップS2にて検出されたペンダウン操作時にユーザUが視認している物体(以下、視認物体)を特定する。まず、ウェアラブルデバイス20のプロセッサ24は、視線センサ23の検出信号に基づいてユーザUの視線位置52を検出した後、この視線の先にある仮想空間50内の物体を特定する。視認物体を特定する際に、例えば、プロセッサ24は、図4に示す領域定義テーブルを参照してもよい。
図4は、図3の仮想空間50に関する領域定義テーブルが有するデータ構造の一例を示す図である。この領域定義テーブルは、[1]仮想空間50内にある物体の識別情報である「物体ID」と、[2]物体が占有する「占有範囲」と、[3]物体面がなす座標系の「基底ベクトル」と、[4]座標系の原点を示す「基準座標」との間の対応関係を示すテーブル形式のデータである。
まず、プロセッサ24は、視線センサ23の検出信号に基づいてユーザUの視線位置52を検出し、仮想空間50上の視線ベクトルを算出する。そして、プロセッサ24は、図4に示す領域定義テーブルを参照し、当該視線ベクトルが各々の物体に対応付けられた占有範囲に交差するか否かを判定する。該当する物体がある場合、その物体が「視認物体」であると特定される。なお、図4の例では、物体毎にIDが割り当てられているが、複数の面を有する物体に関して物体の面毎にIDが割り当てられてもよい。
図2のステップS4において、入力システム10(より詳しくは、プロセッサ24)は、ステップS3にて特定された視認物体が、前回に特定された視認物体と同一であるか否かを判定する。同一の視認物体である場合(ステップS4:YES)にはステップS5に進む一方、異なる視認物体である場合(ステップS4:NO)にはステップS6に進む。
ステップS5に進んだ場合、入力システム10(より詳しくは、プロセッサ24)は、ステップS3にて特定された視認物体、つまり、今回の視線に応じた指示対象領域74(図6)を設定する。具体的には、プロセッサ24は、図4の領域定義テーブルを参照し、仮想座標系70(図6)のうち平面状の指示対象領域74を設定する。例えば、視認物体がID=OB0001である場合、プロセッサ24は、座標値が(Xv1,Yv1,Zv1)である基準位置72(図6)を指示対象領域74の「中心点」、2つの基底ベクトル(Ex1↑,Ey1↑)を指示対象領域74の「平面ベクトル」、残り1つの基底ベクトルEz1↑を指示対象領域74の「法線ベクトル」としてそれぞれ設定する。
ステップS6に進んだ場合、入力システム10(より詳しくは、プロセッサ24)は、前回のフローチャート実行時のステップS5又はS6、つまり、前回の場合と同一の指示対象領域74を設定する。これと併せて、プロセッサ24は、指示対象領域74が正面になるように視点を切り替えた仮想空間50を表示させる。
図5は、ペンダウン操作の前後にわたる3D画像50a,50bの遷移を示す図である。より詳しくは、上側の図はペンダウン操作前の3D画像50aを、下側の図はペンダウン操作後の3D画像50bをそれぞれ示している。例えば、ユーザUの視線位置52にクローゼットのドアにある状態でペンダウン操作が行われると、3D画像50aが3D画像50bに遷移される。この3D画像50bは、クローゼットのドア(つまり、指示対象領域74)が正面になるように視点を切り替えた2次元画像に相当する。
図2のステップS7において、入力システム10は、ユーザUによるペンムーブ操作に追従して、仮想空間50上の描画処理を行う。まず、スタイラス30は、ペンダウン操作時における自装置の位置をペン座標系60の原点Opに設定した後、第1IMU32により測定された状態量を逐次的に取得する。そして、ウェアラブルデバイス20は、この状態量を含むデータをスタイラス30から直接的に取得する。あるいは、ウェアラブルデバイス20は、スタイラス30からタブレット40を経由して、当該データを間接的に取得してもよい。
そして、プロセッサ24は、所定の変換規則に従ってスタイラス30の状態量を変換し、変換後の状態量を逐次加算することで、仮想空間50上の指示位置を算出する。以下、移動量の時系列を用いて仮想座標系70上の指示位置を算出する例について、図6を参照しながら説明する。
図6上側のペン座標系60は、Xp軸、Yp軸、Zp軸からなる3次元直交座標系であり、スタイラス30によって独自に定義される。例えば、スタイラス30のペンダウン位置62が原点Opである場合、m↑(t)は、t番目の時点におけるペン座標系60上でのスタイラス30の移動量(3次元ベクトル)を示している。
一方、図6下側の仮想座標系70は、Xv軸、Yv軸、Zv軸からなる3次元直交座標系であり、ウェアラブルデバイス20によって独自に定義される。ここで、破線で示す四角形状の領域は、基準位置72を基準として設定された指示対象領域74に相当する。t番目の時点における仮想座標系70上での指示位置がPv(t)とすると、Pv(t)は、Pv(t)=Pv(t-1)+A・m↑(t)に従って逐次算出される。
ここで、Aは、ペン座標系60から仮想座標系70に変換するためのアフィン行列(3行×3列)に相当する。このアフィン行列Aは、ペン座標系60及び仮想座標系70が既知であれば一意に定められる。例えば、アフィン行列Aは、物体又は物体面に対応付けて予め記憶されてもよいし、指示対象領域74が設定される度に計算されてもよい。
そして、プロセッサ24は、現在表示されている仮想空間50に対して、算出した指示位置にマークを重ねて表示するように表示パネル22を制御する。この動作を逐次実行することで、仮想空間50上に、ドットなどのマークの軌跡(すなわち、ストローク)が重ねて表示される。
図2のステップS8において、入力システム10は、ペンアップ操作を検出したか否かを確認する。具体的には、スタイラス30のMCU33は、筆圧センサ31の検出信号に基づいて、筆圧状態が「ON」から「OFF」に変化したか否かを判定する。ペンアップ操作が検出されなかった場合(ステップS8:NO)、当該操作を検出するまでの間、ステップS7,S8を順次繰り返す。一方、ペンアップ操作が検出された場合(ステップS8:YES)、次のステップS9に進む。
ステップS9において、入力システム10(より詳しくは、プロセッサ24)は、ステップS5,S6の実行時から設定されていた指示対象領域74を解除する。これと併せて、プロセッサ24は、視点を元に戻した仮想空間50を表示させる。
図7は、ペンアップ操作の前後にわたる3D画像50c,50dの遷移を示す図である。より詳しくは、上側の図はペンアップ操作前の3D画像50cを、下側の図はペンアップ操作後の3D画像50dをそれぞれ示している。例えば、1回のストロークが終了した状態でペンアップ操作が行われると、3D画像50cが3D画像50dに遷移される。この3D画像50dは、図5の3D画像50a上に、1本のストロークが筆記された画像に相当する。
その後、ステップS1に戻って、以下、ステップS1~S9のいずれかを順次実行する。このように、入力システム10の動作を継続することで、ユーザUは、あたかも仮想空間50内に筆記を残すような疑似体験を得ることができる。
<基本動作による効果>
以上のように、この実施形態における入力システム10は、スタイラス30と、スタイラス30の指示位置を検出するタブレット40と、タブレット40とは別体に設けられ、かつ空間(ここでは、仮想空間50)を表示する表示パネル22と、仮想空間50内のユーザUの視線位置52を検出する視線センサ23と、1又は複数のプロセッサ(ここでは、プロセッサ24)と、を含んで構成される。そして、プロセッサ24は、スタイラス30による所定の操作を受け付けた時点にて視線センサ23により検出された視線位置52に基づいて、スタイラス30の基準位置72を含む指示対象領域74を仮想空間50の中から設定し(図2のステップS5,S6)、仮想空間50上に重ねてスタイラス30の指示位置を指示対象領域74内に表示するように表示パネル22を制御する(図2のステップS7)。
このように、検出された視線位置52に基づいて、スタイラス30の基準位置72を含む指示対象領域74を仮想空間50の中から設定するので、現時点におけるユーザUの視線の先、すなわち筆記を行おうとするユーザUの意図により近い箇所に指示位置を表示可能となる。これにより、スタイラス30の指示位置を検出するタブレット40と、仮想空間50を表示する表示パネル22とが別体で設けられる装置構成において、ユーザUによる入力操作性がより高まる。
特に、上記した特定の操作が、スタイラス30のペン先をタッチ面41に押し当てる「ペンダウン操作」である場合、通常の筆記操作を行う感覚で特別な操作を行う必要がないので、ユーザUにとって使い勝手がさらに向上する。
また、指示対象領域74は、仮想空間50内にある物体毎又は物体面毎に設定可能であってもよい。これにより、ユーザUは、あたかも仮想空間50内にある物体を選択して筆記を残すような感覚を獲得することができ、その分だけ疑似体験の現実感が増す。
また、プロセッサ24は、前回の視線位置52と今回の視線位置52とが同一の物体上又は物体面上にある場合、前回に設定された場合と同一の基準位置72及び指示対象領域74を設定してもよい。これにより、同一の物体又は物体面上に筆記を続けようとするユーザUの意図を反映させやすくなる。
これとは逆に、プロセッサ24は、前回の視線位置52と今回の視線位置52とが異なる物体上又は物体面上にある場合、前回に設定された場合とは異なる基準位置72及び指示対象領域74を設定してもよい。これにより、関心対象である物体又は物体面が変更された旨のユーザUの意図を反映させやすくなる。
また、プロセッサ24は、指示対象領域74が設定された場合、指示対象領域74が正面になる視点に切り替えて仮想空間50を表示させてもよい。これにより、ユーザUが筆記操作を行いやすくなる。
また、スタイラス30又はタブレット40は、所定の操作を受け付けた時点から、スタイラス30の移動量を逐次的に出力し、プロセッサ24は、所定の変換規則に従ってスタイラス30の移動量を変換し、変換後の移動量を基準位置72の座標値に逐次加算することで、仮想空間50上の指示位置を算出してもよい。プロセッサ24が仮想空間50上の指示位置を算出する構成にすることで、スタイラス30による演算処理の負荷が軽減される。
[スタイラス30の状態補正]
<基本動作における問題点>
上記した基本動作では、タブレット40が移動することなく水平状態に配置されることを想定している。ところが、タブレット40の位置・姿勢が時間とともに変化する場合、仮想空間50上に正しく筆記されない場合がある。
図8は、ペン座標系60と検出座標系80の間の対応関係を示す図である。図面上側のペン座標系60は、Xp軸、Yp軸、Zp軸からなる3次元直交座標系であり、スタイラス30によって独自に定義される。一方、図面下側の検出座標系80は、Xd軸、Yd軸、Zd軸からなる3次元直交座標系であり、タブレット40によって独自に定義される。ここで、破線で示す四角形状の領域は、タッチ面41がなす領域に相当する。
タブレット40が理想状態(例えば、水平状態)に配置される場合、Xp-Yp平面は、Xd-Yd平面に対して平行である。つまり、ユーザUが筆記(ペンムーブ操作)を行っている間、スタイラス30は水平方向に沿って移動する。ところが、タブレット40が水平面に傾斜して配置される場合、ユーザUが筆記を行っている間、スタイラス30は傾斜したタッチ面41(Xd-Yd平面)に沿って移動する。すなわち、理想の配置状態との乖離が生じ、ウェアラブルデバイス20が実行するアフィン変換処理が実際の挙動と適合しなくなってしまう。そこで、タブレット40の状態量を用いてスタイラス30の状態量を補正することで、上記した問題を解決することができる。
<補正動作の説明>
図9は、タブレット40の状態を考慮した補正動作に関する模式図である。ウェアラブルデバイス20、スタイラス30及びタブレット40のうち、主要の構成のみを表記している。以下、スタイラス30が第1IMU32を用いて計測した自装置の状態量を「第1状態量」といい、タブレット40が第2IMU46を用いて計測した自装置の状態量を「第2状態量」という。
スタイラス30のMCU33は、第1IMU32により第1周期T1で計測された第1状態量を逐次取得する。そして、MCU33は、この第1状態量と、直近に取得された第2状態量を集約した後、筆圧センサ31による筆圧の検出結果及び集約済みの状態量を含むデータ(以下、「第1データ」という)をウェアラブルデバイス20に送信する制御を行う。ここで、「集約」とは、第1状態量から第2状態量を差し引いた相対状態量を得ること、あるいは第1状態量及び第2状態量を連結することを意味する。以下、スタイラス30とウェアラブルデバイス20の間の通信を「第1通信」という。
一方、スタイラス30のMCU33は、第2状態量を含むデータ(以下、「第2データ」という)をタブレット40から受信する制御を行う。この第2状態量は、タブレット40の第2MCU46により第2周期T2で逐次計測される。以下、スタイラス30とタブレット40の間の通信を「第2通信」という。第2状態量の送受信に際し、例えば、BlueTooth(登録商標)などの通信規格に従って実装されるリレー通信機能を用いられる。
ところで、筆記する側のスタイラス30は、ユーザUによって頻繁に動かされるため、状態の時間変化が相対的に大きくなる。これに対して、筆記される側のタブレット40は、ユーザUによって殆ど動かされないため、状態の時間変化が相対的に小さくなる。つまり、第2状態量の更新頻度を低くしたとしても、補正の効果が十分に得られると考えられる。そこで、第2通信の実行頻度を第1通信の実行頻度よりも相対的に低くすることで、その分だけ通信回数を削減可能となり、その結果、消費電力を節約することができる。
具体的には、第1通信及び第2通信が同期的に行われる場合、単位時間あたりの通信回数をN:1(Nは、2以上の整数)に設定してもよい。あるいは、第1通信及び第2通信が非同期的に行われる場合、T1<T2の関係を満たすように、第1,第2通信の実行周期であるT1,T2をそれぞれ設定してもよい。
ウェアラブルデバイス20のプロセッサ24は、補正された状態量を用いて、仮想空間50上の指示位置を算出する。プロセッサ24は、相対状態量を含む第1データを取得した場合、この相対状態量をそのまま用いて指示位置を計算する。一方、プロセッサ24は、第1状態量及び第2状態量のペアを含む第1データを取得した場合、第1状態量から第2状態量を差し引いた相対状態量を用いて指示位置を計算する。
以上のように、この実施形態における入力システム10は、スタイラス30と、スタイラス30の指示位置を検出するタブレット40と、1又は複数のプロセッサ24と、を含んで構成される。スタイラス30及びタブレット40は、相互に通信可能であり、スタイラス30は、自装置の状態又は状態の時間変化を示す第1状態量を計測可能であり、タブレット40は、自装置の状態又は状態の時間変化を示す第2移動量を計測可能である。そして、スタイラス30は、第2通信により、第2状態量を含む第2データをタブレット40から受信するとともに、第1通信により、第1状態量及び第2状態量を集約した第1データをプロセッサ24に送信する。
また、集約は、第1状態量から第2状態量を差し引いて相対状態量を算出すること又は第1状態量及び第2状態量を連結することであってもよい。また、第2通信は、プロセッサ24との間で行われない、第1通信と異なる手段を用いた通信(例えば、リレー通信)であってもよい。また、第2通信の実行頻度は、第1通信の実行頻度よりも低くされてもよい。
[変形例]
なお、本発明は上記の具体例に限定されるものではない。すなわち、上記の具体例に、当業者が適宜設計変更を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。また、前述した実施形態及び後述する変形例が備える各要素は、技術的に可能な限りにおいて組み合わせることができ、これらを組み合わせたものも本発明の特徴を含む限り本発明の範囲に包含される。
上記した実施形態では、ウェアラブルデバイス20が仮想現実(VR)技術を用いた仮想現実空間を表示する例を挙げて説明したが、これに代えて、拡張現実(AR)技術や複合現実(MR)技術を用いた空間が表示されてもよい。例えば、AR技術の場合、実空間にある物体に関する各種情報を取得した後、図4に示す領域定義テーブルを予め作成しておけばよい。
上記した実施形態では、ペンダウン操作を契機としてプロセッサ24が指示対象領域74を設定しているが、これ以外の操作、例えばスタイラス30が有するサイドスイッチの操作を契機としてもよい。また、上記した実施形態では、ペンダウン操作/ペンアップ操作を契機としてプロセッサ24が仮想空間50の視点を切り替える表示制御を行っているが、これに代えて、視点を切り替えない表示制御を行ってもよい。
10…入力システム、20…ウェアラブルデバイス、22…表示パネル(表示ユニット)、23…視線センサ(位置検出部)、24…プロセッサ、30…スタイラス(指示デバイス)、40…タブレット(検出デバイス)、50…仮想空間(空間)、52…視線位置、72…基準位置、74…指示対象領域


Claims (12)

  1. 指示デバイスと、
    前記指示デバイスの指示位置を検出する検出デバイスと、
    前記検出デバイスとは別体に設けられ、かつ空間を表示する表示ユニットと、
    前記空間内のユーザの視線位置を検出する位置検出部と、
    プロセッサと、を備え、
    前記プロセッサは、
    前記指示デバイスによる所定の操作を受け付けた時点にて前記位置検出部により検出された前記視線位置に基づいて、前記指示デバイスの基準位置を含む指示対象領域を前記空間の中から設定し、
    前記空間上に重ねて前記指示デバイスの指示位置を前記指示対象領域内に表示するように前記表示ユニットを制御する、入力システム。
  2. 前記指示対象領域は、前記空間内にある物体毎又は物体面毎に設定可能である、
    請求項1に記載の入力システム。
  3. 前記プロセッサは、前回の視線位置と今回の視線位置とが同一の物体上又は物体面上にある場合、前回に設定された場合と同一の前記基準位置及び前記指示対象領域を設定する、
    請求項2に記載の入力システム。
  4. 前記プロセッサは、前回の視線位置と今回の視線位置とが異なる物体上又は物体面上にある場合、前回に設定された場合とは異なる前記基準位置及び前記指示対象領域を設定する、
    請求項2に記載の入力システム。
  5. 前記空間は、仮想現実空間であり、
    前記プロセッサは、前記指示対象領域が設定された場合、前記指示対象領域が正面になる視点に切り替えて前記仮想現実空間を表示させる、
    請求項1~4のいずれか1項に記載の入力システム。
  6. 前記指示デバイス又は前記検出デバイスは、前記所定の操作を受け付けた時点から、前記指示デバイスの移動量を逐次的に出力し、
    前記プロセッサは、所定の変換規則に従って前記指示デバイスの移動量を変換し、変換後の移動量を前記基準位置の座標値に逐次加算することで、前記空間上の前記指示位置を算出する、
    請求項1~5のいずれか1項に記載の入力システム。
  7. 前記指示デバイス及び前記検出デバイスは、相互に通信可能であり、
    前記指示デバイスは、自装置の状態又は状態の時間変化を示す第1状態量を計測可能であり、
    前記検出デバイスは、自装置の状態又は状態の時間変化を示す第2状態量を計測可能であり、
    前記指示デバイスは、第2通信により、前記第2状態量を含む第2データを前記検出デバイスから受信するとともに、第1通信により、前記第1状態量及び前記第2状態量を集約した第1データを前記プロセッサに送信する、
    請求項1に記載の入力システム。
  8. 前記集約は、前記第1状態量から前記第2状態量を差し引いて相対状態量を算出すること、又は、前記第1状態量及び前記第2状態量を連結することである、
    請求項7に記載の入力システム。
  9. 前記第2通信は、前記プロセッサとの間で行われない、前記第1通信と異なる手段を用いた通信である、
    請求項8に記載の入力システム。
  10. 前記第2通信は、リレー通信である、
    請求項9に記載の入力システム。
  11. 前記第2通信の実行頻度は、前記第1通信の実行頻度よりも低い、
    請求項10に記載の入力システム。
  12. 指示デバイスと、前記指示デバイスの指示位置を検出する検出デバイスと、
    前記検出デバイスとは別体に設けられ、かつ空間を表示する表示ユニットと、
    前記空間内のユーザの視線位置を検出する位置検出部と、
    を含んで構成される入力システムを用いた入力方法であって、
    1又は複数のプロセッサが、
    前記指示デバイスによる所定の操作を受け付けた時点にて前記位置検出部により検出された前記視線位置に基づいて、前記指示デバイスの基準位置を含む指示対象領域を前記空間の中から設定するステップと、
    前記空間上に重ねて前記指示デバイスの指示位置を前記指示対象領域内に表示するように前記表示ユニットを制御するステップと、
    を実行する入力方法。

JP2020141485A 2020-08-25 2020-08-25 入力システム及び入力方法 Active JP7504723B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2020141485A JP7504723B2 (ja) 2020-08-25 2020-08-25 入力システム及び入力方法
US17/399,736 US11586300B2 (en) 2020-08-25 2021-08-11 Input system and input method for setting instruction target area including reference position of instruction device
CN202110929198.1A CN114115516A (zh) 2020-08-25 2021-08-13 输入系统及输入方法
US18/162,441 US11995252B2 (en) 2020-08-25 2023-01-31 Input system and input method for setting instruction target area including reference position of instruction device
US18/645,275 US20240272731A1 (en) 2020-08-25 2024-04-24 Input system and input method for setting instruction target area including reference position of instruction device
JP2024094792A JP2024107350A (ja) 2020-08-25 2024-06-12 入力システム及び入力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020141485A JP7504723B2 (ja) 2020-08-25 2020-08-25 入力システム及び入力方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024094792A Division JP2024107350A (ja) 2020-08-25 2024-06-12 入力システム及び入力方法

Publications (2)

Publication Number Publication Date
JP2022037377A true JP2022037377A (ja) 2022-03-09
JP7504723B2 JP7504723B2 (ja) 2024-06-24

Family

ID=80356810

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020141485A Active JP7504723B2 (ja) 2020-08-25 2020-08-25 入力システム及び入力方法
JP2024094792A Pending JP2024107350A (ja) 2020-08-25 2024-06-12 入力システム及び入力方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024094792A Pending JP2024107350A (ja) 2020-08-25 2024-06-12 入力システム及び入力方法

Country Status (3)

Country Link
US (3) US11586300B2 (ja)
JP (2) JP7504723B2 (ja)
CN (1) CN114115516A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7504723B2 (ja) * 2020-08-25 2024-06-24 株式会社ワコム 入力システム及び入力方法
EP4310640A4 (en) * 2021-05-06 2024-05-22 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND CONTROL METHOD FOR ELECTRONIC DEVICE

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110032274A1 (en) * 2008-04-10 2011-02-10 Pioneer Corporation Screen display system and screen display program
JP2013125487A (ja) 2011-12-16 2013-06-24 Konica Minolta Business Technologies Inc 空間手書きシステム及び電子ペン
US10740971B2 (en) 2015-01-20 2020-08-11 Microsoft Technology Licensing, Llc Augmented reality field of view object follower
CN105988567B (zh) * 2015-02-12 2023-03-28 北京三星通信技术研究有限公司 手写信息的识别方法和装置
US9898865B2 (en) 2015-06-22 2018-02-20 Microsoft Technology Licensing, Llc System and method for spawning drawing surfaces
US10198855B2 (en) * 2016-07-20 2019-02-05 Colopl, Inc. Method of providing virtual space, method of providing virtual experience, system and medium for implementing the methods
US20180101986A1 (en) 2016-10-10 2018-04-12 Aaron Mackay Burns Drawing in a 3d virtual reality environment
EP3680755A4 (en) 2017-09-04 2020-10-28 Wacom Co., Ltd. SPATIAL POSITION INDICATOR SYSTEM
WO2019093156A1 (ja) * 2017-11-10 2019-05-16 ソニーセミコンダクタソリューションズ株式会社 表示処理装置および表示処理方法、並びにプログラム
US11769159B2 (en) * 2017-11-13 2023-09-26 Aloke Chaudhuri System and method for human emotion and identity detection
CN108732764B (zh) * 2018-06-06 2024-05-31 北京七鑫易维信息技术有限公司 一种智能眼镜、眼球轨迹的追踪方法、装置及存储介质
JP2021141573A (ja) * 2020-03-06 2021-09-16 キヤノン株式会社 電子機器
WO2021226445A1 (en) * 2020-05-08 2021-11-11 Mvi Health Inc. Avatar tracking and rendering in virtual reality
JP7504723B2 (ja) * 2020-08-25 2024-06-24 株式会社ワコム 入力システム及び入力方法

Also Published As

Publication number Publication date
CN114115516A (zh) 2022-03-01
JP2024107350A (ja) 2024-08-08
US20240272731A1 (en) 2024-08-15
JP7504723B2 (ja) 2024-06-24
US11586300B2 (en) 2023-02-21
US20230168752A1 (en) 2023-06-01
US11995252B2 (en) 2024-05-28
US20220066577A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
US9250799B2 (en) Control method for information input device, information input device, program therefor, and information storage medium therefor
CN107615214B (zh) 界面控制系统、界面控制装置、界面控制方法及程序
JP2024107350A (ja) 入力システム及び入力方法
CN102426486B (zh) 一种立体交互方法及被操作设备
TWI530858B (zh) 一種立體交互系統和立體交互方法
JP2011237838A (ja) プログラム、情報入力装置、及びその制御方法
CN117348743A (zh) 计算机、渲染方法以及位置指示装置
JP6386897B2 (ja) 電子黒板、情報処理プログラムおよび情報処理方法
US20150309597A1 (en) Electronic apparatus, correction method, and storage medium
US20210157419A1 (en) Interface device and on-panel pad
GB2517284A (en) Operation input device and input operation processing method
CN102508561A (zh) 一种操作棒
JP2009238004A (ja) ポインティングデバイス
JP2000207114A (ja) 力覚提示方法及び力覚ペンタブレット
CN103869941B (zh) 具虚拟触控服务的电子装置及虚拟触控即时校正方法
JP7513262B2 (ja) 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム
JP2009187353A (ja) 入力装置
EP4252871A1 (en) System, imaging device, information processing device, information processing method, and information processing program
US20230166179A1 (en) Operation system, information processing system, operation information generation method, and operation information generation program
WO2022249970A1 (ja) 装置又は方法
TW202232288A (zh) 電腦、方法及程式
TW202340926A (zh) 作業支援系統以及方法
KR20130030452A (ko) 가상 화면 영역의 재구성이 가능한 센서를 이용한 다기능 입력 장치
JP2012155480A (ja) 携帯型情報機器用入力装置
KR20150013472A (ko) 3d 입력을 제공하기 위한 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240612

R150 Certificate of patent or registration of utility model

Ref document number: 7504723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150