JP2020149269A - 文字入力装置、文字入力方法、及び、文字入力プログラム - Google Patents

文字入力装置、文字入力方法、及び、文字入力プログラム Download PDF

Info

Publication number
JP2020149269A
JP2020149269A JP2019045469A JP2019045469A JP2020149269A JP 2020149269 A JP2020149269 A JP 2020149269A JP 2019045469 A JP2019045469 A JP 2019045469A JP 2019045469 A JP2019045469 A JP 2019045469A JP 2020149269 A JP2020149269 A JP 2020149269A
Authority
JP
Japan
Prior art keywords
character input
character
display unit
virtual space
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019045469A
Other languages
English (en)
Inventor
理樹 野村
Masaki Nomura
理樹 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2019045469A priority Critical patent/JP2020149269A/ja
Priority to EP20156562.9A priority patent/EP3709132A1/en
Priority to US16/794,380 priority patent/US20200293118A1/en
Publication of JP2020149269A publication Critical patent/JP2020149269A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/018Input/output arrangements for oriental characters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】利用者の没入感を損なうことなく、効率的な入力操作を実現する。【解決手段】文字入力装置は、文字仮想入力機能を備えた仮想空間の情景画像を表示する表示部と、文字仮想入力機能において文字入力の開始位置を特定する開始文字特定部と、開始位置を基点にした方向を検出する方向特定部と、方向に基づいて文字入力を確定する操作検出部と、文字入力の操作内容を表示部に出力する制御部と、を備える。【選択図】図1

Description

この発明は、仮想空間における文字入力技術に関する。
特許文献1に記載の構成では、仮想空間において、タッチパッドの操作が可能な入力装置を備える。利用者は、入力装置を指で操作することによって、仮想空間への文字入力またはアプリケーション等の操作を行っている。
特開2014−154074号公報
しかしながら、特許文献1の構成では、利用者が入力装置を自身の手に持った状態で操作を行う必要があるため、その他の操作が限定される。このことから、仮想空間における利用者の没入感が損なわれる虞があった。
したがって、本発明の目的は、利用者の没入感を損なうことなく、効率的な入力操作を実現することである。
この文字入力装置は、文字仮想入力機能を備えた仮想空間の情景画像を表示する表示部と、文字仮想入力機能において文字入力の開始位置を特定する開始文字特定部と、開始位置を基点にした方向を検出する操作方向特定部と、方向に基づいて文字入力を確定する操作検出部と、文字入力の操作内容を表示部に出力する制御部と、を備える。
この構成では、利用者は仮想空間における没入感を損なわず、文字入力を効率的に行うことができる。
この文字入力装置の操作方向特定部は、タッチパッドであってもよい。
この構成では、文字入力時における方向の特定が容易に行える。
この文字入力装置の操作方向特定部は、十字キーであってもよい。
この構成では、文字入力時における方向の特定が確実に行える。
この文字入力装置の表示部は、現実空間に仮想空間を重畳させて表示してもよい。
この構成では、拡張現実に適用可能である。
この文字入力装置の表示部は、仮想空間に現実空間を重畳させて表示してもよい。
この構成では、複合現実に適用可能である。
この文字入力装置の表示部は、現実空間に時間軸を有する仮想空間を重畳させて表示してもよい。
この構成では、代替現実に適用可能である。
この発明によれば、利用者の没入感を損なうことなく、効率的な入力操作を実現することができる。
本発明の第1の実施形態に係る文字入力装置のブロック図である。 (A)、(B)は、本発明の第1の実施形態に係る文字入力装置の概要図である。 本発明の第1の実施形態に係る文字入力装置の動作を表すフローチャートである。 本発明の第2の実施形態に係る文字入力装置を用いた概要図である。 本発明の第3の実施形態に係る文字入力装置のブロック図である。 本発明の第3の実施形態に係る文字入力装置を用いた概要図である。
以下、本発明を実施するための形態について、幾つかの図を参照して説明する。
・適用例
まず、図1を用いて、本発明が適用される一例について説明する。図1は、本発明の第1の実施形態に係る文字入力装置のブロック図である。文字入力装置10は、例えばスティック状のハンドコントローラであり、利用者の手の動きを検知する。
文字入力装置10は、開始文字特定部110と、操作方向特定部120と、操作検出部130と、制御部140を備える。
利用者は、VRヘッドセットを装着することによって仮想空間を体験する。VRヘッドセットとは、仮想空間を体験するためのゴーグル形状の装置であり、ジャイロスコープ、加速度計、磁力計等を備える。VRヘッドセットは、利用者の頭部に装着され、頭部が前後、左右、上下に動くことを検知することによって、仮想空間内のX軸、Y軸、Z軸に反映する。
仮想空間20は、表示部200を備える。言い換えれば、表示部200は、利用者がVRヘッドセットを装着することによって視認が可能である仮想空間20の情景画像に配置されている。
表示部200は、仮想空間20における文字入力を可能とする仮想ソフトウェアキーボードを備え、該ソフトウェアキーボードは文字列を例えばテンキーと同様の形式で配置されている。仮想空間20において、文字入力装置10で文字入力を行う処理を実行すると、文字入力に応じた表示画像が表示部200に出力される構成を有する。なお、ソフトウェアキーボードは文字列を入力可能な構造であればよく、上述のテンキーと同様の形式に限定されない。
利用者は、仮想空間20内で表示部200を特定し、文字「の」を入力する場合を例に説明する。利用者は、文字入力装置10の開始文字特定部110を用いて、「な行」を特定する。操作検出部130は、「な行」の入力を検知する。
操作検出部130は、「な行」の入力を制御部140に出力する。制御部140は、「な行」の入力を表示部200に出力する。
表示部200は、「な行」のフリックガイドを表示する構造であってもよい。フリックガイドとは、入力したい文字が割り当てられているキーを選択することによって、該入力したい文字の行に含まれる文字をガイド表示する機能である。
より具体的には、例えば、利用者は文字「な」を選択する。このことによって、別領域に文字「な」、文字「に」、文字「ぬ」、文字「ね」、文字「の」がガイド表示される。すなわち、該フリックガイドを用いることによって、利用者は入力したい文字を明確に認識できる。
利用者は、文字入力装置10の操作方向特定部120を用いることによって、文字「の」を選択する。
操作検出部130は、利用者によって文字「の」が選択されたことを検知する。操作検出部130は、文字「の」が選択されたことを制御部140に出力する。制御部140は、文字「の」を表示部200に出力する。
このことによって、利用者は仮想空間20において、文字入力を行うことができる。また、利用者は簡単な操作を行うのみで文字入力を行うことができる。さらに、文字入力は使い慣れた文字入力方法を利用できるため、没入感が妨げられない。
・構成例1
図1は、本発明の第1の実施形態に係る文字入力装置のブロック図である。図2(A)、図2(B)は、本発明の第1の実施形態に係る文字入力装置を用いた概要図である。図3は本発明の第1の実施形態に係る文字入力装置の動作を表すフローチャートである。
上述の図1の文字入力装置10の構成に基づき、図2(A)、図2(B)を用いて、より具体的な構成例を説明する。
図1、図2(A)に示すように、利用者40は、VRヘッドセット30を装着する。このことによって、利用者40はVRヘッドセット30を介して、仮想空間20を視認する。仮想空間20には表示部200を備える。
利用者40は、文字入力装置10を保持する。図2(B)に示すように、文字入力装置10は、操作方向特定部120を備える。操作方向特定部120は、例えばタッチパッドである。より具体的には、タッチパッドは平板状のセンサを備えており、該センサを指でなぞることによって、操作を行う。
利用者40は、仮想空間20内で表示部200を特定し、文字「の」を入力する。利用者40は、「な行」を特定する。より具体的には、仮想空間20内の表示部200において、レーザーポインター等を用いることで「な行」を特定する。例えば、VRヘッドセット30の注視点カーソルによって、「な行」の位置に特定する構成であってもよい。このことによって、操作検出部130は、「な行」の入力を検知する。
操作検出部130は、「な行」の入力を制御部140に出力する。制御部140は、「な行」の入力を表示部200に出力する。
利用者40は、操作方向特定部120のタッチパッドをフリック入力と同様の操作で、表示部200において、文字「な」をポインティングしている状態を保つ。この際、「な行」の文字がフリックガイド220によって表示される。利用者40は、文字「な」を基点に下方向にスライドさせる。このことによって、文字「の」が選択される。なお、文字「な」が本発明の「開始位置」に対応する。
なお、文字「な」を入力したい場合には、次の操作を用いるとよい。利用者40は、文字「な」をポインティングした状態で操作方向特定部120をタップする。このことによって、文字「な」が入力される。
操作検出部130は、利用者40によって文字「の」が選択されたことを検知する。操作検出部130は、文字「の」が選択されたことを制御部140に出力する。制御部140は、文字「の」を表示部200に出力する。
図3のフローチャートを用いて、文字入力装置10の処理の流れを説明する。
文字入力装置10は利用者40の操作を受け付けて、仮想空間20に表示部200を起動させる(S101)。
文字入力装置10は利用者40の操作を受け付けて、表示部200において開始文字を特定する(S102)。
操作検出部130は、開始文字が特定されたかどうかを判定する(S103)。操作検出部130は、開始文字が特定されたと判断した場合(S103:Yes)、文字入力装置10は、利用者40の操作を受け付けて、任意の入力文字を選択する(S104)。この際、任意の入力文字はフリックガイドを用いて表示されてもよい。
操作検出部130は、入力文字が選択されたかどうかを判定する(S105)。操作検出部130は、入力文字が選択されたと判断した場合(S105:Yes)、制御部140は、表示部200に入力文字を出力する(S106)。
ステップS103において、開始文字が特定されていないと判断した場合(S103:No)、ステップS102を再度実行する。
ステップS106において、入力文字が選択されていないと判断した場合(S103:No)、ステップS104を再度実行する。
このことによって、利用者40は仮想空間20において、文字入力を行うことができる。また、利用者40は簡単な操作を行うのみで文字入力を行うことができる。さらに、文字入力は使い慣れたフリック操作を用いた文字入力方法を利用できるため、没入感が妨げられない。
なお、上述の構成では、操作方向特定部120にタッチパッドを用いる例について説明した。しかしながら、入力文字を選択する際に、フリック操作のようなスライド操作によって該入力文字を選択できる構成であればよい。
文字入力装置10の形状についても、利用者の操作感が失われない形状であればよく、操作方向特定部120の形状についても限定されない。
なお、上述の構成では、表示部200において、フリックガイド220を用いて、文字を入力する構成について説明した。フリックガイド220を用いることによって、利用者40が文字入力を行う際のユーザビリティは向上する。一方で、フリックガイドを用いることによって、利用者40の没入感が損なわれる場合には、フリックガイド220を省略することが可能である。
・構成例2
次に、図4を用いて、文字を入力する具体的な動作について説明する。図4は、本発明の第2の実施形態に係る文字入力装置の概要図である。
第2の実施形態においては、第1の実施形態と比較して、操作検出部の形状が異なる。その他の点については、第1の実施形態と同様であり、同様の箇所の説明は省略する。
文字入力装置10Aは、操作方向特定部120Aを備える。操作方向特定部120Aは例えば、十字キーの構造を有する。
この構成を備えることによって、利用者はどの方向を特定しているかをより判断しやすい。すなわち、入力文字を選択する際の誤入力が抑制される。
この構成であっても、利用者40は仮想空間20において、文字入力を行うことができる。また、利用者40は簡単な操作を行うのみで文字入力を行うことができる。さらに、文字入力は使い慣れた十字キーを用いた文字入力方法を利用できるため、没入感が妨げられない。
・構成例3
次に、図5を用いて、文字を入力する具体的な動作について説明する。図5は、本発明の第3の実施形態に係る文字入力装置のブロック図である。図6は、本発明の第3の実施形態に係る文字入力装置を用いた概要図である。
第3の実施形態においては、第1の実施形態と比較して、透過表示部200Aを備えている点で異なる。その他の点については、第1の実施形態と同様であり、同様の箇所の説明は省略する。
仮想空間20Aは、透過表示部200Aを備える。より具体的には、透過表示部200Aは、現実空間に仮想空間20Aを重畳させて表示されている。言い換えれば、仮想空間20Aは、拡張現実ARに適用される。
透過表示部200Aは、カメラ機能を備えた、板状かつ薄型の装置に含まれる。透過表示部200Aは、例えばスマートフォン等の液晶表示部である。
利用者40は、カメラ機能を用いて現実空間50を撮像する。透過表示部200Aには、現実空間を撮像した画像が表示される。
利用者40は、透過表示部200Aにおいて、文字「の」を入力する。利用者40は、透過表示部200Aにおいて「な行」を特定する。操作検出部130は、「な行」の入力を検知する。
操作検出部130は、「な行」の入力を制御部140に出力する。制御部140は、「な行」の入力を透過表示部200Aに出力する。
透過表示部200Aは、フリックガイド220を用いて、「な行」の文字を表示する。
利用者40は、操作方向特定部120のタッチパッドをフリック入力と同様の操作で文字「な」を基点にスライドさせることによって、文字「の」を選択する。この場合、利用者40は、文字入力装置10を平面視して下方向にスライドする。このことによって、文字「の」が選択される。
操作検出部130は、利用者40によって文字「の」が選択されたことを検知する。操作検出部130は、文字「の」が選択されたことを制御部140に出力する。制御部140は、文字「の」を透過表示部200Aに出力する。
この構成を用いることによって、利用者40は拡張現実の空間においても文字入力を行うことができる。また、利用者40は簡単な操作を行うのみで文字入力を行うことができる。さらに、文字入力は使い慣れた文字入力方法を利用できるため、没入感が妨げられない。
なお、拡張現実ARは、ビジョンベース型、マーカーレス型のどちらであってもよい。
上述の例は、拡張現実ARに適用する構成を示した。しかしながら、透過表示部200Aを仮想空間に現実空間を重畳させて複合的に表示する、複合現実MRに適用することも可能である。
さらには、時間軸を有する仮想空間を現実空間に重畳させて表示する空間に適用することも可能である。
さらに、この発明に係る構成と上述した実施形態に係る構成との対応関係は、以下の付記のように記載できる。
<付記>
文字入力を可能とする仮想空間の情景画像を表示する表示部(200)と、
前記文字入力の開始位置を特定する開始文字特定部(110)と、
前記開始位置を基点にした、方向を検出する操作方向特定部(120)と、
前記方向に基づいて前記文字入力を確定する操作検出部(130)と、
前記文字入力の操作内容を前記表示部に出力する制御部(140)と、
を備えた、文字入力装置(10)。
10、10A…文字入力装置
20、20A…仮想空間
30…VRヘッドセット
40…利用者
50…現実空間
110…開始文字特定部
120、120A…操作方向特定部
130…操作検出部
140…制御部
200…表示部
200A…透過表示部
210…文字列表示領域
220…フリックガイド

Claims (8)

  1. 文字入力を可能とする仮想空間の情景画像を表示する表示部と、
    前記文字入力の開始位置を特定する開始文字特定部と、
    前記開始位置を基点にした、方向を検出する操作方向特定部と、
    前記方向に基づいて前記文字入力を確定する操作検出部と、
    前記文字入力の操作内容を前記表示部に出力する制御部と、
    を備えた、文字入力装置。
  2. 前記操作方向特定部は、タッチパッドである、請求項1に記載の文字入力装置。
  3. 前記操作方向特定部は、十字キーである、請求項1に記載の文字入力装置。
  4. 前記表示部は、現実空間に前記仮想空間を重畳させて表示する、請求項1に記載の文字入力装置。
  5. 前記表示部は、前記仮想空間に現実空間を重畳させて表示する、請求項1に記載の文字入力装置。
  6. 前記表示部は、時間軸を有する前記仮想空間を現実空間に重畳させて表示する、請求項1に記載の文字入力装置。
  7. 文字入力を可能とする仮想空間の情景画像を表示するステップと、
    前記文字入力の開始位置を特定するステップと、
    前記開始位置を基点にした、方向を検出ステップと、
    前記方向に基づいて前記文字入力を確定するステップと、
    前記文字入力の操作内容を出力するステップと、
    を、コンピュータが実行する、文字入力方法。
  8. 文字入力を可能とする仮想空間の情景画像を表示するステップと、
    前記文字入力の開始位置を特定するステップと、
    前記開始位置を基点にした、方向を検出ステップと、
    前記方向に基づいて前記文字入力を確定するステップと、
    前記文字入力の操作内容を出力するステップと、
    を、コンピュータに実行させる、文字入力プログラム。
JP2019045469A 2019-03-13 2019-03-13 文字入力装置、文字入力方法、及び、文字入力プログラム Pending JP2020149269A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019045469A JP2020149269A (ja) 2019-03-13 2019-03-13 文字入力装置、文字入力方法、及び、文字入力プログラム
EP20156562.9A EP3709132A1 (en) 2019-03-13 2020-02-11 Character input device, character input method, and character input program
US16/794,380 US20200293118A1 (en) 2019-03-13 2020-02-19 Character input device, character input method, and character input program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019045469A JP2020149269A (ja) 2019-03-13 2019-03-13 文字入力装置、文字入力方法、及び、文字入力プログラム

Publications (1)

Publication Number Publication Date
JP2020149269A true JP2020149269A (ja) 2020-09-17

Family

ID=69571794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019045469A Pending JP2020149269A (ja) 2019-03-13 2019-03-13 文字入力装置、文字入力方法、及び、文字入力プログラム

Country Status (3)

Country Link
US (1) US20200293118A1 (ja)
EP (1) EP3709132A1 (ja)
JP (1) JP2020149269A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115562496B (zh) * 2022-11-04 2023-12-15 浙江舜为科技有限公司 Xr设备及基于xr设备的字符输入方法和字符修改方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182228A (ja) * 2016-03-29 2017-10-05 セイコーエプソン株式会社 入力装置、入力方法、コンピュータープログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120242698A1 (en) * 2010-02-28 2012-09-27 Osterhout Group, Inc. See-through near-eye display glasses with a multi-segment processor-controlled optical layer
JP2014154074A (ja) 2013-02-13 2014-08-25 Seiko Epson Corp 入力装置、頭部装着型表示装置および入力装置の制御方法
CN106933364B (zh) * 2017-03-15 2019-09-27 京东方科技集团股份有限公司 字符输入方法、字符输入设备以及可穿戴设备
US10671181B2 (en) * 2017-04-03 2020-06-02 Microsoft Technology Licensing, Llc Text entry interface

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182228A (ja) * 2016-03-29 2017-10-05 セイコーエプソン株式会社 入力装置、入力方法、コンピュータープログラム

Also Published As

Publication number Publication date
EP3709132A1 (en) 2020-09-16
US20200293118A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
US9176668B2 (en) User interface for text input and virtual keyboard manipulation
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
JP4351599B2 (ja) 入力装置
JP6159323B2 (ja) 情報処理方法及び情報処理装置
DK2202609T3 (en) Eye control of computer equipment
JP6394163B2 (ja) グラフ表示装置、グラフ表示方法およびプログラム
JP6991486B2 (ja) 文字列に文字を挿入するための方法およびシステム
JP2013242821A (ja) 映像表示装置、およびその映像操作方法
Witt et al. Designing a wearable user interface for hands-free interaction in maintenance applications
WO2009031478A2 (en) Information processor, user interface control method and program
JP2007299291A (ja) 文字入力装置、文字入力方法及びプログラム
KR20200102228A (ko) 입력 방법 및 이를 수행하는 장치들
JP2015135572A (ja) 情報処理装置とその制御方法
JP2020149269A (ja) 文字入力装置、文字入力方法、及び、文字入力プログラム
WO2018123320A1 (ja) ユーザーインターフェイス装置及び電子機器
JP2009252190A (ja) メニュー画面表示装置、メニュー画面表示方法、及びコンピュータプログラム
US10901495B2 (en) Techniques for multi-finger typing in mixed-reality
KR100996075B1 (ko) 사용자 인터페이스 장치 및 방법
JP4143529B2 (ja) 情報入力装置、情報入力方法、コンピュータプログラム及びコンピュータ読み取り可能な記憶媒体
Petrie et al. Older people’s use of tablets and smartphones: A review of research
JP2010015603A (ja) 表示装置
KR100772505B1 (ko) 터치스크린을 이용한 입력 장치 및 방법
US10678426B2 (en) User interface apparatus and method to input scale data
KR101809047B1 (ko) 단축키 안내 장치 및 안내 방법
JP2024018909A (ja) スマートウォッチを用いたxr操作機能

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220816