JP2020149269A - Character inputting device, character inputting method, and character inputting program - Google Patents
Character inputting device, character inputting method, and character inputting program Download PDFInfo
- Publication number
- JP2020149269A JP2020149269A JP2019045469A JP2019045469A JP2020149269A JP 2020149269 A JP2020149269 A JP 2020149269A JP 2019045469 A JP2019045469 A JP 2019045469A JP 2019045469 A JP2019045469 A JP 2019045469A JP 2020149269 A JP2020149269 A JP 2020149269A
- Authority
- JP
- Japan
- Prior art keywords
- character input
- character
- display unit
- virtual space
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/018—Input/output arrangements for oriental characters
Abstract
Description
この発明は、仮想空間における文字入力技術に関する。 The present invention relates to a character input technique in a virtual space.
特許文献1に記載の構成では、仮想空間において、タッチパッドの操作が可能な入力装置を備える。利用者は、入力装置を指で操作することによって、仮想空間への文字入力またはアプリケーション等の操作を行っている。 The configuration described in Patent Document 1 includes an input device capable of operating a touch pad in a virtual space. By operating the input device with a finger, the user inputs characters into the virtual space or operates an application or the like.
しかしながら、特許文献1の構成では、利用者が入力装置を自身の手に持った状態で操作を行う必要があるため、その他の操作が限定される。このことから、仮想空間における利用者の没入感が損なわれる虞があった。 However, in the configuration of Patent Document 1, other operations are limited because it is necessary for the user to perform the operation while holding the input device in his / her own hand. For this reason, there is a risk that the user's immersive feeling in the virtual space will be impaired.
したがって、本発明の目的は、利用者の没入感を損なうことなく、効率的な入力操作を実現することである。 Therefore, an object of the present invention is to realize an efficient input operation without impairing the immersive feeling of the user.
この文字入力装置は、文字仮想入力機能を備えた仮想空間の情景画像を表示する表示部と、文字仮想入力機能において文字入力の開始位置を特定する開始文字特定部と、開始位置を基点にした方向を検出する操作方向特定部と、方向に基づいて文字入力を確定する操作検出部と、文字入力の操作内容を表示部に出力する制御部と、を備える。 This character input device is based on a display unit that displays a scene image of a virtual space having a character virtual input function, a start character identification unit that specifies the start position of character input in the character virtual input function, and a start position. It includes an operation direction specifying unit that detects a direction, an operation detection unit that determines character input based on the direction, and a control unit that outputs the operation content of the character input to the display unit.
この構成では、利用者は仮想空間における没入感を損なわず、文字入力を効率的に行うことができる。 In this configuration, the user can efficiently input characters without impairing the immersive feeling in the virtual space.
この文字入力装置の操作方向特定部は、タッチパッドであってもよい。 The operation direction specifying unit of this character input device may be a touch pad.
この構成では、文字入力時における方向の特定が容易に行える。 With this configuration, the direction at the time of character input can be easily specified.
この文字入力装置の操作方向特定部は、十字キーであってもよい。 The operation direction specifying unit of this character input device may be a cross key.
この構成では、文字入力時における方向の特定が確実に行える。 With this configuration, the direction can be reliably specified when inputting characters.
この文字入力装置の表示部は、現実空間に仮想空間を重畳させて表示してもよい。 The display unit of this character input device may display a virtual space superimposed on the real space.
この構成では、拡張現実に適用可能である。 In this configuration, it is applicable to augmented reality.
この文字入力装置の表示部は、仮想空間に現実空間を重畳させて表示してもよい。 The display unit of this character input device may display the real space superimposed on the virtual space.
この構成では、複合現実に適用可能である。 This configuration is applicable to mixed reality.
この文字入力装置の表示部は、現実空間に時間軸を有する仮想空間を重畳させて表示してもよい。 The display unit of this character input device may display a virtual space having a time axis superimposed on the real space.
この構成では、代替現実に適用可能である。 In this configuration, it is applicable to substitute reality.
この発明によれば、利用者の没入感を損なうことなく、効率的な入力操作を実現することができる。 According to the present invention, an efficient input operation can be realized without impairing the immersive feeling of the user.
以下、本発明を実施するための形態について、幾つかの図を参照して説明する。 Hereinafter, embodiments for carrying out the present invention will be described with reference to some figures.
・適用例
まず、図1を用いて、本発明が適用される一例について説明する。図1は、本発明の第1の実施形態に係る文字入力装置のブロック図である。文字入力装置10は、例えばスティック状のハンドコントローラであり、利用者の手の動きを検知する。
・ Application example
First, an example to which the present invention is applied will be described with reference to FIG. FIG. 1 is a block diagram of a character input device according to the first embodiment of the present invention. The
文字入力装置10は、開始文字特定部110と、操作方向特定部120と、操作検出部130と、制御部140を備える。
The
利用者は、VRヘッドセットを装着することによって仮想空間を体験する。VRヘッドセットとは、仮想空間を体験するためのゴーグル形状の装置であり、ジャイロスコープ、加速度計、磁力計等を備える。VRヘッドセットは、利用者の頭部に装着され、頭部が前後、左右、上下に動くことを検知することによって、仮想空間内のX軸、Y軸、Z軸に反映する。 The user experiences the virtual space by wearing the VR headset. A VR headset is a goggle-shaped device for experiencing a virtual space, and includes a gyroscope, an accelerometer, a magnetometer, and the like. The VR headset is attached to the user's head, and by detecting that the head moves back and forth, left and right, and up and down, it is reflected on the X-axis, Y-axis, and Z-axis in the virtual space.
仮想空間20は、表示部200を備える。言い換えれば、表示部200は、利用者がVRヘッドセットを装着することによって視認が可能である仮想空間20の情景画像に配置されている。
The
表示部200は、仮想空間20における文字入力を可能とする仮想ソフトウェアキーボードを備え、該ソフトウェアキーボードは文字列を例えばテンキーと同様の形式で配置されている。仮想空間20において、文字入力装置10で文字入力を行う処理を実行すると、文字入力に応じた表示画像が表示部200に出力される構成を有する。なお、ソフトウェアキーボードは文字列を入力可能な構造であればよく、上述のテンキーと同様の形式に限定されない。
The
利用者は、仮想空間20内で表示部200を特定し、文字「の」を入力する場合を例に説明する。利用者は、文字入力装置10の開始文字特定部110を用いて、「な行」を特定する。操作検出部130は、「な行」の入力を検知する。
The case where the user specifies the
操作検出部130は、「な行」の入力を制御部140に出力する。制御部140は、「な行」の入力を表示部200に出力する。
The
表示部200は、「な行」のフリックガイドを表示する構造であってもよい。フリックガイドとは、入力したい文字が割り当てられているキーを選択することによって、該入力したい文字の行に含まれる文字をガイド表示する機能である。
The
より具体的には、例えば、利用者は文字「な」を選択する。このことによって、別領域に文字「な」、文字「に」、文字「ぬ」、文字「ね」、文字「の」がガイド表示される。すなわち、該フリックガイドを用いることによって、利用者は入力したい文字を明確に認識できる。 More specifically, for example, the user selects the character "na". As a result, the characters "na", the character "ni", the character "nu", the character "ne", and the character "no" are displayed as guides in another area. That is, by using the flick guide, the user can clearly recognize the character to be input.
利用者は、文字入力装置10の操作方向特定部120を用いることによって、文字「の」を選択する。
The user selects the character "no" by using the operation
操作検出部130は、利用者によって文字「の」が選択されたことを検知する。操作検出部130は、文字「の」が選択されたことを制御部140に出力する。制御部140は、文字「の」を表示部200に出力する。
The
このことによって、利用者は仮想空間20において、文字入力を行うことができる。また、利用者は簡単な操作を行うのみで文字入力を行うことができる。さらに、文字入力は使い慣れた文字入力方法を利用できるため、没入感が妨げられない。
As a result, the user can input characters in the
・構成例1
図1は、本発明の第1の実施形態に係る文字入力装置のブロック図である。図2(A)、図2(B)は、本発明の第1の実施形態に係る文字入力装置を用いた概要図である。図3は本発明の第1の実施形態に係る文字入力装置の動作を表すフローチャートである。
-Configuration example 1
FIG. 1 is a block diagram of a character input device according to the first embodiment of the present invention. 2 (A) and 2 (B) are schematic views of the character input device according to the first embodiment of the present invention. FIG. 3 is a flowchart showing the operation of the character input device according to the first embodiment of the present invention.
上述の図1の文字入力装置10の構成に基づき、図2(A)、図2(B)を用いて、より具体的な構成例を説明する。
Based on the configuration of the
図1、図2(A)に示すように、利用者40は、VRヘッドセット30を装着する。このことによって、利用者40はVRヘッドセット30を介して、仮想空間20を視認する。仮想空間20には表示部200を備える。
As shown in FIGS. 1 and 2 (A), the
利用者40は、文字入力装置10を保持する。図2(B)に示すように、文字入力装置10は、操作方向特定部120を備える。操作方向特定部120は、例えばタッチパッドである。より具体的には、タッチパッドは平板状のセンサを備えており、該センサを指でなぞることによって、操作を行う。
The
利用者40は、仮想空間20内で表示部200を特定し、文字「の」を入力する。利用者40は、「な行」を特定する。より具体的には、仮想空間20内の表示部200において、レーザーポインター等を用いることで「な行」を特定する。例えば、VRヘッドセット30の注視点カーソルによって、「な行」の位置に特定する構成であってもよい。このことによって、操作検出部130は、「な行」の入力を検知する。
The
操作検出部130は、「な行」の入力を制御部140に出力する。制御部140は、「な行」の入力を表示部200に出力する。
The
利用者40は、操作方向特定部120のタッチパッドをフリック入力と同様の操作で、表示部200において、文字「な」をポインティングしている状態を保つ。この際、「な行」の文字がフリックガイド220によって表示される。利用者40は、文字「な」を基点に下方向にスライドさせる。このことによって、文字「の」が選択される。なお、文字「な」が本発明の「開始位置」に対応する。
The
なお、文字「な」を入力したい場合には、次の操作を用いるとよい。利用者40は、文字「な」をポインティングした状態で操作方向特定部120をタップする。このことによって、文字「な」が入力される。
If you want to enter the character "na", you can use the following operation. The
操作検出部130は、利用者40によって文字「の」が選択されたことを検知する。操作検出部130は、文字「の」が選択されたことを制御部140に出力する。制御部140は、文字「の」を表示部200に出力する。
The
図3のフローチャートを用いて、文字入力装置10の処理の流れを説明する。
The processing flow of the
文字入力装置10は利用者40の操作を受け付けて、仮想空間20に表示部200を起動させる(S101)。
The
文字入力装置10は利用者40の操作を受け付けて、表示部200において開始文字を特定する(S102)。
The
操作検出部130は、開始文字が特定されたかどうかを判定する(S103)。操作検出部130は、開始文字が特定されたと判断した場合(S103:Yes)、文字入力装置10は、利用者40の操作を受け付けて、任意の入力文字を選択する(S104)。この際、任意の入力文字はフリックガイドを用いて表示されてもよい。
The
操作検出部130は、入力文字が選択されたかどうかを判定する(S105)。操作検出部130は、入力文字が選択されたと判断した場合(S105:Yes)、制御部140は、表示部200に入力文字を出力する(S106)。
The
ステップS103において、開始文字が特定されていないと判断した場合(S103:No)、ステップS102を再度実行する。 If it is determined in step S103 that the start character has not been specified (S103: No), step S102 is executed again.
ステップS106において、入力文字が選択されていないと判断した場合(S103:No)、ステップS104を再度実行する。 If it is determined in step S106 that the input character is not selected (S103: No), step S104 is executed again.
このことによって、利用者40は仮想空間20において、文字入力を行うことができる。また、利用者40は簡単な操作を行うのみで文字入力を行うことができる。さらに、文字入力は使い慣れたフリック操作を用いた文字入力方法を利用できるため、没入感が妨げられない。
As a result, the
なお、上述の構成では、操作方向特定部120にタッチパッドを用いる例について説明した。しかしながら、入力文字を選択する際に、フリック操作のようなスライド操作によって該入力文字を選択できる構成であればよい。
In the above configuration, an example in which the touch pad is used for the operation
文字入力装置10の形状についても、利用者の操作感が失われない形状であればよく、操作方向特定部120の形状についても限定されない。
The shape of the
なお、上述の構成では、表示部200において、フリックガイド220を用いて、文字を入力する構成について説明した。フリックガイド220を用いることによって、利用者40が文字入力を行う際のユーザビリティは向上する。一方で、フリックガイドを用いることによって、利用者40の没入感が損なわれる場合には、フリックガイド220を省略することが可能である。
In the above configuration, a configuration for inputting characters on the
・構成例2
次に、図4を用いて、文字を入力する具体的な動作について説明する。図4は、本発明の第2の実施形態に係る文字入力装置の概要図である。
-Configuration example 2
Next, a specific operation of inputting characters will be described with reference to FIG. FIG. 4 is a schematic view of a character input device according to a second embodiment of the present invention.
第2の実施形態においては、第1の実施形態と比較して、操作検出部の形状が異なる。その他の点については、第1の実施形態と同様であり、同様の箇所の説明は省略する。 In the second embodiment, the shape of the operation detection unit is different from that in the first embodiment. Other points are the same as those in the first embodiment, and the description of the same parts will be omitted.
文字入力装置10Aは、操作方向特定部120Aを備える。操作方向特定部120Aは例えば、十字キーの構造を有する。
The
この構成を備えることによって、利用者はどの方向を特定しているかをより判断しやすい。すなわち、入力文字を選択する際の誤入力が抑制される。 By providing this configuration, it is easier for the user to determine which direction is specified. That is, erroneous input when selecting an input character is suppressed.
この構成であっても、利用者40は仮想空間20において、文字入力を行うことができる。また、利用者40は簡単な操作を行うのみで文字入力を行うことができる。さらに、文字入力は使い慣れた十字キーを用いた文字入力方法を利用できるため、没入感が妨げられない。
Even with this configuration, the
・構成例3
次に、図5を用いて、文字を入力する具体的な動作について説明する。図5は、本発明の第3の実施形態に係る文字入力装置のブロック図である。図6は、本発明の第3の実施形態に係る文字入力装置を用いた概要図である。
-Configuration example 3
Next, a specific operation of inputting characters will be described with reference to FIG. FIG. 5 is a block diagram of a character input device according to a third embodiment of the present invention. FIG. 6 is a schematic view using a character input device according to a third embodiment of the present invention.
第3の実施形態においては、第1の実施形態と比較して、透過表示部200Aを備えている点で異なる。その他の点については、第1の実施形態と同様であり、同様の箇所の説明は省略する。
The third embodiment is different from the first embodiment in that it includes a
仮想空間20Aは、透過表示部200Aを備える。より具体的には、透過表示部200Aは、現実空間に仮想空間20Aを重畳させて表示されている。言い換えれば、仮想空間20Aは、拡張現実ARに適用される。
The
透過表示部200Aは、カメラ機能を備えた、板状かつ薄型の装置に含まれる。透過表示部200Aは、例えばスマートフォン等の液晶表示部である。
The
利用者40は、カメラ機能を用いて現実空間50を撮像する。透過表示部200Aには、現実空間を撮像した画像が表示される。
The
利用者40は、透過表示部200Aにおいて、文字「の」を入力する。利用者40は、透過表示部200Aにおいて「な行」を特定する。操作検出部130は、「な行」の入力を検知する。
The
操作検出部130は、「な行」の入力を制御部140に出力する。制御部140は、「な行」の入力を透過表示部200Aに出力する。
The
透過表示部200Aは、フリックガイド220を用いて、「な行」の文字を表示する。
The
利用者40は、操作方向特定部120のタッチパッドをフリック入力と同様の操作で文字「な」を基点にスライドさせることによって、文字「の」を選択する。この場合、利用者40は、文字入力装置10を平面視して下方向にスライドする。このことによって、文字「の」が選択される。
The
操作検出部130は、利用者40によって文字「の」が選択されたことを検知する。操作検出部130は、文字「の」が選択されたことを制御部140に出力する。制御部140は、文字「の」を透過表示部200Aに出力する。
The
この構成を用いることによって、利用者40は拡張現実の空間においても文字入力を行うことができる。また、利用者40は簡単な操作を行うのみで文字入力を行うことができる。さらに、文字入力は使い慣れた文字入力方法を利用できるため、没入感が妨げられない。
By using this configuration, the
なお、拡張現実ARは、ビジョンベース型、マーカーレス型のどちらであってもよい。 The augmented reality AR may be either a vision-based type or a markerless type.
上述の例は、拡張現実ARに適用する構成を示した。しかしながら、透過表示部200Aを仮想空間に現実空間を重畳させて複合的に表示する、複合現実MRに適用することも可能である。
The above example shows a configuration that applies to augmented reality AR. However, it is also possible to apply the
さらには、時間軸を有する仮想空間を現実空間に重畳させて表示する空間に適用することも可能である。 Furthermore, it is also possible to apply it to a space in which a virtual space having a time axis is superimposed on a real space and displayed.
さらに、この発明に係る構成と上述した実施形態に係る構成との対応関係は、以下の付記のように記載できる。
<付記>
文字入力を可能とする仮想空間の情景画像を表示する表示部(200)と、
前記文字入力の開始位置を特定する開始文字特定部(110)と、
前記開始位置を基点にした、方向を検出する操作方向特定部(120)と、
前記方向に基づいて前記文字入力を確定する操作検出部(130)と、
前記文字入力の操作内容を前記表示部に出力する制御部(140)と、
を備えた、文字入力装置(10)。
Further, the correspondence between the configuration according to the present invention and the configuration according to the above-described embodiment can be described as described in the following appendix.
<Additional notes>
A display unit (200) that displays a scene image of a virtual space that enables character input, and
A start character identification unit (110) for specifying the start position of the character input, and
An operation direction specifying unit (120) for detecting the direction based on the start position, and
An operation detection unit (130) that confirms the character input based on the direction, and
A control unit (140) that outputs the operation content of the character input to the display unit, and
A character input device (10).
10、10A…文字入力装置
20、20A…仮想空間
30…VRヘッドセット
40…利用者
50…現実空間
110…開始文字特定部
120、120A…操作方向特定部
130…操作検出部
140…制御部
200…表示部
200A…透過表示部
210…文字列表示領域
220…フリックガイド
10, 10A ...
Claims (8)
前記文字入力の開始位置を特定する開始文字特定部と、
前記開始位置を基点にした、方向を検出する操作方向特定部と、
前記方向に基づいて前記文字入力を確定する操作検出部と、
前記文字入力の操作内容を前記表示部に出力する制御部と、
を備えた、文字入力装置。 A display unit that displays a scene image of a virtual space that allows character input,
A start character identification part that specifies the start position of the character input, and
An operation direction specifying unit that detects the direction based on the start position,
An operation detection unit that confirms the character input based on the direction,
A control unit that outputs the operation content of the character input to the display unit, and
A character input device equipped with.
前記文字入力の開始位置を特定するステップと、
前記開始位置を基点にした、方向を検出ステップと、
前記方向に基づいて前記文字入力を確定するステップと、
前記文字入力の操作内容を出力するステップと、
を、コンピュータが実行する、文字入力方法。 Steps to display a scene image of a virtual space that allows character input,
The step of specifying the start position of the character input and
With the start position as the base point, the direction detection step and
The step of confirming the character input based on the direction and
The step of outputting the operation content of the character input and
The character input method that the computer executes.
前記文字入力の開始位置を特定するステップと、
前記開始位置を基点にした、方向を検出ステップと、
前記方向に基づいて前記文字入力を確定するステップと、
前記文字入力の操作内容を出力するステップと、
を、コンピュータに実行させる、文字入力プログラム。 Steps to display a scene image of a virtual space that allows character input,
The step of specifying the start position of the character input and
With the start position as the base point, the direction detection step and
The step of confirming the character input based on the direction and
The step of outputting the operation content of the character input and
A character input program that causes a computer to execute.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019045469A JP2020149269A (en) | 2019-03-13 | 2019-03-13 | Character inputting device, character inputting method, and character inputting program |
EP20156562.9A EP3709132A1 (en) | 2019-03-13 | 2020-02-11 | Character input device, character input method, and character input program |
US16/794,380 US20200293118A1 (en) | 2019-03-13 | 2020-02-19 | Character input device, character input method, and character input program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019045469A JP2020149269A (en) | 2019-03-13 | 2019-03-13 | Character inputting device, character inputting method, and character inputting program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020149269A true JP2020149269A (en) | 2020-09-17 |
Family
ID=69571794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019045469A Pending JP2020149269A (en) | 2019-03-13 | 2019-03-13 | Character inputting device, character inputting method, and character inputting program |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200293118A1 (en) |
EP (1) | EP3709132A1 (en) |
JP (1) | JP2020149269A (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115562496B (en) * | 2022-11-04 | 2023-12-15 | 浙江舜为科技有限公司 | XR equipment, character input method based on XR equipment and character modification method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017182228A (en) * | 2016-03-29 | 2017-10-05 | セイコーエプソン株式会社 | Input device, input method, and computer program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120242698A1 (en) * | 2010-02-28 | 2012-09-27 | Osterhout Group, Inc. | See-through near-eye display glasses with a multi-segment processor-controlled optical layer |
JP2014154074A (en) | 2013-02-13 | 2014-08-25 | Seiko Epson Corp | Input device, head-mounted type display device, and method for controlling input device |
CN106933364B (en) * | 2017-03-15 | 2019-09-27 | 京东方科技集团股份有限公司 | Characters input method, character input device and wearable device |
US10671181B2 (en) * | 2017-04-03 | 2020-06-02 | Microsoft Technology Licensing, Llc | Text entry interface |
-
2019
- 2019-03-13 JP JP2019045469A patent/JP2020149269A/en active Pending
-
2020
- 2020-02-11 EP EP20156562.9A patent/EP3709132A1/en not_active Withdrawn
- 2020-02-19 US US16/794,380 patent/US20200293118A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017182228A (en) * | 2016-03-29 | 2017-10-05 | セイコーエプソン株式会社 | Input device, input method, and computer program |
Also Published As
Publication number | Publication date |
---|---|
EP3709132A1 (en) | 2020-09-16 |
US20200293118A1 (en) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9176668B2 (en) | User interface for text input and virtual keyboard manipulation | |
JP5802667B2 (en) | Gesture input device and gesture input method | |
JP4351599B2 (en) | Input device | |
JP6159323B2 (en) | Information processing method and information processing apparatus | |
DK2202609T3 (en) | Eye control of computer equipment | |
JP6394163B2 (en) | Graph display device, graph display method and program | |
JP2013242821A (en) | Picture display device and picture operation method of the same | |
WO2009031478A2 (en) | Information processor, user interface control method and program | |
KR20200102228A (en) | Method for input and apparatuses performing the same | |
JP2015135572A (en) | Information processing apparatus and control method of the same | |
JP2020149269A (en) | Character inputting device, character inputting method, and character inputting program | |
WO2018123320A1 (en) | User interface device and electronic apparatus | |
JP2009252190A (en) | Menu screen display device, menu screen display method, and computer program | |
US10901495B2 (en) | Techniques for multi-finger typing in mixed-reality | |
JP2010093516A (en) | Mobile information terminal and operation control method for the same, and program | |
KR100996075B1 (en) | User interface apparatus and method | |
JP4143529B2 (en) | Information input device, information input method, computer program, and computer-readable storage medium | |
Petrie et al. | Older people’s use of tablets and smartphones: A review of research | |
JP2010015603A (en) | Display device | |
CN117826977A (en) | Interaction method, interaction device, electronic equipment, storage medium and computer program product | |
KR101809047B1 (en) | Guide device and method for short-cut key | |
WO2013080430A1 (en) | Information processing device, information processing method, and program | |
KR20240036543A (en) | I/o expansion system using mr | |
JP2020163167A (en) | Game device and program | |
JP2024018909A (en) | XR operation function using smart watch |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220328 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220816 |