JP2016110249A - Spatial handwriting input system, spatial handwriting input method, and computer program - Google Patents

Spatial handwriting input system, spatial handwriting input method, and computer program Download PDF

Info

Publication number
JP2016110249A
JP2016110249A JP2014244709A JP2014244709A JP2016110249A JP 2016110249 A JP2016110249 A JP 2016110249A JP 2014244709 A JP2014244709 A JP 2014244709A JP 2014244709 A JP2014244709 A JP 2014244709A JP 2016110249 A JP2016110249 A JP 2016110249A
Authority
JP
Japan
Prior art keywords
virtual plane
pointer
locus
input
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014244709A
Other languages
Japanese (ja)
Inventor
啓法 坂本
Akinori Sakamoto
啓法 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon Unisys Ltd
Original Assignee
Nihon Unisys Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon Unisys Ltd filed Critical Nihon Unisys Ltd
Priority to JP2014244709A priority Critical patent/JP2016110249A/en
Publication of JP2016110249A publication Critical patent/JP2016110249A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To expand the expression breadth of a handwriting input system by making an operation locus on a virtual plane in the depth direction reflected in output, and enable a user to grasp the position of the virtual plane visually.SOLUTION: Provided is a spatial handwriting input system characterized by comprising: a coordinate detection unit for detecting the three-dimensional coordinates of the movement locus of a pointer; a virtual plane setting unit for setting a virtual plane in a three-dimensional space; a coordinate conversion unit for converting the three-dimensional coordinates of the movement locus of the pointer; an input locus acquisition unit for acquiring a locus on an XY plane among the movement loci of the pointer as an input locus; a contact degree acquisition unit for calculating and acquiring the degree of contact with the virtual plane from the position in the direction of an axis Z among the movement loci of the pointer; and a display unit for displaying the input locus on a GUI screen when the degree of contact exceeds a threshold, and displaying an indicator for indicating the position of the pointer and the distance to the virtual plane on the GUI screen, the display unit changing the expression of a displayed locus in accordance with the degree of contact.SELECTED DRAWING: Figure 3

Description

本発明は、空間手書き入力システムに関し、具体的には、空間内の仮想平面を介したユーザの手書き入力に対して、仮想平面に対する奥行き方向の操作軌跡を反映した出力を可能とする空間手書き入力システムに関する。   The present invention relates to a spatial handwriting input system, and more specifically, spatial handwriting input that enables an output reflecting an operation trajectory in the depth direction with respect to a virtual plane with respect to a user's handwritten input via a virtual plane in space. About the system.

近年、タッチパネルやジェスチャなどの、人間にとってより自然かつ直観的な操作でコンピュータ等の情報処理装置との情報の受け渡しを可能とする、ナチュラル・ユーザ・インターフェース(NUI)と呼ばれる技術の開発が進んでいる。   In recent years, a technology called a natural user interface (NUI) has been developed, which enables information to be exchanged with an information processing apparatus such as a computer through a more natural and intuitive operation such as a touch panel or a gesture. Yes.

例えば特許文献1においては、電子ペンと表示装置とが通信可能に接続された空間手書きシステムであって、前記電子ペンは、ペン先の3次元空間の座標を検出する座標検出部と、空間内に設定されたポイントに基づいて、仮想平面を作成する仮想平面作成部と、前記3次元空間の座標の変化に基づいて、前記仮想平面の法線方向のペン先の動作を検出し、前記法線方向のペン先の移動量又は移動速度又は移動加速度が予め定めた閾値を超えた場合に、ストロークの切れ目として認識するストローク検出部と、前記ストロークの切れ目から次の切れ目までの、連続するストロークのペン先の軌跡を示す3次元空間の座標を、前記仮想平面の特定点を原点とする平面座標に変換する座標変換部と、変換した前記平面座標の情報を前記表示装置に出力する通信部と、を備え、前記表示装置は、前記平面座標の情報を受信して、前記仮想平面上のペン先の軌跡を画面上に表示する、ことを特徴とする空間手書きシステムが開示されている。また、特許文献2にも、同様の空間手書きシステムが開示されている。   For example, in Patent Document 1, a space handwriting system in which an electronic pen and a display device are communicably connected, and the electronic pen includes a coordinate detection unit that detects coordinates of a three-dimensional space of a pen tip, A virtual plane creating unit that creates a virtual plane based on the set point, and a pen tip movement in the normal direction of the virtual plane based on a change in coordinates of the three-dimensional space, and the method A stroke detection unit that recognizes a stroke break when the movement amount or movement speed or movement acceleration of the pen tip in the linear direction exceeds a predetermined threshold, and a continuous stroke from the stroke break to the next break A coordinate conversion unit that converts coordinates in the three-dimensional space indicating the trajectory of the pen tip into plane coordinates having a specific point on the virtual plane as an origin, and information on the converted plane coordinates in the display device A spatial handwriting system, wherein the display device receives the information of the plane coordinates and displays the locus of the pen tip on the virtual plane on the screen. Has been. Patent Document 2 also discloses a similar spatial handwriting system.

特開2013−3961号公報JP2013-3961A 特開2013−125487号公報JP 2013-125487 A

特許文献1または2のように、所定の空間に仮想平面を設定し、仮想平面を介した手書き入力によりユーザがコンピュータ等と情報の受け渡しを行うことを可能とするシステムは、キーボードやマウスの操作と比べ、より自然で直観的な入力操作をユーザに提供すると同時に、入力の際の物理的制約(入力機器やその設置場所など)を軽減することを可能とし得るものである。仮想平面を用いたマンマシンインターフェースは、例えば医療の現場や食品製造の現場など、高い衛生管理が求められ、不要な物理的接触を避けることが求められる場面においても応用され得る。   As in Patent Document 1 or 2, a system that sets a virtual plane in a predetermined space and allows a user to exchange information with a computer or the like by handwriting input via the virtual plane is a keyboard or mouse operation. Compared to the above, it is possible to provide the user with a more natural and intuitive input operation, and at the same time, to reduce physical restrictions (input device, installation location, etc.) at the time of input. The man-machine interface using the virtual plane can be applied to a scene where high hygiene management is required and avoiding unnecessary physical contact, such as a medical site or a food manufacturing site.

これまで、仮想平面を用いて文字や図形を入力するシステムにおいては、ユーザの3次元空間における操作から仮想平面を基準とした2次元の軌跡を抽出し、そこに表れる文字や図形をより正確に認識するための技術が開示される一方で、操作の軌跡自体の表現方法についてはあまり着目されてこなかった。例えば特許文献1においては、3次元空間における操作の軌跡からユーザが入力する文字の切れ目を検出する技術が開示される一方で、文字を構成するストロークとして検出される軌跡の出力表現は、2次元座標における軌跡をそのまま一様な線で表すに過ぎないものであった。   Until now, in a system for inputting characters and figures using a virtual plane, a two-dimensional trajectory based on the virtual plane is extracted from a user's operation in a three-dimensional space, and the characters and figures appearing there are more accurately represented. While techniques for recognizing are disclosed, much attention has not been paid to the method of expressing the operation trajectory itself. For example, Patent Document 1 discloses a technique for detecting a break between characters input by a user from an operation trajectory in a three-dimensional space, while an output representation of a trajectory detected as a stroke constituting a character is two-dimensional. The trajectory in coordinates was simply represented by a uniform line.

また、仮想平面を用いた入力における基本的な問題点として、仮想平面はユーザの目に見えるものではないため、ユーザが仮想平面の位置を正確に把握することは容易とはいえないものであった。そのため、ユーザが文字または図形を仮想平面に入力する際、ユーザにとって仮想平面とポインタ(ユーザの指やペン型デバイスなど)との接触点がわかりにくく、自然な入力を妨げる要因となっていた。   In addition, as a basic problem in the input using the virtual plane, it is not easy for the user to accurately grasp the position of the virtual plane because the virtual plane is not visible to the user. It was. For this reason, when the user inputs characters or figures on the virtual plane, it is difficult for the user to understand the contact point between the virtual plane and the pointer (such as the user's finger or pen-type device), which has been a factor that hinders natural input.

本発明は以上のような課題を解決するためになされたものであり、仮想平面を用いた手書き入力において、仮想平面に対する奥行き方向の操作軌跡を出力に反映させることにより、手書き入力システムの表現の幅を拡張するとともに、ユーザが仮想平面の位置を視覚的に把握できるようにすることを目的とする。   The present invention has been made to solve the above-described problems, and in handwriting input using a virtual plane, the operation trajectory in the depth direction with respect to the virtual plane is reflected in the output, thereby expressing the expression of the handwriting input system. The purpose is to expand the width and allow the user to visually grasp the position of the virtual plane.

上記課題を解決するために、本発明に係る空間手書き入力システムは、3次元空間におけるポインタの移動軌跡の3次元座標を検出する座標検出部と、GUI(Graphical User Interface)画面に対応した仮想平面を前記3次元空間内に設定する仮想平面設定部と、前記ポインタの前記移動軌跡の前記3次元座標を、前記仮想平面上にX軸とY軸を取り、XY平面に直交する方向にZ軸を取る座標に変換する座標変換部と、前記ポインタの前記移動軌跡のうち、前記XY平面上の軌跡を入力軌跡として取得する入力軌跡取得部と、前記ポインタの前記移動軌跡のうち、前記Z軸方向の位置から前記仮想平面に対する接触度を算出して前記入力軌跡と関連付けて取得する接触度取得部と、前記接触度が所定の閾値を超える場合に前記入力軌跡を表示軌跡として前記GUI画面に表示し、かつ、前記XY平面上の前記ポインタの位置および前記仮想平面までの前記Z軸方向の距離を示すためのインジケータを前記GUI画面に表示する表示部と、を備え、前記表示部が、前記接触度に応じて前記表示軌跡の表現を変化させることを特徴とする。   In order to solve the above-described problems, a spatial handwriting input system according to the present invention includes a coordinate detection unit that detects a three-dimensional coordinate of a movement locus of a pointer in a three-dimensional space, and a virtual plane corresponding to a GUI (Graphical User Interface) screen. A virtual plane setting unit that sets the three-dimensional space in the three-dimensional space, and the three-dimensional coordinates of the movement trajectory of the pointer, taking the X axis and the Y axis on the virtual plane, and the Z axis in a direction orthogonal to the XY plane A coordinate conversion unit that converts the coordinate into a coordinate, an input trajectory acquisition unit that acquires a trajectory on the XY plane among the movement trajectories of the pointer as an input trajectory, and the Z axis among the movement trajectories of the pointer A contact degree acquisition unit that calculates a contact degree with respect to the virtual plane from a position in a direction and acquires the contact degree in association with the input locus, and the contact degree exceeds a predetermined threshold value The input locus is displayed on the GUI screen as a display locus, and an indicator for indicating the position of the pointer on the XY plane and the distance in the Z-axis direction to the virtual plane is displayed on the GUI screen. A display unit for displaying, wherein the display unit changes the expression of the display locus according to the degree of contact.

本発明の一実施形態によれば、本発明に係る空間手書き入力システムは、前記閾値が仮想平面との交点における前記接触度の値として設定され、前記接触度は前記仮想平面の手前側から奥側に向かって高くなるように算出されることを特徴とする。   According to an embodiment of the present invention, in the spatial handwriting input system according to the present invention, the threshold is set as the value of the contact degree at the intersection with the virtual plane, and the contact degree is from the near side of the virtual plane to the back side. It is calculated so that it may become high toward the side.

本発明の一実施形態によれば、本発明に係る空間手書き入力システムは、前記表示部が、前記接触度が高いほど前記表示する軌跡の線の太さを増加させることを特徴とする。   According to an embodiment of the present invention, the spatial handwriting input system according to the present invention is characterized in that the display unit increases the thickness of the line of the displayed trajectory as the contact degree is higher.

本発明の一実施形態によれば、本発明に係る空間手書き入力システムは、前記表示部が、前記接触度が高いほど前記表示する軌跡の線の色の濃さを増加させることを特徴とする。   According to an embodiment of the present invention, the spatial handwriting input system according to the present invention is characterized in that the display unit increases the color density of the line of the locus to be displayed as the contact degree is higher. .

本発明の一実施形態によれば、本発明に係る空間手書き入力システムは、前記表示部が前記XY平面上の前記ポインタの現在位置を表すインジケータを前記GUI画面に表示し、前記インジケータが前記接触度に応じてその色、形、大きさ、または表現方法を変化させることを特徴とする。   According to an embodiment of the present invention, in the spatial handwriting input system according to the present invention, the display unit displays an indicator indicating the current position of the pointer on the XY plane on the GUI screen, and the indicator is the contact. The color, shape, size, or expression method is changed according to the degree.

本発明の一態様によれば、本発明に係る空間手書き入力方法は、3次元空間におけるポインタの移動軌跡の3次元座標を検出する座標検出工程と、GUI(Graphical User Interface)画面に対応した仮想平面を前記3次元空間内に設定する仮想平面設定工程と、前記ポインタの前記移動軌跡の前記3次元座標を、前記仮想平面上にX軸とY軸を取り、XY平面に直行する方向にZ軸を取る座標に変換する座標変換工程と、前記ポインタの前記移動軌跡のうち、前記XY平面上の軌跡を入力軌跡として取得する入力軌跡取得工程と、前記ポインタの前記移動軌跡のうち、前記Z軸方向の位置から前記仮想平面に対する接触度を算出し前記入力軌跡と関連付けて取得する接触度取得工程と、前記接触度が所定の閾値を超える場合に、前記入力軌跡を表示軌跡として前記GUI画面に表示する表示工程と、前記XY平面上の前記ポインタの位置および前記仮想平面までの前記Z軸方向の距離を示すためのインジケータを前記GUI画面に表示する工程と、を含み、前記表示工程は、前記接触度に応じて前記表示軌跡の表現を変化させることを特徴とする。   According to one aspect of the present invention, a spatial handwriting input method according to the present invention includes a coordinate detection step for detecting a three-dimensional coordinate of a moving locus of a pointer in a three-dimensional space, and a virtual corresponding to a GUI (Graphical User Interface) screen. A virtual plane setting step for setting a plane in the three-dimensional space, and the three-dimensional coordinates of the movement locus of the pointer are set in a direction orthogonal to the XY plane by taking the X axis and the Y axis on the virtual plane. A coordinate conversion step of converting the coordinates into axes, an input trajectory acquisition step of acquiring a trajectory on the XY plane among the movement trajectories of the pointer as an input trajectory, and the Z of the movement trajectories of the pointer A contact degree acquisition step of calculating a contact degree with respect to the virtual plane from an axial position and acquiring the contact degree in association with the input locus, and the contact degree exceeds a predetermined threshold value. A display step for displaying the input locus as a display locus on the GUI screen, and an indicator for indicating the position of the pointer on the XY plane and the distance in the Z-axis direction to the virtual plane. Displaying on the screen, wherein the display step changes the expression of the display trajectory in accordance with the degree of contact.

本発明の一態様によれば、本発明に係るコンピュータプログラムは、本発明に係る情報処理方法をコンピュータにより実行させることを特徴とする。   According to one aspect of the present invention, a computer program according to the present invention causes a computer to execute the information processing method according to the present invention.

本発明によれば、ポインタの仮想平面に対する奥行き方向(Z軸方向)の位置情報から接触度を算出し、接触度に応じて、線の太さや色の濃さといった表示軌跡の表現を変化させることが可能となるため、仮想平面を用いた手書き入力システムにおける出力表現の幅が拡張され、出力における情報量を増加させることが可能となる。   According to the present invention, the contact degree is calculated from position information of the pointer in the depth direction (Z-axis direction) with respect to the virtual plane, and the expression of the display trajectory such as the thickness of the line and the color density is changed according to the contact degree. Therefore, the width of the output expression in the handwriting input system using the virtual plane can be expanded, and the amount of information in the output can be increased.

また、ユーザにポインタと仮想平面の距離を視覚的にフィードバックすることが可能となるため、ユーザはそれを参照しながら入力を行うことにより、仮想平面に対する文字や図形等のより自然な入力が可能となる。これにより、仮想平面に対するより正確な入力が達成され、入力に引き続いて行われ得る文字認識等の精度の向上にも寄与する。   In addition, since it is possible to visually feedback the distance between the pointer and the virtual plane to the user, the user can input characters and figures on the virtual plane more naturally by referring to the distance. It becomes. Thereby, more accurate input to the virtual plane is achieved, which contributes to improvement in accuracy such as character recognition that can be performed following the input.

さらに、上述の利点の結果、ユーザが意図したとおりの精緻な手書きによる入力を、幅広い表現によって出力可能となることにより、仮想平面による手書き入力における情報量は、ペンや筆による紙媒体等の実平面への手書き入力の情報量と比べても遜色のないものとなり、書道や絵画といった芸術的な用途においても仮想平面による手書き入力を用いることが可能となり得る。   Furthermore, as a result of the above-mentioned advantages, it becomes possible to output precise handwritten input as intended by the user with a wide range of expressions, so that the amount of information in handwritten input using a virtual plane can be as large as that of a paper medium such as a pen or brush. Compared with the amount of information of handwritten input to a plane, it is inferior, and it can be possible to use handwritten input on a virtual plane for artistic purposes such as calligraphy and painting.

本発明に係る空間手書き入力システムの構成の一例を模式的に示す図である。It is a figure which shows typically an example of a structure of the spatial handwriting input system which concerns on this invention. 本発明に係る空間手書き入力システムの主要構成の一例を示すブロック図である。It is a block diagram which shows an example of the main structures of the spatial handwriting input system which concerns on this invention. 本発明の一実施形態における初期座標軸と変換座標軸の関係を示す図である。It is a figure which shows the relationship between the initial coordinate axis and conversion coordinate axis in one Embodiment of this invention. 図4(A)は、仮想平面とポインタおよび接触度の関係を示す斜視図である。図4(B)は、仮想平面とポインタおよび接触度の関係を示す側面図である。図4(C)は、仮想平面に対するポインタの深さと接触度の関係を表す図である。FIG. 4A is a perspective view showing the relationship between the virtual plane, the pointer, and the contact degree. FIG. 4B is a side view showing the relationship between the virtual plane, the pointer, and the contact degree. FIG. 4C is a diagram illustrating the relationship between the depth of the pointer and the contact degree with respect to the virtual plane. 本発明の一実施形態における、入力軌跡と接触度および表示軌跡の関係を示す図である。It is a figure which shows the relationship between an input locus | trajectory, a contact degree, and a display locus | trajectory in one Embodiment of this invention. 接触度に応じたインジケータ表示の一例を示す図である。It is a figure which shows an example of the indicator display according to a contact degree. 本発明の一実施形態に係る空間手書き入力システムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the spatial handwriting input system which concerns on one Embodiment of this invention.

(実施例)
以下、本発明の空間手書き入力システムの実施形態を、図面を参照しながら説明する。なお、以下に示す実施例は本発明の空間手書き入力システムの好適な具体例であり、一般的な情報処理装置、センサ、および表示機器等のハードウェア構成および構造に即した種々の限定を付している場合もあるが、本発明の技術範囲は、特に本発明を限定する記載がない限り、これらの態様に限定されるものではない。また、以下に示す実施形態における構成要素は、適宜、既存の構成要素との置き換えが可能であり、かつ、他の既存の構成要素との組み合わせを含む様々なバリエーションが可能である。したがって、以下に示す実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。
(Example)
Hereinafter, embodiments of the spatial handwriting input system of the present invention will be described with reference to the drawings. The embodiments shown below are preferred specific examples of the spatial handwriting input system of the present invention, and various limitations are attached according to the hardware configuration and structure of general information processing devices, sensors, display devices, and the like. However, the technical scope of the present invention is not limited to these embodiments unless specifically described to limit the present invention. In addition, the constituent elements in the embodiments described below can be appropriately replaced with existing constituent elements, and various variations including combinations with other existing constituent elements are possible. Therefore, the description of the embodiment described below does not limit the contents of the invention described in the claims.

(構成概要)
図1は、本発明に係る空間手書き入力システムの構成の一例を模式的に示す図である。本実施例における空間手書き入力システム1は、センサ101、情報処理装置102、および表示装置103を備える。3次元空間に設定した仮想平面104上でユーザがポインタを動かして文字や図形を手書きすると、情報処理装置102は、センサ101を介して取得されるポインタ105の操作軌跡106に基づき、後述する手法を用いて表示軌跡108を決定し、表示装置103のGUI(Graphical User Interface)画面107に表示する。
(Configuration overview)
FIG. 1 is a diagram schematically showing an example of the configuration of a spatial handwriting input system according to the present invention. The spatial handwriting input system 1 in this embodiment includes a sensor 101, an information processing device 102, and a display device 103. When a user moves a pointer on a virtual plane 104 set in a three-dimensional space and handwrites a character or a figure, the information processing apparatus 102 uses a method described later based on an operation trajectory 106 of the pointer 105 acquired via the sensor 101. Is used to determine the display trajectory 108 and display it on a GUI (Graphical User Interface) screen 107 of the display device 103.

センサ101は、所定範囲の空間内で、検知対象であるポインタ105の3次元座標を検出可能なものであればよく、例えば、赤外線カメラと赤外線射出LEDを備えるセンサを用いることが可能である。好適には、センサ101は、ポインタとして用いられる人間の手指の形状を検知可能であり、指の先端部を特徴点として認識し、その座標を検出することが可能である。センサ101は有線または無線で情報処理装置102と接続される。   The sensor 101 only needs to be capable of detecting the three-dimensional coordinates of the pointer 105 that is the detection target within a predetermined range of space. For example, a sensor including an infrared camera and an infrared emitting LED can be used. Preferably, the sensor 101 can detect the shape of a human finger used as a pointer, can recognize the tip of the finger as a feature point, and detect the coordinates thereof. The sensor 101 is connected to the information processing apparatus 102 by wire or wireless.

情報処理装置102は、後述する情報処理が可能なものであればよく、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、外部メモリ、入力I/F、および出力I/F等を備えるパーソナルコンピュータ(PC)や携帯端末等を用いることが可能である。   The information processing apparatus 102 only needs to be capable of information processing described later, and includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), an external memory, an input I / F, and an output. A personal computer (PC) equipped with an I / F or the like, a portable terminal, or the like can be used.

CPUは、記憶部であるROM等に記憶されているプログラムに従って、システムバスに接続される各デバイスを総括的に制御する。RAMは、CPUの主メモリ、ワークエリア等として機能するとともに、入力情報展開領域、環境データ格納領域としても用いられる。ROMは、各種プログラムおよびデータを格納する。入力I/Fは、センサ101からの入力を制御する。出力I/Fは、表示装置103への画面表示を制御する。構成によっては、スピーカへの音声出力を制御するようにしてもよい。外部メモリは、保存または読み取り可能な記憶媒体として機能し、オペレーティングシステム(OS)、Webブラウザ、およびアプリケーションが記憶されている。アプリケーション、および各モジュール(ソフトウェア)のプログラムは外部メモリに記憶され、必要に応じてRAMに読み出されてCPUにより実行される。これにより、アプリケーションまたは各モジュール(ソフトウェア)の機能を実現する。本実施例で説明する処理は、外部メモリに記録されたプログラムをRAMにロードし、CPUが実行することによって実現される。なお、プログラムは、外部メモリ以外にもRAMやROMにおいて記憶されてもよい。   The CPU generally controls each device connected to the system bus according to a program stored in a ROM or the like that is a storage unit. The RAM functions as a main memory and work area of the CPU, and is also used as an input information expansion area and an environment data storage area. The ROM stores various programs and data. The input I / F controls input from the sensor 101. The output I / F controls screen display on the display device 103. Depending on the configuration, audio output to the speaker may be controlled. The external memory functions as a storage medium that can be stored or read, and stores an operating system (OS), a Web browser, and an application. An application and a program of each module (software) are stored in an external memory, read into a RAM as necessary, and executed by a CPU. Thereby, the function of the application or each module (software) is realized. The processing described in the present embodiment is realized by loading a program recorded in the external memory into the RAM and executing it by the CPU. Note that the program may be stored in RAM or ROM in addition to the external memory.

なお、本実施形態において、センサ101、情報処理装置102、および表示装置103を別個の構成要素として記述するが、例えばセンサ101は情報処理装置102に内蔵されていてもよく、あるいは、情報処理装置102と表示装置103が一体化したHMD(Head Mounted Display)として構成してもよい。   In the present embodiment, the sensor 101, the information processing apparatus 102, and the display apparatus 103 are described as separate components. For example, the sensor 101 may be built in the information processing apparatus 102, or the information processing apparatus You may comprise as HMD (Head Mounted Display) with which 102 and the display apparatus 103 were integrated.

(ソフトウェア構成)
図2は、本実施形態に係る空間手書き入力システムが行う処理を表す機能ブロック図である。図2に示す各構成部は、図1に示した情報処理装置102のCPUがROMまたは外部メモリに記憶されているプログラムをRAMにロードし、ロードされたプログラムをCPUが実行することで実現される。
(Software configuration)
FIG. 2 is a functional block diagram illustrating processing performed by the spatial handwriting input system according to the present embodiment. Each component shown in FIG. 2 is realized by the CPU of the information processing apparatus 102 shown in FIG. 1 loading the program stored in the ROM or the external memory into the RAM, and the CPU executing the loaded program. The

座標検出部202は、センサ201の起動後、センサ101から送られてくる測定データに基づき、所定空間におけるポインタの移動軌跡の3次元座標を検出する。好適には、ポインタの少なくとも1点を特徴点として認識し、当該特徴点の座標を検出することが可能である。更に好適には、検知対象であるポインタの細長部分や棒状部分の先端部を特徴点として認識し、その座標を検出可能である。例えば、ポインタが人間の手である場合、手のひらを大きく広げた状態では各指の先端部が特徴点として認識され得るが、拳を握って1本の指のみを伸ばした場合、その指の先端部のみが特徴点として認識され得る。なお、座標検出部202は、センサ201に備えられていてもよい。   The coordinate detection unit 202 detects the three-dimensional coordinates of the movement locus of the pointer in a predetermined space based on the measurement data sent from the sensor 101 after the sensor 201 is activated. Preferably, at least one point of the pointer is recognized as a feature point, and the coordinates of the feature point can be detected. More preferably, the elongated portion of the pointer to be detected or the tip of the rod-like portion is recognized as a feature point, and its coordinates can be detected. For example, when the pointer is a human hand, the tip of each finger can be recognized as a feature point when the palm of the hand is widened, but when only one finger is extended by holding a fist, the tip of the finger Only the part can be recognized as the feature point. Note that the coordinate detection unit 202 may be provided in the sensor 201.

仮想平面設定部203は、センサ201の検知範囲の空間内に、任意の位置、大きさ、角度で仮想平面を設定し、その座標を仮想平面情報204として記憶する。仮想平面の設定は、センサ起動時に自動で行われるようにしてもよいし、センサ起動後、ユーザの特定の操作に応じて設定されるようにしてもよい。   The virtual plane setting unit 203 sets a virtual plane at an arbitrary position, size, and angle in the space of the detection range of the sensor 201 and stores the coordinates as virtual plane information 204. The setting of the virtual plane may be automatically performed when the sensor is activated, or may be set according to a specific operation of the user after the sensor is activated.

座標変換部205は、座標検出部202が検出したポインタの移動軌跡を表す3次元座標(初期座標)を、設定された仮想平面に基づく座標(変換座標)に変換する。図3は、本実施形態における、初期座標軸と変換座標軸の関係の例を示す。座標検出部202は、予め設定された座標軸X’Y’Z’上でポインタの移動軌跡の3次元座標を取得する(初期座標)。後述する入力軌跡および接触度の取得といった処理のために、座標変換部205は、仮想平面情報204を参照して、初期座標軸上で検出された3次元座標(X’Y’Z’座標)を、仮想平面上にXY軸を取り、仮想平面に直交する方向にZ軸を取る変換座標軸上の座標(XYZ座標)に変換する。   The coordinate conversion unit 205 converts the three-dimensional coordinates (initial coordinates) representing the movement locus of the pointer detected by the coordinate detection unit 202 into coordinates (conversion coordinates) based on the set virtual plane. FIG. 3 shows an example of the relationship between the initial coordinate axis and the converted coordinate axis in the present embodiment. The coordinate detection unit 202 acquires the three-dimensional coordinates of the movement locus of the pointer on the preset coordinate axis X′Y′Z ′ (initial coordinates). For processing such as acquisition of an input trajectory and contact degree, which will be described later, the coordinate conversion unit 205 refers to the virtual plane information 204 and uses the three-dimensional coordinates (X′Y′Z ′ coordinates) detected on the initial coordinate axis. Then, the XY axis is taken on the virtual plane, and converted to the coordinate (XYZ coordinate) on the conversion coordinate axis taking the Z axis in the direction orthogonal to the virtual plane.

入力軌跡取得部206は、ポインタの移動軌跡の変換後の座標のX軸およびY軸の値を参照し、XY平面上の2次元座標を入力軌跡として取得する。一方、接触度取得部207は、ポインタの移動軌跡の変換後の座標のZ軸の値を参照し、その値を用いて仮想平面に対する接触度を算出し、入力軌跡と関連付けて取得する。本実施形態において、接触度は、仮想平面の手前側から奥側に向かって高くなるように算出される。   The input trajectory acquisition unit 206 refers to the X-axis and Y-axis values of the coordinates after conversion of the movement trajectory of the pointer, and acquires two-dimensional coordinates on the XY plane as an input trajectory. On the other hand, the contact degree acquisition unit 207 refers to the Z-axis value of the coordinates after conversion of the pointer movement locus, calculates the contact degree with respect to the virtual plane using the value, and obtains it in association with the input locus. In the present embodiment, the degree of contact is calculated so as to increase from the near side of the virtual plane toward the far side.

表示部208は、入力軌跡と接触度に基づき、実際にGUI211に出力される表示軌跡を決定する。具体的には、接触度が予め設定された閾値を超える場合に、閾値を超える接触度と関連付けられた入力軌跡を表示軌跡とし、接触度の高さに応じて、表示軌跡の表現を変化させる。こうして決定された表示軌跡情報210が、GUI211への出力に用いられる。   The display unit 208 determines a display locus that is actually output to the GUI 211 based on the input locus and the degree of contact. Specifically, when the contact degree exceeds a preset threshold value, the input locus associated with the contact degree exceeding the threshold value is set as the display locus, and the display locus expression is changed according to the height of the contact degree. . The display trajectory information 210 determined in this way is used for output to the GUI 211.

また、表示部208は、入力軌跡と接触度に基づき、現在のポインタのXY平面上における位置と仮想平面に対する距離を取得し、インジケータ表示情報209として記憶する。表示部208は、このインジケータ表示情報209に基づき、ユーザが仮想平面の位置を把握するための視覚的フィードバックとしてのインジケータをGUI211上に表示する。   Further, the display unit 208 acquires the position of the current pointer on the XY plane and the distance to the virtual plane based on the input trajectory and the contact degree, and stores them as indicator display information 209. Based on the indicator display information 209, the display unit 208 displays an indicator on the GUI 211 as a visual feedback for the user to grasp the position of the virtual plane.

図4は、仮想平面とポインタおよび接触度の関係を示す図である。図4(A)および図4(B)はそれぞれ、ポインタが仮想平面と接触している状態を示す斜視図と側面図である。設定された仮想平面401にポインタ402が接近し、特徴点403が仮想平面401よりも深さ404だけ奥側に位置している。図4において、表示軌跡を決定するための接触度の閾値は仮想平面との交点における値として設定されており、特徴点403はこの閾値を超えた接触度を有していることになる。図4(C)は、仮想平面に対するポインタの深さと接触度の関係を例示する図である。図4(C)において、Z軸方向の深さbは、上述の閾値を指しており、この例においては仮想平面との交点を指す。ポインタ(特徴点)が深さbよりも奥側にあるとき、接触度は閾値よりも高くなり、入力軌跡が表示軌跡と判定されることとなる。また、Z軸方向の深さがbからcに近付くほど接触度は高くなり、深さcのときに上限値となる。深さcを超えると、それ以降接触度は一定となる。一方、ポインタ(特徴点)が深さbよりも手前側にあるとき、接触度は閾値を下回り、このときの入力軌跡は表示軌跡として判定されない。Z軸方向の深さがbからaに近付くほど接触度は低くなり、深さaのときに下限値となる。なお、本実施形態において、接触度の閾値を仮想平面との交点の値に設定したが、別の実施形態において、仮想平面よりも手前または奥に接触度の閾値を設定することも可能である。また、この例において深さaおよびcを接触度の上限および下限を定めるための任意の値として設定したが、別の実施形態において深さaおよびcを設定しないことも可能である。さらに、図4(C)において、Z軸方向の深さに応じて接触度が線形に変化するものとして記載したが、接触度を曲線的に変化させることも可能である。例えば、閾値から一定範囲では接触度の変化を小さくし、一定範囲を超えると接触度が大きく変化するように設定することも可能である。また、接触度の変化の仕方を複数種類用意し、GUI画面上の操作等によりユーザが選択可能なように構成することも可能である。   FIG. 4 is a diagram illustrating the relationship between the virtual plane, the pointer, and the contact degree. FIGS. 4A and 4B are a perspective view and a side view, respectively, showing a state where the pointer is in contact with the virtual plane. The pointer 402 approaches the set virtual plane 401, and the feature point 403 is located on the back side by the depth 404 from the virtual plane 401. In FIG. 4, the threshold value of the contact degree for determining the display locus is set as a value at the intersection with the virtual plane, and the feature point 403 has a contact degree exceeding this threshold value. FIG. 4C is a diagram illustrating the relationship between the depth of the pointer and the contact degree with respect to the virtual plane. In FIG. 4C, the depth b in the Z-axis direction indicates the above-described threshold value, and in this example indicates the intersection with the virtual plane. When the pointer (feature point) is located behind the depth b, the contact degree is higher than the threshold value, and the input locus is determined as the display locus. Further, the closer the depth in the Z-axis direction is to b to c, the higher the contact degree becomes, and the upper limit is reached at the depth c. When the depth c is exceeded, the degree of contact thereafter becomes constant. On the other hand, when the pointer (feature point) is on the near side of the depth b, the contact degree falls below the threshold value, and the input locus at this time is not determined as the display locus. As the depth in the Z-axis direction approaches b to a, the degree of contact decreases, and when the depth is a, the lower limit is reached. In this embodiment, the threshold value of the contact degree is set to the value of the intersection with the virtual plane. However, in another embodiment, the threshold value of the contact degree can be set before or behind the virtual plane. . In this example, the depths a and c are set as arbitrary values for determining the upper limit and the lower limit of the contact degree. However, the depths a and c may not be set in another embodiment. Furthermore, although the contact degree is described as linearly changing according to the depth in the Z-axis direction in FIG. 4C, the contact degree can be changed in a curve. For example, it is possible to set so that the change in the contact degree is small within a certain range from the threshold, and the contact degree is greatly changed when the certain range is exceeded. It is also possible to prepare a plurality of types of changes in the degree of contact so that the user can select them by an operation on the GUI screen.

図5は、入力軌跡と接触度、および表示軌跡の関係を示す図である。入力軌跡取得部206によって2次元座標からなる入力軌跡が取得されるとき、併せて接触度取得部207により入力軌跡の2次元座標と関連付けられた接触度が取得される。表示部208は、入力軌跡と接触度に基づき、表示軌跡とその表現を決定する。図5において、入力軌跡の始端部および終端部の接触度は閾値を下回っており、そのため入力軌跡の始端部と終端部は表示軌跡には表れていない。また、入力軌跡の接触度は始端部から中間部にかけて高くなり、中間部から終端部にかけて再び低くなっている。こうした接触度の変化を反映して、表示軌跡はその始端部から中間部にかけて線が太くなり、中間部から終端部にかけて再び線が細くなっている。このように、接触度の変化に応じて表示軌跡の線の太さを変える実施形態においては、恰も紙媒体等の実平面上に筆で文字や絵を書くときのように、軽く触れれば細い線が描かれ、強く押し当てれば太い線が描かれるという「筆圧」の感覚をユーザに体験させることが可能である。なお、接触度に応じた表示軌跡の表現の変化は、線の太さの変化に限定されるものではない。別の実施形態においては、接触度に応じて線の色の濃さを変化させてもよく、あるいは、接触度に応じて線の太さと色の濃さを変化させてもよい。   FIG. 5 is a diagram illustrating the relationship between the input trajectory, the contact degree, and the display trajectory. When the input trajectory acquisition unit 206 acquires an input trajectory composed of two-dimensional coordinates, the contact degree acquisition unit 207 also acquires the degree of contact associated with the two-dimensional coordinates of the input trajectory. The display unit 208 determines the display trajectory and its expression based on the input trajectory and the contact degree. In FIG. 5, the degree of contact between the start and end portions of the input locus is below the threshold value, and therefore the start and end portions of the input locus do not appear in the display locus. Further, the contact degree of the input trajectory increases from the start end portion to the intermediate portion and decreases again from the intermediate portion to the end portion. Reflecting such a change in the degree of contact, the line of the display trajectory becomes thicker from the start end to the middle portion, and the line becomes thinner again from the middle portion to the end portion. Thus, in the embodiment in which the thickness of the line of the display trajectory is changed in accordance with the change in the contact degree, the character can be touched lightly as in writing a character or a picture with a brush on a real plane such as a paper medium. It is possible to allow the user to experience the feeling of “writing pressure” in which a thin line is drawn and a thick line is drawn if pressed firmly. Note that the change in the expression of the display locus according to the contact degree is not limited to the change in the thickness of the line. In another embodiment, the color intensity of the line may be changed according to the contact degree, or the line thickness and the color intensity may be changed according to the contact degree.

図6は、接触度に応じたインジケータの表現方法の変化の一例を示す図である。この例では、ポインタが仮想平面にある程度近付き、接触度が任意に定めた下限値に達した場合に、輪郭線のみの円をインジケータとしてGUI画面に表示し、XY平面上のポインタの位置をユーザに通知する。ポインタが仮想平面に更に近付き、接触度が下限値を超えたとき、円周内に色をつけた新たな円を輪郭線の円の中心に発生させる。ポインタが仮想平面に近付き、接触度が上述の閾値に近付くにつれて、色つきの円を徐々に大きく表示し、接触度が閾値に達した場合に輪郭線の円と色つきの円が重なるようにする。このように、インジケータの位置によってXY平面上の位置を示し、インジケータの表現の変化によって仮想平面までの距離を示すことにより、ユーザはポインタと目に見えない仮想平面との3次元の位置関係を視覚的に把握することが可能となる。なお、こうしたユーザに対する視覚的フィードバックのためのインジケータの表現方法の変化に代えて、またはこれに加えて、インジケータの色、大きさ、形、透過度などを変化させてもよい。   FIG. 6 is a diagram illustrating an example of a change in the indicator expression method according to the contact degree. In this example, when the pointer gets close to the virtual plane to some extent and the contact level reaches the arbitrarily set lower limit value, a circle with only a contour line is displayed on the GUI screen as an indicator, and the position of the pointer on the XY plane is displayed by the user. Notify When the pointer gets closer to the virtual plane and the contact degree exceeds the lower limit, a new circle colored within the circumference is generated at the center of the contour circle. As the pointer approaches the virtual plane and the contact degree approaches the threshold value, the colored circle is displayed gradually larger so that the outline circle and the colored circle overlap when the contact degree reaches the threshold value. In this way, the position on the XY plane is indicated by the position of the indicator, and the distance to the virtual plane is indicated by a change in the expression of the indicator, so that the user can determine the three-dimensional positional relationship between the pointer and the invisible virtual plane. It becomes possible to grasp visually. Note that the color, size, shape, transparency, etc. of the indicator may be changed instead of or in addition to the change in the method of expressing the indicator for visual feedback to the user.

(フローチャート)
図7は、本実施形態に係る空間手書き入力システムの処理の流れを示すフローチャートである。センサ201の起動後、ステップ700において、センサ201の検知範囲内の空間に仮想平面を設定する。仮想平面の設定は、センサ201の起動に関連付けて自動で行うようにしてもよいし、ユーザの特定の操作に応じて設定するようにしてもよい。ユーザが検知空間内でポインタを移動させると、ステップ702において、ポインタの移動軌跡の3次元座標が取得される。取得された3次元座標は、ステップ704において、仮想平面を基準とした座標軸の座標に変換される。次いで、ステップ706において、変換後の座標から入力軌跡と接触度が取得される。
(flowchart)
FIG. 7 is a flowchart showing a process flow of the spatial handwriting input system according to the present embodiment. After the sensor 201 is activated, a virtual plane is set in a space within the detection range of the sensor 201 in step 700. The virtual plane may be set automatically in association with the activation of the sensor 201 or may be set according to a specific operation of the user. When the user moves the pointer in the detection space, in step 702, the three-dimensional coordinates of the movement locus of the pointer are acquired. In step 704, the acquired three-dimensional coordinates are converted into the coordinates of the coordinate axes with reference to the virtual plane. Next, in step 706, the input trajectory and the contact degree are acquired from the converted coordinates.

次いで、ステップ708において、接触度が予め任意に設定された下限値を超えたか否かが判定され、下限値を超える接触度が検出されない場合はステップ702から再び繰り返される。下限値を超える接触度が検出されると、ステップ710において、ポインタと仮想平面の位置関係をユーザに視覚的にフィードバックするためのインジケータがGUI画面に表示される。その後、ステップ712では、ポインタが更に仮想平面に近付き、接触度が閾値を超えたか否かが判定され、閾値を超える接触度が検出されない場合はステップ710のインジケータの表示が継続される。閾値を超える接触度が検出されると、ステップ714において、閾値を超えた接触度と関連付けられた入力軌跡を、接触度に応じた表現による表示軌跡としてGUI画面に表示する。   Next, in step 708, it is determined whether or not the contact degree exceeds a predetermined lower limit value. If no contact degree exceeding the lower limit value is detected, the process is repeated from step 702 again. When a contact degree exceeding the lower limit is detected, in step 710, an indicator for visually feeding back the positional relationship between the pointer and the virtual plane to the user is displayed on the GUI screen. Thereafter, in step 712, it is determined whether or not the pointer further approaches the virtual plane and the contact degree exceeds the threshold value. If the contact degree exceeding the threshold value is not detected, the display of the indicator in step 710 is continued. When the contact degree exceeding the threshold is detected, in step 714, the input trajectory associated with the contact degree exceeding the threshold is displayed on the GUI screen as a display trajectory expressed in accordance with the contact degree.

その後、ステップ716において接触度が閾値を下回ったことが検出されるまで、連続的な表示軌跡が表示されることとなり、接触度が閾値を下回ったことが検出されると、ステップ718で表示軌跡の表示が終了する。この動作は、GUI画面上では表示される線の切れ目として表れることになる。その後、ステップ720で、ポインタが仮想平面から離れ、接触度が下限値を下回ったか否かが判定される。接触度が下限値を下回らない限り、ステップ710のインジケータ表示が継続され、接触度が下限値を下回ったことが検出されると、ステップ722でインジケータの表示が終了する。以上の処理が、本システムの起動中に繰り返し行われることとなる。   After that, a continuous display trajectory is displayed until it is detected in step 716 that the contact degree is lower than the threshold value. When it is detected that the contact degree is lower than the threshold value, in step 718, the display trajectory is displayed. Display ends. This operation appears as a line break displayed on the GUI screen. Thereafter, in step 720, it is determined whether or not the pointer has moved away from the virtual plane and the degree of contact has fallen below a lower limit value. As long as the contact degree does not fall below the lower limit value, the indicator display in step 710 is continued. When it is detected that the contact degree falls below the lower limit value, the indicator display ends in step 722. The above processing is repeatedly performed during activation of the present system.

以上、本実施形態によれば、ポインタの仮想平面に対する奥行き方向(Z軸方向)の位置情報から仮想平面との接触度を算出して表示軌跡を決定するとともに、接触度に応じて線の太さや色の濃さといった表示軌跡の表現を変化させることが可能となるため、仮想平面を用いた手書き入力システムにおける出力表現の幅が拡張され、出力における情報量を増加させることが可能となる。また、ユーザにポインタと仮想平面の間の距離を視覚的にフィードバックすることが可能となり、ユーザにとって仮想平面までの距離の把握が容易となることにより、より自然な入力が可能となり、入力の正確性も向上にも貢献することが期待される。   As described above, according to the present embodiment, the degree of contact with the virtual plane is calculated from the position information in the depth direction (Z-axis direction) of the pointer with respect to the virtual plane to determine the display trajectory, and the line thickness is determined according to the degree of contact. Since it is possible to change the expression of the display trajectory such as the color and the color density, the width of the output expression in the handwriting input system using the virtual plane is expanded, and the amount of information in the output can be increased. In addition, it is possible to visually feedback the distance between the pointer and the virtual plane to the user, making it easier for the user to grasp the distance to the virtual plane, enabling more natural input and accurate input. It is expected to contribute to the improvement of performance.

(その他の実施形態)
以上、本発明の好適な実施形態について説明したが、本発明は、これらの実施形態に限定されるものではない。本発明の目的は、上述の実施例の機能を実現するプログラムコード(コンピュータプログラム)を格納した記憶媒体をシステムあるいは装置に供給し、供給されたシステムあるいは装置のコンピュータが記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施例の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、上述した実施形態では、情報処理装置がプログラムを実行することにより、各処理部として機能するものとしたが、処理の一部または全部を専用の電子回路(ハードウェア)で構成するようにしても構わない。本発明は、説明された特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の趣旨の範囲内において、種々の変形または変更が可能である。
(Other embodiments)
The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. An object of the present invention is to supply a storage medium storing a program code (computer program) for realizing the functions of the above-described embodiments to a system or apparatus, and a program in which the computer of the supplied system or apparatus is stored in the storage medium. It is also achieved by reading and executing the code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. In the above-described embodiment, the information processing apparatus functions as each processing unit by executing a program. However, part or all of the processing is configured by a dedicated electronic circuit (hardware). It doesn't matter. The present invention is not limited to the specific embodiments described, but can be variously modified or changed within the scope of the gist of the present invention described in the claims.

101 センサ
102 情報処理装置
103 表示装置
104 仮想平面
105 ポインタ
106 操作軌跡
107 GUI画面
108 表示軌跡
101 Sensor 102 Information Processing Device 103 Display Device 104 Virtual Plane 105 Pointer 106 Operation Trajectory 107 GUI Screen 108 Display Trajectory

Claims (7)

3次元空間におけるポインタの移動軌跡の3次元座標を検出する座標検出部と
GUI(Graphical User Interface)画面に対応した仮想平面を前記3次元空間内に設定する仮想平面設定部と、
前記ポインタの前記移動軌跡の前記3次元座標を、前記仮想平面上にX軸とY軸を取り、XY平面に直交する方向にZ軸を取る座標に変換する座標変換部と、
前記ポインタの前記移動軌跡のうち、前記XY平面上の軌跡を入力軌跡として取得する入力軌跡取得部と、
前記ポインタの前記移動軌跡のうち、前記Z軸方向の位置から前記仮想平面に対する接触度を算出し前記入力軌跡と関連付けて取得する接触度取得部と、
前記接触度が所定の閾値を超える場合に前記入力軌跡を表示軌跡として前記GUI画面に表示し、かつ、前記XY平面上の前記ポインタの位置および前記仮想平面までの前記Z軸方向の距離を示すためのインジケータを前記GUI画面に表示する表示部と、を備え、
前記表示部は、前記接触度に応じて前記表示軌跡の表現を変化させる、
空間手書き入力システム。
A coordinate detection unit for detecting the three-dimensional coordinates of the movement trajectory of the pointer in the three-dimensional space, a virtual plane setting unit for setting a virtual plane corresponding to a GUI (Graphical User Interface) screen in the three-dimensional space,
A coordinate conversion unit that converts the three-dimensional coordinates of the movement trajectory of the pointer into coordinates that take an X axis and a Y axis on the virtual plane and take a Z axis in a direction orthogonal to the XY plane;
An input trajectory acquisition unit that acquires a trajectory on the XY plane as an input trajectory among the movement trajectories of the pointer;
A contact degree acquisition unit that calculates a contact degree with respect to the virtual plane from a position in the Z-axis direction out of the movement locus of the pointer and acquires the contact degree in association with the input locus;
When the degree of contact exceeds a predetermined threshold, the input locus is displayed on the GUI screen as a display locus, and the pointer position on the XY plane and the distance in the Z-axis direction to the virtual plane are indicated. A display unit for displaying an indicator for displaying on the GUI screen,
The display unit changes the expression of the display locus according to the contact degree.
Spatial handwriting input system.
前記閾値は、前記仮想平面との交点における前記接触度の値として設定され、
前記接触度は、前記仮想平面の手前側から奥側に向かって高くなるように算出される、請求項1に記載の空間手書きシステム。
The threshold is set as a value of the contact degree at the intersection with the virtual plane,
The spatial handwriting system according to claim 1, wherein the contact degree is calculated so as to increase from the near side to the far side of the virtual plane.
前記表示部は、前記接触度が高いほど前記表示する軌跡の線の太さを増加させる、請求項2に記載の空間手書き入力システム。   The spatial handwriting input system according to claim 2, wherein the display unit increases a thickness of a line of the locus to be displayed as the contact degree is higher. 前記表示部は、前記接触度が高いほど前記表示する軌跡の線の色の濃さを増加させる、請求項2に記載の空間手書きシステム。   The spatial handwriting system according to claim 2, wherein the display unit increases a color density of a line of the locus to be displayed as the contact degree is higher. 前記表示部は、前記XY平面上の前記ポインタの現在位置を表すインジケータを前記GUI画面に表示し、
前記インジケータは、前記接触度に応じてその色、形、大きさ、または表現方法が変化する、
請求項1〜4のいずれか1項に記載の空間手書きシステム。
The display unit displays an indicator indicating the current position of the pointer on the XY plane on the GUI screen,
The indicator changes in color, shape, size, or expression method according to the degree of contact.
The spatial handwriting system of any one of Claims 1-4.
3次元空間におけるポインタの移動軌跡の3次元座標を検出する座標検出工程と、
GUI(Graphical User Interface)画面に対応した仮想平面を前記3次元空間内に設定する仮想平面設定工程と、
前記ポインタの前記移動軌跡の前記3次元座標を、前記仮想平面上にX軸とY軸を取り、XY平面に直行する方向にZ軸を取る座標に変換する座標変換工程と、
前記ポインタの前記移動軌跡のうち、前記XY平面上の軌跡を入力軌跡として取得する入力軌跡取得工程と、
前記ポインタの前記移動軌跡のうち、前記Z軸方向の位置から前記仮想平面に対する接触度を算出し前記入力軌跡と関連付けて取得する接触度取得工程と、
前記接触度が所定の閾値を超える場合に、前記入力軌跡を表示軌跡として前記GUI画面に表示する表示工程と、
前記XY平面上の前記ポインタの位置および前記仮想平面までの前記Z軸方向の距離を示すためのインジケータを前記GUI画面に表示する工程と、を含み、
前記表示工程は、前記接触度に応じて前記表示軌跡の表現を変化させる、
空間手書き入力方法。
A coordinate detection step of detecting the three-dimensional coordinates of the movement locus of the pointer in the three-dimensional space;
A virtual plane setting step of setting a virtual plane corresponding to a GUI (Graphical User Interface) screen in the three-dimensional space;
A coordinate conversion step of converting the three-dimensional coordinates of the movement trajectory of the pointer into coordinates having an X axis and a Y axis on the virtual plane and a Z axis in a direction perpendicular to the XY plane;
An input trajectory acquisition step of acquiring, as an input trajectory, a trajectory on the XY plane of the movement trajectory of the pointer;
A contact degree acquisition step of calculating a contact degree with respect to the virtual plane from a position in the Z-axis direction out of the movement locus of the pointer and acquiring the contact degree in association with the input locus;
A display step of displaying the input locus as a display locus on the GUI screen when the contact degree exceeds a predetermined threshold;
Displaying on the GUI screen an indicator for indicating a position of the pointer on the XY plane and a distance in the Z-axis direction to the virtual plane,
The display step changes the expression of the display trajectory according to the contact degree.
Spatial handwriting input method.
請求項6に記載の方法をコンピュータにより実行させることを特徴とするコンピュータプログラム。   A computer program for causing a computer to execute the method according to claim 6.
JP2014244709A 2014-12-03 2014-12-03 Spatial handwriting input system, spatial handwriting input method, and computer program Pending JP2016110249A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014244709A JP2016110249A (en) 2014-12-03 2014-12-03 Spatial handwriting input system, spatial handwriting input method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014244709A JP2016110249A (en) 2014-12-03 2014-12-03 Spatial handwriting input system, spatial handwriting input method, and computer program

Publications (1)

Publication Number Publication Date
JP2016110249A true JP2016110249A (en) 2016-06-20

Family

ID=56123992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014244709A Pending JP2016110249A (en) 2014-12-03 2014-12-03 Spatial handwriting input system, spatial handwriting input method, and computer program

Country Status (1)

Country Link
JP (1) JP2016110249A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020031493A1 (en) * 2018-08-08 2020-02-13 株式会社Nttドコモ Terminal device and method for controlling terminal device
WO2021001894A1 (en) * 2019-07-01 2021-01-07 三菱電機株式会社 Display control device and display control method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080120577A1 (en) * 2006-11-20 2008-05-22 Samsung Electronics Co., Ltd. Method and apparatus for controlling user interface of electronic device using virtual plane
JP2010015553A (en) * 2008-06-03 2010-01-21 Shimane Pref Gov Image recognition device, manipulation determination method, and program
JP2010205223A (en) * 2009-03-06 2010-09-16 Seiko Epson Corp System and device for control following gesture for virtual object
US20140123079A1 (en) * 2012-10-31 2014-05-01 Huawei Device Co., Ltd. Drawing control method, apparatus, and mobile terminal
WO2014080829A1 (en) * 2012-11-22 2014-05-30 シャープ株式会社 Data input device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080120577A1 (en) * 2006-11-20 2008-05-22 Samsung Electronics Co., Ltd. Method and apparatus for controlling user interface of electronic device using virtual plane
JP2010015553A (en) * 2008-06-03 2010-01-21 Shimane Pref Gov Image recognition device, manipulation determination method, and program
US20110141009A1 (en) * 2008-06-03 2011-06-16 Shimane Prefectural Government Image recognition apparatus, and operation determination method and program therefor
JP2010205223A (en) * 2009-03-06 2010-09-16 Seiko Epson Corp System and device for control following gesture for virtual object
US20140123079A1 (en) * 2012-10-31 2014-05-01 Huawei Device Co., Ltd. Drawing control method, apparatus, and mobile terminal
WO2014067110A1 (en) * 2012-10-31 2014-05-08 华为终端有限公司 Drawing control method, apparatus and mobile terminal
WO2014080829A1 (en) * 2012-11-22 2014-05-30 シャープ株式会社 Data input device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020031493A1 (en) * 2018-08-08 2020-02-13 株式会社Nttドコモ Terminal device and method for controlling terminal device
JPWO2020031493A1 (en) * 2018-08-08 2021-08-12 株式会社Nttドコモ Terminal device and control method of terminal device
JP6999822B2 (en) 2018-08-08 2022-01-19 株式会社Nttドコモ Terminal device and control method of terminal device
WO2021001894A1 (en) * 2019-07-01 2021-01-07 三菱電機株式会社 Display control device and display control method
JPWO2021001894A1 (en) * 2019-07-01 2021-11-18 三菱電機株式会社 Display control device and display control method
JP7179180B2 (en) 2019-07-01 2022-11-28 三菱電機株式会社 Display control device and display control method

Similar Documents

Publication Publication Date Title
US20240077969A1 (en) Gesture recognition devices and methods
CN108431729B (en) Three-dimensional object tracking to increase display area
JP6617111B2 (en) Aerial ultrasonic pen gesture
JP6074170B2 (en) Short range motion tracking system and method
JP5930618B2 (en) Spatial handwriting system and electronic pen
TWI502459B (en) Electronic device and touch operating method thereof
US20150177866A1 (en) Multiple Hover Point Gestures
US9262012B2 (en) Hover angle
EP2482176A2 (en) Multi-input gesture control for a display screen
JP6301736B2 (en) Electronic apparatus and method
JP6010253B2 (en) Electronic device, method and program
JP6248462B2 (en) Information processing apparatus and program
US20160370986A1 (en) Hand-written recording device and hand-written recording method
WO2013054155A1 (en) Multi-touch human interface system and device for graphical input, and method for processing image in such a system.
CN105488832B (en) Optical digital ruler
EP3177983B1 (en) Determining a position of an input object
JP2016110249A (en) Spatial handwriting input system, spatial handwriting input method, and computer program
CN104298438A (en) Electronic device and touch operation method thereof
CN113515228A (en) Virtual scale display method and related equipment
US9430702B2 (en) Character input apparatus and method based on handwriting
JP6264003B2 (en) Coordinate input system, coordinate instruction unit, coordinate input unit, control method of coordinate input system, and program
CN112306242A (en) Interaction method and system based on book-space gestures
JP2016118947A (en) Spatial handwriting input system using angle-adjustable virtual plane
US20230070034A1 (en) Display apparatus, non-transitory recording medium, and display method
JP2015135537A (en) Coordinate detection system, information processing device, coordinate detection method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190219