JP5062898B2 - User interface device - Google Patents

User interface device Download PDF

Info

Publication number
JP5062898B2
JP5062898B2 JP2008167796A JP2008167796A JP5062898B2 JP 5062898 B2 JP5062898 B2 JP 5062898B2 JP 2008167796 A JP2008167796 A JP 2008167796A JP 2008167796 A JP2008167796 A JP 2008167796A JP 5062898 B2 JP5062898 B2 JP 5062898B2
Authority
JP
Japan
Prior art keywords
gui
fingertip
unit
image
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008167796A
Other languages
Japanese (ja)
Other versions
JP2010009311A (en
Inventor
敦士 山下
智裕 寺田
卓哉 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008167796A priority Critical patent/JP5062898B2/en
Publication of JP2010009311A publication Critical patent/JP2010009311A/en
Application granted granted Critical
Publication of JP5062898B2 publication Critical patent/JP5062898B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンピュータ装置等に対し、実行すべき機能をユーザが指定可能なユーザインタフェイス装置に関し、より特定的には、手の動きに応じて各機能を指先に割り当て、指先への各機能の割り当てを操作者が直感的に把握できるユーザインタフェイス装置に関するものである。   The present invention relates to a user interface device that allows a user to specify a function to be executed with respect to a computer device or the like, and more specifically, assigns each function to a fingertip according to the movement of the hand, and each function to the fingertip. It is related with the user interface apparatus which an operator can grasp | ascertain the allocation of this.

情報機器端末が多機能化するに従って、より使い勝手の良いユーザインタフェイスが求められている。使いやすいユーザインタフェイスの一例として、タッチパネルディスプレイがある。このタッチパネルディスプレイは、ディスプレイに表示されているGUI(Graphical User Interface)を押す操作をすることで、命令や情報を入力することができ、初心者にとっても直感的なユーザインタフェイス装置である。しかし、タッチパネルディスプレイでは、ユーザの指の接触位置を検知するタッチパネルと、ディスプレイが一体になっているため、ディスプレイが手元にないと操作を実行できないという課題があった。   As information equipment terminals become more multifunctional, user interfaces that are easier to use are required. An example of a user interface that is easy to use is a touch panel display. This touch panel display is an intuitive user interface device that can be used to input commands and information by pressing a GUI (Graphical User Interface) displayed on the display, and is intuitive for beginners. However, in the touch panel display, since the touch panel for detecting the contact position of the user's finger and the display are integrated, there is a problem that the operation cannot be executed unless the display is at hand.

この課題を解決するため、タッチパネルとディスプレイを分離し、タッチパネル上のユーザの手を、ディスプレイに表示されるGUIに重畳表示することで、ディスプレイから離れた位置からでも直感的な操作感を維持したユーザインタフェイス装置が開発されている(例えば、特許文献1を参照)。   In order to solve this problem, the touch panel and the display are separated, and the user's hand on the touch panel is superimposed on the GUI displayed on the display, thereby maintaining an intuitive operational feeling even from a position away from the display. User interface devices have been developed (see, for example, Patent Document 1).

特許文献1には、指先の位置を表す座標群それぞれに対し、GUI部品が一意に関連づけられた、GUI画像を作成するユーザインタフェイスシステムが開示されている。これにより、それぞれの指先に関連づけられた機能が明確になり、どのような機能が実現可能であるのかを視認可能にユーザに提示でき、より使い勝手の良いユーザインタフェイスシステムを提供することができる。
国際公開第2006/104132号パンフレット
Patent Document 1 discloses a user interface system that creates a GUI image in which a GUI component is uniquely associated with each coordinate group representing the position of a fingertip. As a result, the functions associated with the respective fingertips are clarified, and what functions can be realized can be presented to the user so as to be visible, and a user interface system that is easier to use can be provided.
International Publication No. 2006/104132 Pamphlet

しかし、前記の構成では、GUI部品とそれぞれの指先が、一意に関連づけられているため、同一の場面で実行できる機能はその場面で使用できる指の本数に限定される。そのため、更に多くの機能が実現可能であることを視認可能に提示することができない。   However, in the above configuration, since the GUI component and each fingertip are uniquely associated, the functions that can be executed in the same scene are limited to the number of fingers that can be used in that scene. For this reason, it cannot be presented in a visible manner that more functions can be realized.

本発明は、前記従来の課題を解決するもので、使用できる指の本数に限定されずに、多数の機能が実現可能であることを視認可能に提示できるユーザインタフェイス装置を提供することを目的とする。   The present invention solves the above-described conventional problems, and an object thereof is to provide a user interface device capable of visually presenting that a large number of functions can be realized without being limited to the number of usable fingers. And

上記目的を達成するために、本発明のユーザインタフェイス装置は、機器を操作するためのユーザインタフェイス装置であって、操作者の手形状を取得する手形状取得部と、取得した手形状の指先位置を検出する指先位置検出部と、機器を操作するための機能に対して一意に割り当てられたGUI(Graphical User Interface)部品を表すGUI部品データを記憶するGUI部品データ記憶部と、手形状取得部が取得した手形状の各指先位置にGUI部品データ記憶部から読み出したGUI部品データを割り当てるGUI部品割り当て部と、GUI部品割り当て部が割り当てたGUI部品の画像と手形状の画像との合成画像を作成する重畳表示映像作成部と、重畳表示映像作成部が作成した合成画像を表示する表示部とを備え、表示部に表示される手形状の画像の手首から中指の指先に向う方向にほぼ等しい表示部の縦方向をY軸方向とし、Y軸方向に直交する表示部の横方向をX軸方向とすると、GUI部品割り当て部は、前記手形状の少なくとも1本の指に対して複数のGUI部品を指先位置からY軸方向に所定のオフセット値を持たせて割り当て、重畳表示映像作成部は、指先位置のX軸方向の動きに対してはGUI部品の画像を各指先位置に追従させ、指先位置のY軸方向の動きに対してはGUI部品の画像を動かさずに手形状の画像との合成画像を作成することを特徴とする。 In order to achieve the above object, a user interface device of the present invention is a user interface device for operating a device, and includes a hand shape acquisition unit that acquires the hand shape of an operator, and the acquired hand shape. A fingertip position detection unit for detecting a fingertip position; a GUI part data storage unit for storing GUI part data representing a GUI (Graphical User Interface) part uniquely assigned to a function for operating the device; and a hand shape A GUI component allocation unit that allocates GUI component data read from the GUI component data storage unit to each fingertip position of the hand shape acquired by the acquisition unit, and a combination of the GUI component image allocated by the GUI component allocation unit and the hand shape image A superimposed display video creation unit that creates an image and a display unit that displays a composite image created by the superimposed display video creation unit The provided, the longitudinal direction of substantially equal display unit in a direction toward the fingertips of the middle finger from the wrist of the image of the hand shape is displayed on the display unit and the Y-axis direction, X-axis lateral of the display unit that is orthogonal to the Y-axis direction If the direction, the GUI component allocation unit allocates a plurality of GUI components to the at least one finger of the hand shape with a predetermined offset value in the Y-axis direction from the fingertip position, and the superimposed display image creation unit The image of the GUI part follows the fingertip position for the movement of the fingertip position in the X-axis direction, and the image of the hand shape without moving the image of the GUI part for the movement of the fingertip position in the Y-axis direction. A composite image is created.

本発明のユーザインタフェイス装置によれば、使用できる指の本数に限定されずに、多数の機能が実現可能であることを視認可能に提示することができる。これにより、より使い勝手の良いユーザインタフェイス装置を提供することができる。   According to the user interface device of the present invention, it is possible to visually indicate that a large number of functions can be realized without being limited to the number of fingers that can be used. As a result, a user interface device that is easier to use can be provided.

以下、本発明の実施の形態にかかるユーザインタフェイス装置について図面を用いて説明する。
(実施の形態1)
図1は本実施の形態におけるユーザインタフェイス装置100の構成を説明するための概念図である。図1において、ユーザインタフェイス装置100は、接触位置検出部110、コンピュータ120、ディスプレイ130から構成される。
Hereinafter, a user interface device according to an embodiment of the present invention will be described with reference to the drawings.
(Embodiment 1)
FIG. 1 is a conceptual diagram for explaining a configuration of a user interface device 100 according to the present embodiment. In FIG. 1, the user interface device 100 includes a contact position detection unit 110, a computer 120, and a display 130.

接触位置検出部110は、代表的には複数の接触点を検知することができるタッチパッドからなる。タッチパッドの検知方式には、静電容量方式、感圧方式、抵抗膜方式などが存在するが、どの方式を選択するかは問わない。また、接触位置検出部110は、上部または下部に設置された、単独または複数のカメラであってもよい。カメラの検知対象としては、可視光、赤外線、超音波などが存在するが、どの検知方式を選択するかは問わない。操作者は、接触位置検出部110上に自身の手111を置き、ユーザインタフェイス装置100の操作を行う。   The contact position detection unit 110 is typically composed of a touch pad that can detect a plurality of contact points. The touch pad detection method includes a capacitance method, a pressure sensitive method, a resistance film method, and the like, but it does not matter which method is selected. Further, the contact position detection unit 110 may be a single camera or a plurality of cameras installed at the upper part or the lower part. Visible light, infrared rays, ultrasonic waves, and the like exist as detection targets of the camera, but it does not matter which detection method is selected. The operator places his / her hand 111 on the contact position detection unit 110 and operates the user interface device 100.

コンピュータ120は、接触位置検出部110からの信号を入力するインタフェイスと、CPUまたはMPU、ROM、RAM、各モジュール間を結ぶバスと、映像出力インタフェイスからなる。コンピュータ120は、パーソナルコンピュータ(以下PC)でもよいし、専用機であってもよい。コンピュータ120は、接触位置検出部110において取得した接触位置情報122を入力とし、RAM121に記憶した手形状モデルを変形して操作者の手形状画像123を作成する。ここで、接触位置検出部110にカメラを用いた場合には、カメラで取得した画像を手形状画像123としてもよい。RAM121には、機器を操作するための機能に対して一意に割り当てられたGUI部品を表すGUI部品データが記憶されている。コンピュータ120は、手形状画像の各指に割り当てられる機能に対応するGUI部品データをRAM121から読み出し、操作者の手形状画像123の各指にGUI部品の画像を重畳させた合成画像131を作成し、ディスプレイ130に出力する。   The computer 120 includes an interface for inputting a signal from the contact position detection unit 110, a CPU or MPU, ROM, RAM, a bus connecting each module, and a video output interface. The computer 120 may be a personal computer (hereinafter referred to as a PC) or a dedicated machine. The computer 120 receives the contact position information 122 acquired by the contact position detection unit 110 as an input and deforms the hand shape model stored in the RAM 121 to create an operator's hand shape image 123. Here, when a camera is used for the contact position detection unit 110, an image acquired by the camera may be used as the hand shape image 123. The RAM 121 stores GUI component data representing a GUI component uniquely assigned to a function for operating the device. The computer 120 reads out GUI component data corresponding to the function assigned to each finger of the hand shape image from the RAM 121, and creates a composite image 131 by superimposing the GUI component image on each finger of the operator's hand shape image 123. And output to the display 130.

ディスプレイ130は、コンピュータ120が生成した合成画像131を表示する装置である。ディスプレイの方式には液晶、ELなどが存在するが、どの方式を選択するかは問わない。操作者はディスプレイ130の合成画像131の映像を見ながら接触位置検出部110上の手111を動かすことで入力操作を行う。   The display 130 is a device that displays the composite image 131 generated by the computer 120. There are liquid crystal, EL, and the like as display methods, but it does not matter which method is selected. The operator performs an input operation by moving the hand 111 on the contact position detection unit 110 while watching the composite image 131 on the display 130.

次に、接触位置検出部110が複数の接触点を検知することができるタッチパッドである場合において、タッチパッドが出力するデータについて図2を用いて説明する。複数の点を検出するタッチパッドの方式は、主に2つの方式に大別される。第1の方式は、図2(a)に示すように、個別に接触の有無を検知する素子や電極が全面に配置され、指などの接触を領域201として判定するものであり、発光部となる液晶のセルと共にイメージセンサを並べたものがある。第2の方式は、図2(b)に示すように、縦および横方向の直線上に接触物の存在を検知する素子や電極が配置され、指などの接触領域を2つの方向の検知結果202の交わり203として検知する方式である。   Next, when the touch position detection unit 110 is a touch pad that can detect a plurality of touch points, data output from the touch pad will be described with reference to FIG. The touch pad methods for detecting a plurality of points are roughly classified into two methods. In the first method, as shown in FIG. 2A, elements and electrodes that individually detect the presence or absence of contact are arranged on the entire surface, and contact with a finger or the like is determined as a region 201. There are image sensors arranged along with liquid crystal cells. In the second method, as shown in FIG. 2B, elements and electrodes for detecting the presence of a contact object are arranged on a straight line in the vertical and horizontal directions, and a contact area such as a finger is detected in two directions. This is a method of detecting as an intersection 203 of 202.

次に、図3を用いて、接触位置検出部110が下部に設置された単独のカメラである場合における設置方法の一例を説明する。図3(a)は接触位置検出部110を操作面に垂直な面で切ったときの断面図を表しており、操作面301の下部に、発光部302およびカメラ303が設置されている。発光部302およびカメラ303が関わる波長帯は可視光でも良いが、外光の影響を最小限にするために近赤外線または遠赤外線とすることもできる。ユーザが操作面301の上部に手304を置くと、発光部302から出た光は手304で反射してカメラ303で撮像される。これにより、図3(b)のような手形状画像305を検出することができる。なお、手304に当たる光の照度がカメラで撮像するのに十分な場合には、発光部302は無くても構わない。また、発光部302およびカメラ303は、操作面301およびユーザの手304の上部にあって、上部より操作面301を撮像する構成であっても構わず、カメラも単独ではなく複数台であってもよい。   Next, an example of an installation method in the case where the contact position detection unit 110 is a single camera installed in the lower part will be described with reference to FIG. FIG. 3A illustrates a cross-sectional view of the contact position detection unit 110 taken along a plane perpendicular to the operation surface. A light emitting unit 302 and a camera 303 are installed below the operation surface 301. The wavelength band associated with the light emitting unit 302 and the camera 303 may be visible light, but may be near infrared or far infrared in order to minimize the influence of external light. When the user places the hand 304 on the top of the operation surface 301, the light emitted from the light emitting unit 302 is reflected by the hand 304 and captured by the camera 303. Thereby, the hand shape image 305 as shown in FIG. 3B can be detected. Note that when the illuminance of light hitting the hand 304 is sufficient to capture an image with the camera, the light emitting unit 302 may be omitted. Further, the light emitting unit 302 and the camera 303 may be configured to image the operation surface 301 from the upper part of the operation surface 301 and the user's hand 304. Also good.

次に、図4を用いて、本実施の形態におけるコンピュータ120の動作フローを説明する。
まず、コンピュータ120は接触位置検出部110より接触位置座標を入力する(ステップS401)。次に、入力した指先座標に基づいてモード遷移を行う(ステップS402)。次に、ユーザの指先座標およびモードに基づいて、フリック(操作面上で指をはじく様な操作)、タップの操作が行われたか検出を行う(ステップS403)。次に、検出結果に基づいて描画情報の作成を行い、ディスプレイ130に出力する(ステップS404)。更に、ユーザが所望する機能の実行を行う(ステップS405)。以上の動作を、特定の時間(例えば、10ミリ秒)ごとに繰り返して行う。
Next, the operation flow of the computer 120 in this embodiment will be described with reference to FIG.
First, the computer 120 inputs contact position coordinates from the contact position detection unit 110 (step S401). Next, mode transition is performed based on the input fingertip coordinates (step S402). Next, based on the user's fingertip coordinates and mode, it is detected whether or not a flick (operation that flicks the finger on the operation surface) or tap is performed (step S403). Next, drawing information is created based on the detection result, and output to the display 130 (step S404). Further, the function desired by the user is executed (step S405). The above operation is repeated every specific time (for example, 10 milliseconds).

次に、図5を用いて接触位置検出部110が複数の接触点を検知することができるタッチパッドである場合における、ステップS401の詳細動作フローを説明する。
まず、コンピュータ120は、接触位置検出部110から接触領域のデータを入力する。次に、接触領域の面積が所定値より小さいものをノイズと見なしカットする(ステップS501)。残ったものを接触領域として認識する(ステップS502)。次に、認識した各接触領域について、重心位置を求める(ステップS503)。次に、各重心位置を横方向にソートする(ステップS504)。例えば、横方向にソートした重心位置の右から順に、認識した各接触領域について指先1・指先2・・・と名前付けを行う。次に、ソートされた重心位置を指先座標としてRAM121に格納する(ステップS505)。
Next, a detailed operation flow of step S401 when the contact position detection unit 110 is a touch pad that can detect a plurality of contact points will be described with reference to FIG.
First, the computer 120 inputs contact area data from the contact position detection unit 110. Next, if the area of the contact area is smaller than a predetermined value, it is considered as noise and cut (step S501). The remaining one is recognized as a contact area (step S502). Next, the center of gravity position is determined for each recognized contact area (step S503). Next, the barycenter positions are sorted in the horizontal direction (step S504). For example, the recognized contact areas are named fingertip 1, fingertip 2,... In order from the right of the center of gravity position sorted in the horizontal direction. Next, the sorted barycentric position is stored in the RAM 121 as fingertip coordinates (step S505).

次に、図6を用いて、接触位置検出部110が上部または下部に設置された単独または複数のカメラである場合における、ステップS401の詳細動作フローを説明する。
まず、コンピュータ120は、カメラから撮像データを入力する。次に、所定の値を閾値として二値化処理を行う。次に、二値化画像の各領域について、面積が所定値より小さいものをノイズと見なしカットする(ステップS601)。残ったものを手の領域として認識する(ステップS602)。次に、認識された手の領域について画像認識により指先座標を特定する(ステップS603)。次に、各指先位置を横方向にソートする(ステップS604)。例えば、横方向にソートした指先位置の右から順に、認識した各指先位置について指先1・指先2・・・と名前付けを行う。次に、ソートされた指先位置を指先座標としてRAM121に格納する(ステップS605)。
Next, a detailed operation flow in step S401 when the contact position detection unit 110 is a single camera or a plurality of cameras installed at the upper part or the lower part will be described with reference to FIG.
First, the computer 120 inputs imaging data from the camera. Next, binarization processing is performed using a predetermined value as a threshold value. Next, regarding each area of the binarized image, an area having an area smaller than a predetermined value is regarded as noise and cut (step S601). The remaining one is recognized as a hand region (step S602). Next, fingertip coordinates are identified by image recognition for the recognized hand region (step S603). Next, the fingertip positions are sorted in the horizontal direction (step S604). For example, the recognized fingertip positions are named fingertip 1, fingertip 2,... In order from the right of the fingertip positions sorted in the horizontal direction. Next, the sorted fingertip positions are stored in the RAM 121 as fingertip coordinates (step S605).

次に、図7を用いて、ステップS402の詳細動作フローを説明する。
まず、コンピュータ120は入力した指先座標に基づいて、指先ボタンモードに遷移するトリガーを検出したかどうかを判定する(ステップS701)。ここでのトリガーの選択は任意である。例えば、画面上に表示されたボタンに対応する位置がタップされた、あるいは定められたルールにのっとった軌跡を描くように操作面が指でなぞられた等をトリガーとして検出する。次に、トリガーが検出されたと判定された場合、指先ボタンモードに遷移する(ステップS702)。トリガーが検出されていない場合は、何もせずにステップS402の処理を終了する。
Next, the detailed operation flow of step S402 will be described with reference to FIG.
First, the computer 120 determines whether or not a trigger for transition to the fingertip button mode is detected based on the input fingertip coordinates (step S701). The selection of the trigger here is arbitrary. For example, it is detected as a trigger that the position corresponding to the button displayed on the screen is tapped or the operation surface is traced with a finger so as to draw a trajectory according to a predetermined rule. Next, when it is determined that a trigger has been detected, the state transitions to the fingertip button mode (step S702). If no trigger is detected, the process of step S402 is terminated without doing anything.

次に、図8を用いて、ステップS404の詳細動作フローを説明する。
まず、コンピュータ120は、指先ボタンモードに遷移した場合、GUI部品の情報をオフセット情報と共に読み出す(ステップS801)。このGUI部品の情報とオフセット情報の構成については後述する。次に、GUI部品に対応する指先座標を参照する(ステップS802)。次に、各指先座標に対し、ステップS801で読み込んだGUI部品のオフセット情報を加味した位置を計算し、その位置にGUI部品を描画する命令群を生成する(ステップS803)。ここでは、命令を描画キューにセットするだけで実際の描画は行わない。最後に、必要なGUI部品の描画処理が終わったかどうかをチェックする(ステップS804)。終わっていない場合には、ステップS801に戻り、残りのGUI部品の描画を行う。必要なGUI部品を手形状画像に重畳させた描画処理が終わった場合は、ステップS404の処理を終了する。
Next, the detailed operation flow of step S404 will be described with reference to FIG.
First, when the computer 120 transits to the fingertip button mode, the information of the GUI component is read together with the offset information (step S801). The configuration of the GUI component information and offset information will be described later. Next, fingertip coordinates corresponding to the GUI component are referred to (step S802). Next, for each fingertip coordinate, a position that takes into account the offset information of the GUI part read in step S801 is calculated, and a command group for drawing the GUI part at that position is generated (step S803). Here, the actual drawing is not performed only by setting the command in the drawing queue. Finally, it is checked whether or not the necessary GUI component drawing processing has been completed (step S804). If not completed, the process returns to step S801 to draw the remaining GUI parts. When the drawing process in which the necessary GUI component is superimposed on the hand shape image is completed, the process of step S404 is terminated.

次に、図9を用いて、ステップS801で読み出されるオフセット情報付きGUI部品データのフォーマットの一例を説明する。
図9の表の1行目は、GUI部品IDである。各部品に固有の値が割り当てられる。2行目は、GUI部品の種別を表す番号または文字列であり、例えばコマンドボタン、トグルスイッチ、チェックボックスなど表示形態の種類を表す値が割り当てられる。3行目は形状データであり、長方形などの大きさ、ポリゴンなどの形状を表す値が割り当てられる。4行目は色、テキスチャデータであり、GUI部品の表面に貼られるビットマップデータおよび塗りつぶしや枠線に用いられる色に関するデータである。5行目は、テキストデータであり、コマンドボタンやトグルスイッチ等の表面にラベルとして記される文字列が割り当てられる。6行目は、実行コマンドでありGUI部品が選択されたときに実行すべきコマンドのIDが割り当てられる。7行目は、対応する指であり、GUI部品が追従するべき指の識別(親指、人差し指など)が格納される。8行目は、指先座標からの縦方向(Y軸方向)オフセットであり、モード遷移時の指先座標から、GUI部品を表示するべき位置(典型的には中心位置)までのオフセット値である。
Next, an example of the format of the GUI component data with offset information read in step S801 will be described with reference to FIG.
The first row of the table in FIG. 9 is the GUI component ID. A unique value is assigned to each part. The second line is a number or character string that represents the type of GUI component, and is assigned a value that represents the type of display form, such as a command button, toggle switch, or check box. The third line is shape data, and a value representing a size such as a rectangle and a shape such as a polygon is assigned. The fourth line is color and texture data, which is bitmap data pasted on the surface of the GUI component and data related to colors used for painting and frame lines. The fifth line is text data, and a character string described as a label is assigned to the surface of a command button, toggle switch, or the like. The sixth line is an execution command, and an ID of a command to be executed when a GUI component is selected is assigned. The seventh line is a corresponding finger, and the identification (thumb, index finger, etc.) of the finger to be followed by the GUI component is stored. The eighth line is a vertical direction (Y-axis direction) offset from the fingertip coordinates, and is an offset value from the fingertip coordinates at the time of mode transition to the position (typically the center position) at which the GUI component is to be displayed.

例えば、対応する指が中指でありオフセット値が+10であるとする。モード遷移時の中指の座標が画面座標系で (x,y)=(30,80) であった場合、モード遷移時にGUI部品を表示するべき位置は、縦方向であるy座標にオフセット値を加えて、(30,90)となる。この場合、指先の位置の上部に該当するGUI部品が描画されることになる。   For example, it is assumed that the corresponding finger is a middle finger and the offset value is +10. When the coordinate of the middle finger at the time of the mode transition is (x, y) = (30, 80) in the screen coordinate system, the position where the GUI component is to be displayed at the time of the mode transition is set to the offset value in the vertical y coordinate. In addition, (30, 90) is obtained. In this case, the GUI component corresponding to the upper part of the fingertip position is drawn.

次に、手形状画像にGUI部品を重畳して合成画像を作成する処理が終わり、2回目以降にユーザが操作面上の手を動かした場合の処理について、図10のフローチャートを用いて説明する。図10は、2回目以降の処理であって、図8のステップS404のフローチャートに変えて行われる。なお、図8と同じ処理については同じステップ番号を付してその説明を省略する。図8と異なるところは、ステップS1001およびS1002の処理が追加されている点である。図8の1回目の描画処理で、ディスプレイ上には既に手形状画像にGUI部品を重畳した合成画像が表示されている。ここで、コンピュータ120は、RAM121に保存されている最新の指先座標のY座標と前回のY座標を比較して、所定値以上変化しているかを調べ、所定値以上変化していると判断すると(ステップS1001でYes)、ステップS1002に進み、指先座標を前回の指先座標にする。   Next, a process when the process of creating a composite image by superimposing a GUI part on a hand shape image is completed will be described with reference to the flowchart of FIG. . FIG. 10 shows the second and subsequent processing, which is performed in place of the flowchart of step S404 in FIG. Note that the same processes as those in FIG. 8 are denoted by the same step numbers and description thereof is omitted. The difference from FIG. 8 is that the processes of steps S1001 and S1002 are added. In the first drawing process of FIG. 8, a composite image in which a GUI part is superimposed on the hand shape image is already displayed on the display. Here, the computer 120 compares the latest Y-coordinate of the fingertip coordinates stored in the RAM 121 with the previous Y-coordinate to determine whether or not it has changed by a predetermined value or more, and determines that it has changed by a predetermined value or more. (Yes in step S1001), the process proceeds to step S1002, and the fingertip coordinates are set to the previous fingertip coordinates.

すなわち、ユーザが手をX軸方向に動かした場合には、最新の指先座標を用いてステップS801〜S804の処理が行われ、GUI部品が手形状画像の指先の動きに追従して動く。ユーザが指を曲げたり伸ばしたりすることで指先座標のY座標が変化した場合には、前回の指先座標でステップS801〜S804の描画処理が実行されるため、GUI部品は指先の動きに追従して動かない。   That is, when the user moves the hand in the X-axis direction, the processing of steps S801 to S804 is performed using the latest fingertip coordinates, and the GUI component moves following the movement of the fingertip of the hand shape image. When the Y-coordinate of the fingertip coordinate changes as the user bends or stretches the finger, the drawing process in steps S801 to S804 is executed with the previous fingertip coordinate, so the GUI component follows the movement of the fingertip. Does not move.

次に、図11、12を用いて、ステップS404で描画される画面の一例を説明する。
図11は、指先ボタンモード遷移時に十字カーソルキーを表示する例である。図11において、薬指の指先座標1102、中指の指先座標1103、人差し指の指先座標1104に対応する位置に、左キー1105、決定キー1106、右キー1107を描画する。これらのボタンには図9におけるオフセット値が設定されていない。一方、上キー1108は、中指の指先座標1103の上部に描画される。これは、上キー1108にあたるGUI部品にオフセット値が設定されているためである。同様に、下キー1109は、オフセット値に従って中指の指先座標1103の下部に描画される。この結果、中指には3つの機能が割り当てられたことになる。
Next, an example of the screen drawn in step S404 will be described with reference to FIGS.
FIG. 11 is an example in which a cross cursor key is displayed at the time of fingertip button mode transition. In FIG. 11, a left key 1105, a determination key 1106, and a right key 1107 are drawn at positions corresponding to the fingertip coordinates 1102 of the ring finger, the fingertip coordinates 1103 of the middle finger, and the fingertip coordinates 1104 of the index finger. The offset values in FIG. 9 are not set for these buttons. On the other hand, the up key 1108 is drawn above the fingertip coordinates 1103 of the middle finger. This is because an offset value is set for the GUI component corresponding to the up key 1108. Similarly, the lower key 1109 is drawn below the fingertip coordinates 1103 of the middle finger according to the offset value. As a result, three functions are assigned to the middle finger.

ここで、ユーザが上キー1108を選択したい場合には、モード遷移時の位置よりも中指を伸ばして上方でタップすることにより上キー1108を選択することができる。指を伸ばすと指先座標が上方(Y軸正方向)にずれるが、指のY軸方向の動きに対しては割り当てられたGUI部品の位置は動かない。そのため、中指を伸ばして上方でタップすることにより上キー1108を選択することができる。   If the user wants to select the upper key 1108, the upper key 1108 can be selected by extending the middle finger and tapping upward from the position at the time of mode transition. When the finger is extended, the fingertip coordinates are shifted upward (Y-axis positive direction), but the position of the assigned GUI component does not move with respect to the movement of the finger in the Y-axis direction. Therefore, the upper key 1108 can be selected by extending the middle finger and tapping upward.

また、ユーザが下キー1109を選択したい場合には、モード遷移時の位置よりも中指を曲げ下方でタップすることにより下キー1109を選択することができる。指を曲げると指先座標が下方(Y軸正方向)にずれるが、上記同様に指のY軸方向の動きに対しては割り当てられたGUI部品の位置は動かない。そのため、中指を曲げて下方でタップすることにより下キー1109を選択することができる。 When the user wants to select the lower key 1109, the lower key 1109 can be selected by bending the middle finger and tapping downward from the position at the time of mode transition. When the finger is bent, the fingertip coordinates are shifted downward (Y-axis positive direction), but the position of the assigned GUI component does not move with respect to the movement of the finger in the Y-axis direction as described above. Therefore, the lower key 1109 can be selected by bending the middle finger and tapping downward.

Y軸方向は手首から中指の指先に向う方向にほぼ等しく、指を曲げたり伸ばしたりすることで上記の様に、所望のGUI部品を容易に選択することができる。   The Y-axis direction is substantially equal to the direction from the wrist toward the fingertip of the middle finger, and a desired GUI component can be easily selected as described above by bending or stretching the finger.

このように十字カーソルキーを表すGUI部品を各指先に割り当て、特に中指に3つのGUI部品を割り当てることによって、十字カーソルキーが示す各方向とボタンの位置が一致しているため、ユーザはより直感的な操作によってこれらのキーを選択することができる。   In this way, by assigning a GUI part representing the cross cursor key to each fingertip, and particularly by assigning three GUI parts to the middle finger, each direction indicated by the cross cursor key matches the position of the button. These keys can be selected by a typical operation.

図12は、モード遷移時の指先位置より手が右に移動した場合の表示画面の例である。各GUI部品には、表示される絶対座標ではなく指先からの縦方向(Y軸方向)のオフセット値が設定されているため、各GUI部品は横方向(X軸方向)の手の動きに追従して動く。これにより、モード遷移時からユーザの手が意図せぬ動きにより(例えば、振動環境下で手がぶれたなど)横方向(X軸方向)に動いても、ボタンが追従するので継続して操作を行うことができる。   FIG. 12 is an example of a display screen when the hand moves to the right from the fingertip position at the time of mode transition. Since each GUI component is set with an offset value in the vertical direction (Y-axis direction) from the fingertip, not in the absolute coordinates to be displayed, each GUI component follows the movement of the hand in the horizontal direction (X-axis direction). And move. As a result, even if the user's hand moves unintentionally from the time of mode transition (for example, when the hand shakes in a vibrating environment), the button will follow and the button will continue to operate. It can be performed.

次に、図13を用いて、本実施の形態で表示される画面の一例を説明する。
図13は、携帯電話などに搭載されているテンキーを各指に複数個ずつ割り当てた例である。このように、各指に複数個のボタンをオフセット値つきで割り当てることによって、指の本数以上の機能を実行できるようにすることができる。各指の機能の割り当ても、指を曲げる、伸ばすによって区分されるため、押し分けが容易であり、慣れればブラインド操作も可能となる。
Next, an example of a screen displayed in the present embodiment will be described with reference to FIG.
FIG. 13 shows an example in which a plurality of numeric keys mounted on a mobile phone or the like are assigned to each finger. In this way, by assigning a plurality of buttons with offset values to each finger, it is possible to execute functions that are more than the number of fingers. Since the assignment of the function of each finger is also divided by bending or extending the finger, it is easy to push the finger, and a blind operation is also possible when used.

次に、図14、15を用いて、ユーザインタフェイス装置が車内に設置される場所の一例を説明する。
図14は、センタコンソール上に設置された場合を示す。ディスプレイ1401に対しタッチパッド1402をセンタコンソールに設置することによって、遠くの画面を見ながら手元で操作をすることができる。図15は、タッチパッド1502をハンドル上に設置した場合を示す。ハンドル1503の中央部にタッチパッド1502を設置することにより、図14と同様に、遠くの画面を見ながら手元で操作をすることができる。いずれの場合も、図13のような表示を行うことによって、多数の機能をブラインド操作で起動することが可能となる。
Next, an example of a place where the user interface device is installed in the vehicle will be described with reference to FIGS.
FIG. 14 shows a case where it is installed on the center console. By installing the touch pad 1402 on the center console with respect to the display 1401, it is possible to perform an operation at hand while looking at a distant screen. FIG. 15 shows a case where the touch pad 1502 is installed on the handle. By installing the touch pad 1502 in the center portion of the handle 1503, it is possible to perform an operation at hand while looking at a distant screen as in FIG. In any case, by performing the display as shown in FIG. 13, a large number of functions can be activated by a blind operation.

本発明のユーザインタフェイス装置によれば、使用できる指の本数に限定されずに、多数の機能が実現可能であることを視認可能に提示することができるため、カーナビゲーション装置等の車載機器の入力装置等に利用することができる。   According to the user interface device of the present invention, it is possible to visually indicate that a large number of functions can be realized without being limited to the number of fingers that can be used. It can be used for input devices.

本発明の実施形態にかかるユーザインタフェイス装置の構成を説明するための概念図The conceptual diagram for demonstrating the structure of the user interface apparatus concerning embodiment of this invention. 接触位置検出部110として用いる複数の接触点を検知できるタッチパッドの検知方式を説明するための図で、(a)個別に接触の有無を検知する素子や電極が全面に配置された方式を説明するための図、(b)接触領域を縦横方向の検知結果の交わりとして検知する方式を説明するための図It is a figure for demonstrating the detection system of the touchpad which can detect the some contact point used as the contact position detection part 110, (a) It demonstrates the system by which the element and electrode which detect the presence or absence of a contact are arrange | positioned in the whole surface (B) The figure for demonstrating the system which detects a contact area as an intersection of the detection result of the vertical and horizontal direction 接触位置検出部110が下部に設置された単独のカメラである場合における設置方法の一例を示す図で、(a)接触位置検出部110を操作面に垂直な面で切ったときの断面図、(b)カメラにより撮像された手形状画像を示す図It is a figure which shows an example of the installation method in case the contact position detection part 110 is a single camera installed in the lower part, (a) Sectional drawing when the contact position detection part 110 is cut by the surface perpendicular | vertical to the operation surface, (B) The figure which shows the hand shape image imaged with the camera 本実施の形態におけるユーザインタフェイス装置のコンピュータ120の動作を示すフローチャートThe flowchart which shows operation | movement of the computer 120 of the user interface apparatus in this Embodiment. 接触位置検出部110が複数の接触点を検知することができるタッチパッドである場合における、図4のステップS401の詳細動作を示すフローチャートThe flowchart which shows detailed operation | movement of step S401 of FIG. 4 in case the contact position detection part 110 is a touchpad which can detect a some contact point. 接触位置検出部110が上部または下部に設置された単独または複数のカメラである場合における、図4のステップS401の詳細動作を示すフローチャートA flowchart showing the detailed operation of step S401 in FIG. 4 in the case where the contact position detection unit 110 is a single camera or a plurality of cameras installed at the top or bottom. 図4のステップS402の詳細動作を示すフローチャートThe flowchart which shows the detailed operation | movement of step S402 of FIG. 図4のステップS404の詳細動作を示すフローチャートThe flowchart which shows the detailed operation | movement of step S404 of FIG. 図8のステップS801で読み出されるオフセット情報付きGUI部品データのフォーマットの一例を示す図The figure which shows an example of the format of the GUI component data with offset information read by step S801 of FIG. 2回目以降に図8のフローチャートに変えて処理されるステップS404の詳細動作を示すフローチャートFlowchart showing the detailed operation of step S404 processed in place of the flowchart of FIG. 8 after the second time. 図4のステップS404で描画される画面の一例を示す図The figure which shows an example of the screen drawn by step S404 of FIG. 図4のステップS404で描画される画面の一例を示す図The figure which shows an example of the screen drawn by step S404 of FIG. 図4のステップS404で描画される画面の一例を示す図The figure which shows an example of the screen drawn by step S404 of FIG. 本発明の実施形態にかかるユーザインタフェイス装置のタッチパッドが車内のセンタコンソールに設置された一例を示す図The figure which shows an example in which the touchpad of the user interface device concerning embodiment of this invention was installed in the center console in a vehicle 本発明の実施形態にかかるユーザインタフェイス装置のタッチパッドが車内のハンドルに設置される一例を示す図The figure which shows an example in which the touchpad of the user interface apparatus concerning embodiment of this invention is installed in the handle | steering_wheel in a vehicle

符号の説明Explanation of symbols

100 ユーザインタフェイス装置
110 接触位置検出部
111、304 手
120 コンピュータ
121 RAM
122 接触位置情報
123、305、1101、1211 手形状画像
130、1401、1501 ディスプレイ
100 User interface device 110 Contact position detection unit 111, 304 Hand 120 Computer 121 RAM
122 Contact position information 123, 305, 1101, 1211 Hand shape image 130, 1401, 1501 Display

Claims (1)

機器を操作するためのユーザインタフェイス装置であって、
操作者の手形状を取得する手形状取得部と、
前記取得した手形状の指先位置を検出する指先位置検出部と、
前記機器を操作するための機能に対して一意に割り当てられたGUI(Graphical User Interface)部品を表すGUI部品データを記憶するGUI部品データ記憶部と、
前記手形状取得部が取得した手形状の各指先位置にGUI部品データ記憶部から読み出したGUI部品データを割り当てるGUI部品割り当て部と、
前記GUI部品割り当て部が割り当てたGUI部品の画像と手形状の画像との合成画像を作成する重畳表示映像作成部と、
前記重畳表示映像作成部が作成した合成画像を表示する表示部とを備え、
前記表示部に表示される手形状の画像の手首から中指の指先に向う方向にほぼ等しい前記表示部の縦方向をY軸方向とし、前記Y軸方向に直交する前記表示部の横方向をX軸方向とすると、
前記GUI部品割り当て部は、前記手形状の少なくとも1本の指に対して複数のGUI部品を前記指先位置からY軸方向に所定のオフセット値を持たせて割り当て、
前記重畳表示映像作成部は、前記指先位置のX軸方向の動きに対しては前記GUI部品の画像を各指先位置に追従させ、前記指先位置のY軸方向の動きに対しては前記GUI部品の画像を動かさずに手形状の画像との合成画像を作成することを特徴とする、ユーザインタフェイス装置。
A user interface device for operating a device,
A hand shape acquisition unit for acquiring the hand shape of the operator;
A fingertip position detector that detects the fingertip position of the acquired hand shape;
A GUI part data storage unit for storing GUI part data representing a GUI (Graphical User Interface) part uniquely assigned to the function for operating the device;
A GUI component allocation unit that allocates GUI component data read from the GUI component data storage unit to each fingertip position of the hand shape acquired by the hand shape acquisition unit;
A superimposed display video creation unit that creates a composite image of a GUI part image and a hand-shaped image assigned by the GUI part assignment unit;
A display unit for displaying the composite image created by the superimposed display video creation unit,
The vertical direction of the display unit, which is substantially equal to the direction from the wrist of the hand-shaped image displayed on the display unit toward the fingertip of the middle finger, is the Y-axis direction, and the horizontal direction of the display unit orthogonal to the Y-axis direction is X Axis direction
The GUI component allocating unit allocates a plurality of GUI components to at least one finger of the hand shape with a predetermined offset value in the Y-axis direction from the fingertip position,
The superimposed display video creation unit causes the image of the GUI component to follow each fingertip position with respect to the movement of the fingertip position in the X-axis direction, and the GUI component with respect to the movement of the fingertip position in the Y-axis direction. A user interface device, wherein a composite image with a hand-shaped image is created without moving the image.
JP2008167796A 2008-06-26 2008-06-26 User interface device Expired - Fee Related JP5062898B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008167796A JP5062898B2 (en) 2008-06-26 2008-06-26 User interface device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008167796A JP5062898B2 (en) 2008-06-26 2008-06-26 User interface device

Publications (2)

Publication Number Publication Date
JP2010009311A JP2010009311A (en) 2010-01-14
JP5062898B2 true JP5062898B2 (en) 2012-10-31

Family

ID=41589730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008167796A Expired - Fee Related JP5062898B2 (en) 2008-06-26 2008-06-26 User interface device

Country Status (1)

Country Link
JP (1) JP5062898B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5631700B2 (en) * 2010-11-09 2014-11-26 株式会社竹中工務店 Shadow image display system, shadow image display method, and shadow image display program
JP6167932B2 (en) * 2014-02-20 2017-07-26 トヨタ自動車株式会社 Input device and input acquisition method
JP2015172799A (en) * 2014-03-11 2015-10-01 アルプス電気株式会社 touch operation input device
CN111104821A (en) * 2018-10-25 2020-05-05 北京微播视界科技有限公司 Image generation method and device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5764222A (en) * 1996-05-28 1998-06-09 International Business Machines Corporation Virtual pointing device for touchscreens
JP4071550B2 (en) * 2002-06-05 2008-04-02 一好 小谷 Virtual key arrangement method in virtual key one-handed input device
EP1865404A4 (en) * 2005-03-28 2012-09-05 Panasonic Corp User interface system

Also Published As

Publication number Publication date
JP2010009311A (en) 2010-01-14

Similar Documents

Publication Publication Date Title
US11093086B2 (en) Method and apparatus for data entry input
JP5179378B2 (en) User interface device
US7810050B2 (en) User interface system
CN108700957B (en) Electronic system and method for text entry in a virtual environment
US9389779B2 (en) Depth-based user interface gesture control
EP2480955B1 (en) Remote control of computer devices
US10042438B2 (en) Systems and methods for text entry
US20040021663A1 (en) Information processing method for designating an arbitrary point within a three-dimensional space
EP2538305A2 (en) System and method for close-range movement tracking
US9354780B2 (en) Gesture-based selection and movement of objects
GB2470654A (en) Data input on a virtual device using a set of objects.
JP2009042796A (en) Gesture input device and method
JP2012027515A (en) Input method and input device
US9760758B2 (en) Determining which hand is being used to operate a device using a fingerprint sensor
US10656746B2 (en) Information processing device, information processing method, and program
JP5062898B2 (en) User interface device
US9189075B2 (en) Portable computer having pointing functions and pointing system
US20150309601A1 (en) Touch input system and input control method
US10175825B2 (en) Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image
KR20160115022A (en) Non-contact mouse apparatus and digital application system adopting the apparatus
JP5027084B2 (en) Input device and input method
CA2855064A1 (en) Touch input system and input control method
JP2012194729A (en) Handwriting input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110317

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120806

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150817

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees