JP2022078706A - User interface device, user interface system and program for user interface - Google Patents

User interface device, user interface system and program for user interface Download PDF

Info

Publication number
JP2022078706A
JP2022078706A JP2020189577A JP2020189577A JP2022078706A JP 2022078706 A JP2022078706 A JP 2022078706A JP 2020189577 A JP2020189577 A JP 2020189577A JP 2020189577 A JP2020189577 A JP 2020189577A JP 2022078706 A JP2022078706 A JP 2022078706A
Authority
JP
Japan
Prior art keywords
indicator
instruction
user interface
state
pointer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020189577A
Other languages
Japanese (ja)
Other versions
JP7203436B2 (en
Inventor
竜一 小島
Ryuichi Kojima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deep Insight Inc
Original Assignee
Deep Insight Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deep Insight Inc filed Critical Deep Insight Inc
Priority to JP2020189577A priority Critical patent/JP7203436B2/en
Publication of JP2022078706A publication Critical patent/JP2022078706A/en
Application granted granted Critical
Publication of JP7203436B2 publication Critical patent/JP7203436B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a user interface device, a user interface system and a program for user interface which correctly detect a position and a form of an indication body in a camera image.SOLUTION: A user interface device 10A for specifying an indication by identifying the form of an indication body on the basis of a camera image obtained by imaging the indication body that changes its form according to the indication comprises: a detection unit which searches the image obtained by binarizing a camera image in at least two different oblique directions in order to detect an end of an object included in the camera image; an image cut-out unit 12 which cuts out a partial image from the camera image on the basis of the detected end; a selection unit which selects the partial image indicating that the indication body is in the form before the instruction and the partial image indicating that the indication body is in the form of the instruction when the partial image is the partial image obtained by imaging the indication body as the object; and an information generation unit which generates information indicating that the indication body is in the form before the instruction or in the form of the instruction.SELECTED DRAWING: Figure 3

Description

本発明は、指等の指示体の動きによって機器との間でやりとりされる情報を特定するユーザインターフェイス装置、ユーザインターフェイスシステム及びユーザインターフェイス用プログラムに関する。 The present invention relates to a user interface device, a user interface system, and a user interface program that specifies information exchanged with a device by the movement of an indicator such as a finger.

ユーザの指先の動きによってコンピュータへの入力を行うユーザインターフェイス装置が、例えば特許文献1に記載されている。
特許文献1には、ユーザの指先がタッチパネルに触れていなくても、指先の動きに応じてタッチパネル上に表示される画面を変更できるユーザインターフェイス装置が記載されている。具体的には、特許文献1には、ユーザインターフェイス装置が、ディスプレイに表示される表示画像を出力可能な画像出力手段と、ディスプレイの周辺の周辺画像を撮像する撮像手段と、撮像された周辺画像に基づいて、ユーザの指の状態を解析する解析手段と、解析された指の状態に基づいて、ユーザの操作意図を推測する推測手段と、ユーザの指先がディスプレイの表面に触れる前に、推測された操作意図に応じて、表示画像を変更するように画像出力手段を制御する制御手段とを備えていることが記載されている。
For example, Patent Document 1 describes a user interface device that inputs input to a computer by moving a user's fingertip.
Patent Document 1 describes a user interface device that can change the screen displayed on the touch panel according to the movement of the fingertip even if the fingertip of the user does not touch the touch panel. Specifically, in Patent Document 1, a user interface device has an image output means capable of outputting a display image displayed on a display, an imaging means for capturing a peripheral image around the display, and an captured peripheral image. An analysis means that analyzes the state of the user's finger based on, a guess means that infers the operation intention of the user based on the analyzed state of the finger, and a guess before the user's fingertip touches the surface of the display. It is described that the control means for controlling the image output means to change the displayed image according to the operation intention is provided.

特開2011-133942号公報Japanese Unexamined Patent Publication No. 2011-133942

指等の指示体のカメラ画像から認識された指示体の動きによって機器との間で情報をやりとりするユーザインターフェイス装置においては、指示体がカメラ画像のどの位置にあり、どのような形態となっているかを正確に検出することが求められる。
本発明は、指示体がカメラ画像のどの位置にあり、どのような形態となっているかを正確に検出することができるユーザインターフェイス装置、ユーザインターフェイスシステム及びユーザインターフェイス用プログラムを提供することを目的とする。
In a user interface device that exchanges information with a device by the movement of the indicator recognized from the camera image of the indicator such as a finger, the indicator is in what position and form in the camera image. It is required to accurately detect whether or not it is.
An object of the present invention is to provide a user interface device, a user interface system, and a user interface program capable of accurately detecting the position and form of an indicator in a camera image. do.

(1) 本発明の第1の態様は、指示のために形態が変わる指示体を撮像したカメラ画像に基づいて、該指示体の形態を識別することで指示を特定するユーザインターフェイス装置であって、
前記カメラ画像を2値化した画像について、前記カメラ画像に含まれる対象物の端部を検出するために、方向の異なる、少なくとも斜め2方向にサーチする検出部と、
検出された前記端部に基づいて前記カメラ画像から部分画像を切り出す画像切り出し部と、
前記部分画像が、前記対象物として前記指示体を撮像した部分画像である場合に、前記指示体が指示前の形態を示す部分画像と指示の形態を示す部分画像とを選択する選択部と、
前記指示体が指示前の形態か指示の形態かを示す情報を生成する情報生成部と、
を備えたユーザインターフェイス装置である。
(1) The first aspect of the present invention is a user interface device that specifies an instruction by identifying the form of the indicator based on a camera image of an indicator whose form changes for an instruction. ,
With respect to the binarized image of the camera image, in order to detect the end portion of the object included in the camera image, a detection unit that searches in at least two diagonal directions with different directions, and a detection unit.
An image cutout portion that cuts out a partial image from the camera image based on the detected end portion, and an image cutout portion.
When the partial image is a partial image obtained by imaging the indicator as the object, a selection unit for selecting a partial image showing the form before the instruction and a partial image showing the form of the instruction by the indicator.
An information generation unit that generates information indicating whether the indicator is in the form before the instruction or in the form of the instruction.
It is a user interface device equipped with.

(2) 本発明の第2の態様は、上記(1)のユーザインターフェイス装置と、
指示のために形態が変わる指示体を撮像する撮像装置と、
前記ユーザインターフェイス装置から出力される前記指示体が指示前の形態か指示の形態かを示す情報に基づいて操作される表示画面を表示する表示装置と、
を備えた、ユーザインターフェイスシステムである。
(3) 本発明の第3の態様は、コンピュータに、
カメラ画像に含まれる対象物の端部を検出するために、方向の異なる、少なくとも斜め2方向にサーチする検出機能と、
検出された前記端部に基づいて前記カメラ画像から部分画像を切り出す画像切り出し機能と、
前記部分画像が、前記対象物として、指示のために形態が変わる指示体を撮像した部分画像である場合に、前記指示体が指示前の形態を示す部分画像と指示の形態を示す部分画像とを選択する選択機能と、
前記指示体が指示前の形態か指示の形態かを示す情報を生成する情報生成機能と、
を実行させる、ユーザインターフェイス用プログラムである。
(2) The second aspect of the present invention is the user interface device of the above (1) and the above-mentioned user interface device.
An imaging device that captures an image of an indicator whose form changes due to an instruction,
A display device that displays a display screen that is operated based on information indicating whether the indicator output from the user interface device is in the form before the instruction or in the form of the instruction.
It is a user interface system equipped with.
(3) The third aspect of the present invention is to use a computer.
In order to detect the edge of the object contained in the camera image, a detection function that searches in at least two diagonal directions with different directions, and a detection function.
An image cropping function that crops a partial image from the camera image based on the detected edge,
When the partial image is a partial image of an indicator whose form changes due to an instruction as the object, the partial image showing the form before the instruction and the partial image showing the form of the instruction are shown. With the selection function to select
An information generation function that generates information indicating whether the indicator is in the form before the instruction or in the form of the instruction.
Is a user interface program that executes.

本発明によれば、指示体がカメラ画像のどの位置にあり、どのような形態となっているかを正確に検出することができる。 According to the present invention, it is possible to accurately detect the position and the form of the indicator in the camera image.

本発明の一実施形態の、ユーザインターフェイスシステムを示すブロック図である。It is a block diagram which shows the user interface system of one Embodiment of this invention. 親指と人差し指とのピンチで数字キーを選択する動作を示す説明図である。It is explanatory drawing which shows the operation which selects a numeric key | movement by pinch of the thumb and the index finger. ユーザインターフェイス装置の構成を示すブロック図である。It is a block diagram which shows the structure of a user interface device. 右手を含むカメラ画像を示す図である。It is a figure which shows the camera image including the right hand. 右手の形を抽出した画像の上で指先をサーチする方法を説明する図である。It is a figure explaining the method of searching a fingertip on the image which extracted the shape of a right hand. 左手の形を抽出した画像の上で指先をサーチする方法を説明する図である。It is a figure explaining the method of searching a fingertip on the image which extracted the shape of the left hand. 部分画像をクラス分けした表を示す図である。It is a figure which shows the table which divided the partial image into a class. ユーザインターフェイス装置の動作を示すフローチャートである。It is a flowchart which shows the operation of a user interface device. 本発明の第2の実施形態のユーザインターフェイス装置のポインタ演算部を示すブロック図である。It is a block diagram which shows the pointer calculation part of the user interface apparatus of the 2nd Embodiment of this invention. 本実施形態の第2の実施形態のユーザインターフェイス装置の一部の動作を示すフローチャートである。It is a flowchart which shows the operation of a part of the user interface apparatus of 2nd Embodiment of this Embodiment. 本発明の第3の実施形態のユーザインターフェイス装置のポインタ演算部を示すブロック図である。It is a block diagram which shows the pointer calculation part of the user interface apparatus of the 3rd Embodiment of this invention. 本実施形態の第3の実施形態のユーザインターフェイス装置の一部の動作を示すフローチャートである。It is a flowchart which shows the operation of a part of the user interface apparatus of 3rd Embodiment of this Embodiment. 本発明の第4の実施形態のユーザインターフェイス装置のポインタ演算部を示すブロック図である。It is a block diagram which shows the pointer calculation part of the user interface apparatus of 4th Embodiment of this invention. 本実施形態の第4の実施形態のユーザインターフェイス装置の一部の動作を示すフローチャートである。It is a flowchart which shows the operation of a part of the user interface apparatus of 4th Embodiment of this Embodiment. 本発明の第5の実施形態のユーザインターフェイス装置のポインタ演算部を示すブロック図である。It is a block diagram which shows the pointer calculation part of the user interface apparatus of the 5th Embodiment of this invention. 本実施形態の第5の実施形態のユーザインターフェイス装置の一部の動作を示すフローチャートである。It is a flowchart which shows the operation of a part of the user interface apparatus of 5th Embodiment of this Embodiment. 伸ばした親指で非選択状態を表した様子を示す図である。It is a figure which shows the state which showed the non-selection state by the extended thumb. 伸ばした親指を回転させて選択状態を表した様子を示す図である。It is a figure which shows the state which showed the selected state by rotating the extended thumb.

以下、本開示の実施形態について図面を用いて詳細に説明する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.

(第1の実施形態)
図1は、本発明の一実施形態の、ユーザインターフェイスシステムを示すブロック図である。図2は親指と人差し指とのピンチで数字キーを選択する動作を示す説明図である。図3は、ユーザインターフェイス装置の構成を示すブロック図である。図4は、右手を含むカメラ画像を示す図である。図5は、右手の形を抽出した画像の上で指先をサーチする方法を説明する図である。図6は、左手の形を抽出した画像の上で指先をサーチする方法を説明する図である。
(First Embodiment)
FIG. 1 is a block diagram showing a user interface system according to an embodiment of the present invention. FIG. 2 is an explanatory diagram showing an operation of selecting a numeric key by pinching a thumb and an index finger. FIG. 3 is a block diagram showing the configuration of the user interface device. FIG. 4 is a diagram showing a camera image including the right hand. FIG. 5 is a diagram illustrating a method of searching a fingertip on an image obtained by extracting the shape of the right hand. FIG. 6 is a diagram illustrating a method of searching a fingertip on an image obtained by extracting the shape of the left hand.

図1に示すように、ユーザインターフェイスシステム1は、ユーザインターフェイス装置10Aを有するパーソナルコンピュータ10、撮像装置となるカメラ20及び液晶表示装置等の表示装置30を備えている。ここでは、パーソナルコンピュータ10の一部がユーザインターフェイス装置10Aの一部として含む例について説明しているが、ユーザインターフェイス装置10Aは、パーソナルコンピュータ10とは別に設けられてもよい。
図1に示すユーザインターフェイスシステム1は、黒色プレート上で、指示体となる親指と人差し指とを含むユーザの手をカメラ20で撮影し、パーソナルコンピュータ10が表示装置30の表示画面のテンキー(数値入力用キー)上に親指と人差し指とを半透明にして表示する。
As shown in FIG. 1, the user interface system 1 includes a personal computer 10 having a user interface device 10A, a camera 20 serving as an image pickup device, and a display device 30 such as a liquid crystal display device. Here, an example in which a part of the personal computer 10 is included as a part of the user interface device 10A will be described, but the user interface device 10A may be provided separately from the personal computer 10.
In the user interface system 1 shown in FIG. 1, a user's hand including a thumb and an index finger, which are indicators, is photographed by a camera 20 on a black plate, and a personal computer 10 uses a ten-key (numerical input) on the display screen of the display device 30. Key) Display the thumb and index finger semi-transparently on the top.

ユーザが入力したい数字キー上で、親指と人差し指とをピンチする(つまむ)ことで、パーソナルコンピュータ10は、親指と人差し指とのピンチで数字キーが選択されたと判断して、表示装置30の表示画面の数字入力欄に数字を表示する。図1に示すようにテンキーには、0~9の数字キーの他に「DEL」で示される削除キー、「CLR」で示されるクリアキーがある。図2に示すように、親指と人差し指との間に指示点(例えば緑色の指示点)が表示され、この指示点を選択しようとするキー、ここでは削除キー上に置き、親指と人差し指とをピンチすることで、削除キーが選択され、数字入力欄の数字「9632」の内「2」を消すことができる。親指と人差し指との間に指示点を設けることで、キーが小さくとも選択が容易となるが、指示点は表示しなくともよい。 By pinching (pinching) the thumb and index finger on the number keys that the user wants to input, the personal computer 10 determines that the number keys have been selected by pinching the thumb and index finger, and the display screen of the display device 30. Display numbers in the number input field of. As shown in FIG. 1, the numeric keypad includes a delete key indicated by "DEL" and a clear key indicated by "CLR" in addition to the numeric keys 0 to 9. As shown in FIG. 2, a pointing point (for example, a green pointing point) is displayed between the thumb and the index finger, and the key for selecting this pointing point, here, is placed on the delete key, and the thumb and the index finger are placed. By pinching, the delete key is selected, and "2" in the number "9632" in the number input field can be deleted. By providing a pointing point between the thumb and index finger, selection is easy even if the key is small, but the pointing point does not have to be displayed.

親指と人差し指とを用いて、指先でつまむ動作は、誰でもなじみのある動きであり、選択操作に好適な動作であるため、本実施形態は親指と人差し指とを用いて、指先でつまむ動作を選択動作として用いている。親指と人差し指は指示体となるが、以下の説明では、親指と人差し指はキー上の位置を指定するポインタとして説明を行う。 Since the movement of pinching with the fingertip using the thumb and the index finger is a movement familiar to everyone and suitable for the selection operation, in this embodiment, the movement of pinching with the fingertip using the thumb and the index finger is performed. It is used as a selection operation. The thumb and index finger are indicators, but in the following description, the thumb and index finger will be described as pointers that specify the positions on the keys.

図2では右手で親指と人差し指とをピンチすることで、表示装置30の表示画面の数字入力欄に数字を表示する例を示しているが、左手で親指と人差し指とをピンチすることで、表示装置30の表示画面の数字入力欄に数字を表示してもよい。 FIG. 2 shows an example of displaying numbers in the number input field of the display screen of the display device 30 by pinching the thumb and index finger with the right hand, but displaying by pinching the thumb and index finger with the left hand. A number may be displayed in the number input field on the display screen of the device 30.

図3に示すように、ユーザインターフェイス装置10Aは、対象検出部11、画像切り出し部12、形態認識部13、ポインタ選択部14、ポインタ情報生成部15、及びポインタ情報送信部16を備えている。 As shown in FIG. 3, the user interface device 10A includes a target detection unit 11, an image cutting unit 12, a form recognition unit 13, a pointer selection unit 14, a pointer information generation unit 15, and a pointer information transmission unit 16.

対象検出部11は、カメラ画像を2値化し、対象となる部位(例えば、親指と人差し指)を検出し、指先の画像上の位置と指先を含む領域のサイズを出力する。
対象検出部11には、カメラ20で撮影されたカメラ画像が入力される。図4は、右手を含むカメラ画像を示す図である。図4では図示されていないが、右手以外の部分は背景色(ここでは黒色プレートの黒色)となっている。
The target detection unit 11 binarizes the camera image, detects the target portion (for example, the thumb and the index finger), and outputs the position of the fingertip on the image and the size of the region including the fingertip.
A camera image taken by the camera 20 is input to the target detection unit 11. FIG. 4 is a diagram showing a camera image including the right hand. Although not shown in FIG. 4, the portion other than the right hand is the background color (here, the black color of the black plate).

対象検出部11はカメラ画像を2値化して手の形を抽出した画像の上で、指先を検出するために方向の異なる、斜め2方向の2軸でサーチを行う。2軸でサーチすることで、右手には右下方向に、左手には左下方向に走査してサーチし、最初にぶつかる点を指先とみなすことができる。 The target detection unit 11 performs a search on the image obtained by binarizing the camera image and extracting the shape of the hand on two axes in two diagonal directions in different directions in order to detect the fingertip. By searching on two axes, the search can be performed by scanning in the lower right direction for the right hand and in the lower left direction for the left hand, and the first hit point can be regarded as a fingertip.

図5は、右手の形を抽出した画像の上で指先をサーチする方法を説明する図である。図6は、左手の形を抽出した画像の上で指先をサーチする方法を説明する図である。
図5に示すように、2値化された右手の画像を第1サーチ軸でサーチすると、指先を抽出でき、図6に示すように、2値化された左手の画像を第2サーチ軸でサーチすると、指先を抽出できる。このように2軸でサーチを行うと、右手及び左手のいずれであっても指先を検出することできる(図5及び図6において、指先の検出位置を黒点で示す)。
図5及び図6に示すように、右手又は左手の画像を第1サーチ軸と第2サーチ軸の2軸でサーチすると、一方のサーチ軸では指先を抽出できるが、もう一方のサーチ軸の側で、指先ではない箇所(検出位置を黒点で示す)を抽出してしまう(誤検出する)。しかし、認識情報を使って後段のポインタ選択部14で指先ではない箇所を除外できる。
指先をサーチするには、サーチ方向を下向きから30°前後の方向に設定する(図5及び図6の角度θ1及び角度θ2を30度前後とする)のが好適である。
FIG. 5 is a diagram illustrating a method of searching a fingertip on an image obtained by extracting the shape of the right hand. FIG. 6 is a diagram illustrating a method of searching a fingertip on an image obtained by extracting the shape of the left hand.
As shown in FIG. 5, when the binarized right hand image is searched on the first search axis, the fingertip can be extracted, and as shown in FIG. 6, the binarized left hand image is searched on the second search axis. You can extract your fingertips by searching. When the search is performed on two axes in this way, the fingertip can be detected by either the right hand or the left hand (in FIGS. 5 and 6, the detection position of the fingertip is indicated by a black dot).
As shown in FIGS. 5 and 6, when a right-handed or left-handed image is searched on two axes, the first search axis and the second search axis, the fingertip can be extracted on one search axis, but the side of the other search axis. Then, the part that is not the fingertip (the detection position is indicated by a black dot) is extracted (erroneous detection). However, the recognition information can be used to exclude a part other than the fingertip in the pointer selection unit 14 in the subsequent stage.
In order to search the fingertip, it is preferable to set the search direction from the downward direction to about 30 ° (the angle θ1 and the angle θ2 in FIGS. 5 and 6 are about 30 °).

対象検出部11は、第1サーチ軸と第2サーチ軸の2軸でサーチすることで得られた2つの画像上の指先の検出位置と指先を含む領域のサイズを出力する。サイズは規定値とし、画像切り出し部12で切り出しを行う領域を規定する。図5及び図6に示す、第1切り出し矩形領域及び第2切り出し矩形領域は、画像切り出し部12で切り出しを行う領域に対応している。
なお、サーチ軸を斜め2方向の2軸としたが、3軸以上としてもよい。
The target detection unit 11 outputs the detection position of the fingertip on the two images obtained by searching on the two axes of the first search axis and the second search axis and the size of the region including the fingertip. The size is set to a specified value, and the area to be cut out by the image cutting unit 12 is specified. The first cut-out rectangular area and the second cut-out rectangular area shown in FIGS. 5 and 6 correspond to the areas to be cut out by the image cut-out portion 12.
Although the search axis is set to 2 axes in two diagonal directions, it may be 3 axes or more.

画像切り出し部12は、対象検出部11から出力される、第1サーチ軸及び第2サーチ軸のサーチで検出された指先の検出位置と指先を含む領域のサイズに対応する部分画像を、カメラ20から出力されるカメラ画像から切り出す。切り出した2つの部分画像は、図5又は図6の第1切り出し矩形領域及び第2切り出し矩形領域に対応している。
なお、カメラ画像の代わりに、前記2値化した画像から部分画像を取り出しても類似した効果が得られる。
The image cutting unit 12 captures a partial image output from the target detection unit 11 corresponding to the detection position of the fingertip detected by the search of the first search axis and the second search axis and the size of the region including the fingertip. Cut out from the camera image output from. The two cut-out partial images correspond to the first cut-out rectangular area and the second cut-out rectangular area of FIG. 5 or FIG.
A similar effect can be obtained by extracting a partial image from the binarized image instead of the camera image.

形態認識部13は、画像切り出し部12で切り出した部分画像を、ディープラーニングにより推論し、形態をクラス分けして、部分画像の位置と形態を出力する。 The form recognition unit 13 infers the partial image cut out by the image cutting unit 12 by deep learning, classifies the forms, and outputs the position and form of the partial image.

カメラ20で撮像した画像には、図2に示す、親指と人差し指とを含むユーザの手を撮像した画像の他に、種々の画像が含まれる。よって、部分画像も親指と人差し指の画像の他に、種々の画像が含まれる。形態認識部13は、部分画像を、図7に示す表のような13個の形態に、0~12のクラス番号を割り当てて、ディープラーニングにより区分けする。
図7に示すように、クラス0では、親指と人差し指とが離れ、ポインタが非選択状態にあり、クラス1では、親指と人差し指とが付き、ポインタが選択状態にある。親指と人差し指とは指示体となり、非選択状態が指示前の形態、選択状態が指示の形態となる。
クラス2、3では、親指又は人差し指の一本で、ポインタでない状態(非ポインタ)にある。クラス4、5では、人差し指と中指との二本で、ポインタでない状態(非ポインタ)にあるが、クラス4では隙間があり、クラス5では隙間のない状態にある。クラス6、7では、人差し指と中指と薬指の三本で、ポインタでない状態(非ポインタ)にあるが、クラス6では隙間があり、クラス7では隙間のない状態にある。クラス8では、人差し指と中指と薬指と小指の四本で、ポインタでない状態(非ポインタ)にある。クラス9では指の付け根の横からのアングルであり、ポインタでない状態(非ポインタ)にある。クラス10では手を握ったげんこつの状態であり、ポインタでない状態(非ポインタ)にある。クラス11ではクラス0~10以外の指の形状を示し、ポインタでない状態(非ポインタ)にある。クラス12では指以外の形状を示し、ポインタでない状態(非ポインタ)にある。
なお図7ではクラス0、クラス1は右手の親指と人差し指の部分画像を示しているが、左手の親指と人差し指の部分画像も同様にクラス分けされる。
The images captured by the camera 20 include various images in addition to the images of the user's hand including the thumb and index finger shown in FIG. 2. Therefore, the partial image also includes various images in addition to the image of the thumb and the index finger. The form recognition unit 13 assigns a class number of 0 to 12 to 13 forms as shown in the table shown in FIG. 7 and classifies the partial image by deep learning.
As shown in FIG. 7, in class 0, the thumb and the index finger are separated and the pointer is in the non-selected state, and in class 1, the thumb and the index finger are attached and the pointer is in the selected state. The thumb and index finger are indicators, the non-selected state is the form before the instruction, and the selected state is the form of the instruction.
In classes 2 and 3, one thumb or index finger is not a pointer (non-pointer). In classes 4 and 5, the index finger and the middle finger are in a non-pointer state (non-pointer), but in class 4 there is a gap and in class 5 there is no gap. In classes 6 and 7, the index finger, middle finger and ring finger are in a non-pointer state (non-pointer), but in class 6 there is a gap and in class 7 there is no gap. In class 8, the index finger, middle finger, ring finger, and little finger are in a non-pointer state (non-pointer). In class 9, the angle is from the side of the base of the finger, and it is not a pointer (non-pointer). In class 10, it is in a state of holding a hand and is not a pointer (non-pointer). Class 11 shows the shape of a finger other than classes 0 to 10, and is in a non-pointer state (non-pointer). Class 12 shows a shape other than a finger and is in a non-pointer state (non-pointer).
In FIG. 7, class 0 and class 1 show partial images of the thumb and index finger of the right hand, but partial images of the thumb and index finger of the left hand are also classified in the same manner.

ポインタ選択部14は、部分画像の中から、形態がポインタ形状に該当するものだけを抽出し、ポインタの部分画像の位置と形態を出力する。本実施形態で、ポインタとして使用するのは、クラス0とクラス1のみであり、他の形状が画像に表れた場合は無視して抽出しない。この選択操作により、第1サーチ軸と第2サーチ軸の2軸でのサーチで検出された、指先ではない箇所を除外することができる。複数の候補が残る場合は、カメラ画像の最も上部に位置するものを選択する。これは、カメラの正面に立って指先を伸ばすと、手のどの構成要素よりも上側に指先が現れやすいためである。 The pointer selection unit 14 extracts only those whose form corresponds to the pointer shape from the partial images, and outputs the position and form of the partial image of the pointer. In this embodiment, only class 0 and class 1 are used as pointers, and if other shapes appear in the image, they are ignored and not extracted. By this selection operation, it is possible to exclude a part other than the fingertip detected by the search on the two axes of the first search axis and the second search axis. If multiple candidates remain, select the one located at the top of the camera image. This is because when you stand in front of the camera and extend your fingertips, your fingertips are more likely to appear above any component of your hand.

ポインタ情報生成部15は、ポインタ選択部14で抽出された部分画像がクラス0かクラス1かにより、ポインタが選択状態にあるか、非選択状態にあるかを示す情報(ポインタの状態を示す情報)を生成し、ポインタの部分画像の位置とポインタの状態を示す情報を出力する。図2に示す、親指と人差し指との間に指示点(例えば緑色の指示点)の位置は、ポインタ情報生成部15で決められる。
ポインタ情報送信部16は、部分画像の位置とポインタの状態を示す情報を、パーソナルコンピュータ10に含まれる呼び出し元のアプリケーションや、ユーザインターフェイス装置10Aの外部のホストデバイスに出力する。
The pointer information generation unit 15 indicates information indicating whether the pointer is in the selected state or the non-selected state (information indicating the pointer state) depending on whether the partial image extracted by the pointer selection unit 14 is class 0 or class 1. ) Is generated, and information indicating the position of the partial image of the pointer and the state of the pointer is output. The position of the designated point (for example, the green designated point) between the thumb and the index finger shown in FIG. 2 is determined by the pointer information generation unit 15.
The pointer information transmission unit 16 outputs information indicating the position of the partial image and the state of the pointer to the calling application included in the personal computer 10 or an external host device of the user interface device 10A.

以上、ユーザインターフェイス装置10Aに含まれる機能ブロックについて説明した。
これらの機能ブロックを実現するために、ユーザインターフェイス装置10A又はユーザインターフェイス装置10Aを含むパーソナルコンピュータ10は、CPU(Central Processing Unit)等の演算処理装置を備えたコンピュータ等で構成される。また、ユーザインターフェイス装置10Aは、プログラムやOS(Operating System)等の各種の制御用プログラムを格納したHDD(Hard Disk Drive)等の補助記憶装置や、演算処理装置がプログラムを実行する上で一時的に必要とされるデータを格納するためのRAM(Random Access Memory)といった主記憶装置も備える。
The functional blocks included in the user interface device 10A have been described above.
In order to realize these functional blocks, the user interface device 10A or the personal computer 10 including the user interface device 10A is composed of a computer or the like equipped with an arithmetic processing unit such as a CPU (Central Processing Unit). Further, the user interface device 10A is a temporary storage device such as an HDD (Hard Disk Drive) that stores various control programs such as a program and an OS (Operating System), and a arithmetic processing device for executing a program. It also has a main storage device such as a RAM (Random Access Memory) for storing the data required for the operating system.

そして、ユーザインターフェイス装置10A又はユーザインターフェイス装置10Aを含むパーソナルコンピュータ10において、演算処理装置が補助記憶装置からプログラムやOSを読み込み、読み込んだプログラムやOSを主記憶装置に展開させながら、これらのプログラムやOSに基づいた演算処理を行なう。また、この演算結果に基づいて、各装置が備える各種のハードウェアを制御する。これにより、本実施形態の機能ブロックは実現される。つまり、本実施形態は、ハードウェアとソフトウェアが協働することにより実現することができる。 Then, in the personal computer 10 including the user interface device 10A or the user interface device 10A, the arithmetic processing device reads a program or an OS from the auxiliary storage device, and while deploying the read program or the OS to the main storage device, these programs or the like. Performs arithmetic processing based on the OS. Further, based on the calculation result, various hardware included in each device is controlled. Thereby, the functional block of this embodiment is realized. That is, this embodiment can be realized by the cooperation of hardware and software.

次に、ユーザインターフェイス装置10Aの動作についてフローチャートを用いて説明する。図8はユーザインターフェイス装置の動作を示すフローチャートである。 Next, the operation of the user interface device 10A will be described with reference to a flowchart. FIG. 8 is a flowchart showing the operation of the user interface device.

ステップS11において、対象検出部11は、カメラ画像を2値化し、対象となる部位を検出し、指先の画像上の位置と指先を含む領域のサイズを出力する。 In step S11, the target detection unit 11 binarizes the camera image, detects the target portion, and outputs the position of the fingertip on the image and the size of the region including the fingertip.

ステップS12において、画像切り出し部12は、指先の検出位置と指先を含む領域のサイズに対応する部分画像を、カメラ20から出力されるカメラ画像から切り出す。 In step S12, the image cutting unit 12 cuts out a partial image corresponding to the detection position of the fingertip and the size of the region including the fingertip from the camera image output from the camera 20.

ステップS13において、形態認識部13は、画像切り出し部12で切り出した部分画像を、ディープラーニングにより推論し、形態をクラス分けして出力する。 In step S13, the morphology recognition unit 13 infers the partial image cut out by the image cutting unit 12 by deep learning, classifies the morphology, and outputs the image.

ステップS14において、ポインタ選択部14は、部分画像がポインタ形状(図7のクラス0及びクラス1)に該当するかどうかを判断する。ポインタ形状に該当する場合は、ステップS15に移り、ポインタ形状に該当しない場合は、ステップS11に戻る。 In step S14, the pointer selection unit 14 determines whether or not the partial image corresponds to the pointer shape (class 0 and class 1 in FIG. 7). If it corresponds to the pointer shape, the process proceeds to step S15, and if it does not correspond to the pointer shape, the process returns to step S11.

ステップS15において、ポインタ情報生成部15は、部分画像がクラス0かクラス1かにより、ポインタが選択状態にあるか、非選択状態にあるかを示す情報を生成する。 In step S15, the pointer information generation unit 15 generates information indicating whether the pointer is in the selected state or the non-selected state depending on whether the partial image is class 0 or class 1.

ステップS16において、ポインタ情報送信部16は、ポインタの位置とポインタの状態を示す情報を、呼び出し元のアプリケーションや、外部のホストデバイスに送信する。 In step S16, the pointer information transmission unit 16 transmits information indicating the position of the pointer and the state of the pointer to the calling application or an external host device.

以上説明した第1の実施形態のユーザインターフェイス装置において、ポインタの精度向上のために、以下の第2~第4の実施形態のユーザインターフェイス装置とすることができる。 In the user interface device of the first embodiment described above, the user interface device of the following second to fourth embodiments can be used in order to improve the accuracy of the pointer.

(第2の実施形態)
第1の実施形態のユーザインターフェイスシステムにおいて、ポインタが移動状態にある場合がある。この場合、表示装置30の表示画面のポインタの移動が速いと、ユーザがポインタの操作が難しくなる。
例えば、親指と人差し指とが離れ、ポインタが非選択状態にあるときには、ポインタが移動状態にある場合がある。具体的には、図1に示すように、親指と人差し指のピンチ動作で、数字キー「2」を選択して表示装置30の表示画面の数字入力欄に数字「2」を入力した後に、数字「2」を削除する場合には、ポインタは数字キー「2」上から削除キー「DEL」上に移動する。
(Second embodiment)
In the user interface system of the first embodiment, the pointer may be in a moving state. In this case, if the pointer on the display screen of the display device 30 moves quickly, it becomes difficult for the user to operate the pointer.
For example, when the thumb and index finger are separated and the pointer is in the non-selected state, the pointer may be in the moving state. Specifically, as shown in FIG. 1, by pinching the thumb and index finger, select the number key "2", enter the number "2" in the number input field on the display screen of the display device 30, and then enter the number "2". When deleting "2", the pointer moves from the number key "2" to the delete key "DEL".

本実施形態では、ポインタ情報生成部が、ポインタの移動を滑らかなものとするため、過去のポインタ座標の履歴を用いて、移動平均を取って、ポインタの座標を補正する。
図9は本発明の第2の実施形態のユーザインターフェイス装置のポインタ情報生成部を示すブロック図である。本実施形態のユーザインターフェイス装置及びユーザインターフェイスシステムの構成は、ポインタ情報生成部の構成が異なる点を除いて第1の実施形態のユーザインターフェイス装置及びユーザインターフェイスシステムの構成と同じである。
本実施形態のユーザインターフェイス装置では、図3に示すポインタ情報生成部15がポインタ情報生成部15Aに置き換わっている。
In the present embodiment, in order to make the movement of the pointer smooth, the pointer information generation unit takes a moving average using the history of the past pointer coordinates and corrects the coordinates of the pointer.
FIG. 9 is a block diagram showing a pointer information generation unit of the user interface device according to the second embodiment of the present invention. The configuration of the user interface device and the user interface system of the present embodiment is the same as the configuration of the user interface device and the user interface system of the first embodiment except that the configuration of the pointer information generation unit is different.
In the user interface device of the present embodiment, the pointer information generation unit 15 shown in FIG. 3 is replaced with the pointer information generation unit 15A.

図9に示すように、ポインタ情報生成部15Aは、ポインタ状態情報生成部1501、移動平均演算部1502、座標記憶部1503を備えている。
移動平均演算部1502は、ポインタ選択部14から出力される、ポインタの位置を示す座標を、座標記憶部1503にポインタ座標の履歴として順次記憶する。移動平均演算部1502は、ポインタ選択部14からポインタの位置を示す座標が入力されると、座標記憶部1503に記憶されたポインタ座標の履歴を読み出して移動平均値を取り、補正後のポインタの座標(ポインタの部分画像の位置を示す情報)を出力する。
As shown in FIG. 9, the pointer information generation unit 15A includes a pointer state information generation unit 1501, a moving average calculation unit 1502, and a coordinate storage unit 1503.
The moving average calculation unit 1502 sequentially stores the coordinates indicating the position of the pointer output from the pointer selection unit 14 in the coordinate storage unit 1503 as a history of pointer coordinates. When the coordinates indicating the position of the pointer are input from the pointer selection unit 14, the moving average calculation unit 1502 reads the history of the pointer coordinates stored in the coordinate storage unit 1503, obtains the moving average value, and obtains the corrected pointer. Outputs coordinates (information indicating the position of the partial image of the pointer).

ポインタ状態情報生成部1501は図3に示すポインタ情報生成部15と同様な動作を行い、ポインタ選択部14で抽出された部分画像がクラス0かクラス1かにより、ポインタが選択状態にあるか、非選択状態にあるかを示す情報(ポインタの状態を示す情報)を生成して、ポインタ情報送信部16に出力する。 The pointer state information generation unit 1501 operates in the same manner as the pointer information generation unit 15 shown in FIG. 3, and whether the pointer is in the selected state depending on whether the partial image extracted by the pointer selection unit 14 is class 0 or class 1. Information indicating whether or not it is in the non-selected state (information indicating the state of the pointer) is generated and output to the pointer information transmission unit 16.

ポインタ情報生成部15Aを含むユーザインターフェイス装置10の動作は、ステップS15の後にステップS17が挿入されている点を除いて、図8に示すフローチャートと同じである。図10は本実施形態のユーザインターフェイス装置の一部の動作を示すフローチャートである。
ステップS17では、移動平均演算部1502は、ポインタ選択部14からポインタの位置を示す座標が入力されると、座標記憶部1503に記憶されたポインタ座標の履歴を読み出して移動平均値を取り、補正後のポインタの座標を出力する。ステップS17はステップS15と同時に行われてもよく、ステップS15の前に行われてもよい。
The operation of the user interface device 10 including the pointer information generation unit 15A is the same as the flowchart shown in FIG. 8 except that step S17 is inserted after step S15. FIG. 10 is a flowchart showing the operation of a part of the user interface device of the present embodiment.
In step S17, when the coordinates indicating the position of the pointer are input from the pointer selection unit 14, the moving average calculation unit 1502 reads the history of the pointer coordinates stored in the coordinate storage unit 1503, takes the moving average value, and corrects it. Output the coordinates of the later pointer. Step S17 may be performed at the same time as step S15, or may be performed before step S15.

(第3の実施形態)
第1の実施形態のユーザインターフェイスシステムにおいて、ユーザの操作で形態(ポインタ状態)が変わる際に、ユーザが意図せずポインタの座標がぶれる場合がある。例えば、図1に示すように、表示装置30の表示画面の数字入力欄に入力した数字「2」を削除するために、親指と人差し指とが開いた状態で、ポインタが削除キー「DEL」上に移動し、削除キー「DEL」上で停止し、親指と人差し指のピンチする場合に、ユーザが意図せずポインタの座標がぶれる場合がある。また、親指と人差し指のピンチした状態から親指と人差し指とを開く場合に、ユーザが意図せずポインタの座標がぶれる場合がある。
本実施形態では、ポインタ状態が変化する際にポインタの位置をロックし、選択状態が変わる直前の座標を維持する。
(Third embodiment)
In the user interface system of the first embodiment, when the form (pointer state) is changed by the user's operation, the coordinates of the pointer may be unintentionally blurred by the user. For example, as shown in FIG. 1, in order to delete the number "2" entered in the number input field of the display screen of the display device 30, the pointer is on the delete key "DEL" with the thumb and index finger open. When moving to, stopping on the delete key "DEL", and pinching the thumb and index finger, the user may unintentionally blur the pointer coordinates. Further, when the thumb and the index finger are opened from the pinched state of the thumb and the index finger, the coordinates of the pointer may be unintentionally blurred by the user.
In the present embodiment, the position of the pointer is locked when the pointer state changes, and the coordinates immediately before the selection state changes are maintained.

図11は本発明の第3の実施形態のユーザインターフェイス装置のポインタ情報生成部を示すブロック図である。本実施形態のユーザインターフェイス装置及びユーザインターフェイスシステムの構成は、ポインタ情報生成部の構成が異なる点を除いて第1の実施形態のユーザインターフェイス装置及びユーザインターフェイスシステムの構成と同じである。
本実施形態のユーザインターフェイス装置では、図3に示すポインタ情報生成部15がポインタ情報生成部15Bに置き換わっている。
FIG. 11 is a block diagram showing a pointer information generation unit of the user interface device according to the third embodiment of the present invention. The configuration of the user interface device and the user interface system of the present embodiment is the same as the configuration of the user interface device and the user interface system of the first embodiment except that the configuration of the pointer information generation unit is different.
In the user interface device of the present embodiment, the pointer information generation unit 15 shown in FIG. 3 is replaced with the pointer information generation unit 15B.

図11に示すように、ポインタ情報生成部15Bは、座標変化量検出部1511、座標記憶部1512、ポインタ状態情報生成部1513、座標ロック制御部1514、座標選択部1515及びカウンタ1516を備えている。ポインタ状態情報生成部1513は、図9に示したポインタ状態情報生成部1501と同様な機能を有する。 As shown in FIG. 11, the pointer information generation unit 15B includes a coordinate change amount detection unit 1511, a coordinate storage unit 1512, a pointer state information generation unit 1513, a coordinate lock control unit 1514, a coordinate selection unit 1515, and a counter 1516. .. The pointer state information generation unit 1513 has the same function as the pointer state information generation unit 1501 shown in FIG.

座標記憶部1512は、座標選択部1515から出力される、ポインタの位置を示す座標(ポインタ座標)を順次記憶する。
座標変化量検出部1511は、ポインタ選択部14からポインタの位置を示す座標(ポインタ座標)が入力されると、座標記憶部1512に記憶されたポインタ座標を読み出して座標変化量を検出し、座標ロック制御部1514に出力する。
The coordinate storage unit 1512 sequentially stores the coordinates (pointer coordinates) indicating the position of the pointer output from the coordinate selection unit 1515.
When the coordinates (pointer coordinates) indicating the position of the pointer are input from the pointer selection unit 14, the coordinate change amount detection unit 1511 reads the pointer coordinates stored in the coordinate storage unit 1512, detects the coordinate change amount, and detects the coordinates. Output to the lock control unit 1514.

ポインタ状態情報生成部1513は、図9に示すポインタ情報生成部1501と同様な動作を行い、ポインタ選択部14で抽出された部分画像がクラス0かクラス1かにより、ポインタが選択状態にあるか、非選択状態にあるかを示す情報(ポインタの状態を示す情報)を生成して、座標ロック制御部1514及びポインタ情報送信部16に出力する。 The pointer state information generation unit 1513 operates in the same manner as the pointer information generation unit 1501 shown in FIG. 9, and whether the pointer is in the selected state depending on whether the partial image extracted by the pointer selection unit 14 is class 0 or class 1. , Information indicating whether the state is in the non-selected state (information indicating the state of the pointer) is generated and output to the coordinate lock control unit 1514 and the pointer information transmission unit 16.

座標ロック制御部1514は、ポインタ状態情報生成部1513から出力されるポインタの状態を示す情報に基づいて、ポインタ状態の変化を検出し、ポインタ状態が変化する際にポインタの位置をロックするために、座標選択部1515にロック制御信号を出力する。
座標ロック制御部1514は、座標変化量検出部1511から出力される直前の座標からの変化量(移動量に対応する)が、入力される所定の変化量(移動量に対応する)を超える場合はロック制御信号を出力しない。親指と人差し指のピンチした状態から親指と人差し指とを開き、別なキーに移動するために移動量が所定の移動量を超える場合には、ポインタの位置をロックする必要ないからである。
座標ロック制御部1514は、ロック制御信号を出力後に、座標変化量検出部1511から出力される直前の座標からの変化量(移動量に対応する)が、入力される所定の変化量を超える場合はロック解除制御信号を座標選択部1515に出力する。
The coordinate lock control unit 1514 detects a change in the pointer state based on the information indicating the state of the pointer output from the pointer state information generation unit 1513, and locks the position of the pointer when the pointer state changes. , The lock control signal is output to the coordinate selection unit 1515.
When the change amount (corresponding to the movement amount) from the coordinates immediately before being output from the coordinate change amount detection unit 1511 exceeds the predetermined change amount (corresponding to the movement amount) input by the coordinate lock control unit 1514. Does not output a lock control signal. This is because it is not necessary to lock the position of the pointer when the movement amount exceeds a predetermined movement amount in order to open the thumb and the index finger from the pinched state of the thumb and the index finger and move to another key.
When the coordinate lock control unit 1514 outputs the lock control signal and the change amount (corresponding to the movement amount) from the coordinates immediately before being output from the coordinate change amount detection unit 1511 exceeds a predetermined change amount to be input. Outputs the unlock control signal to the coordinate selection unit 1515.

座標選択部1515は、ロック制御信号が入力されない場合には、ポインタ選択部14から入力された、ポインタの位置を示す座標(ポインタ座標)を座標記憶部1512及びポインタ情報送信部16に出力する。
一方、座標選択部1515は、ロック制御信号が入力された場合には、座標記憶部1512に記憶された、ロックする直前のポインタ座標を読み出し、このポインタ座標を座標記憶部1512及びポインタ情報送信部16に出力する。こうして、ロック解除制御信号が入力されるまで、ポインタ状態が変化する際にポインタの位置がロックされる。
座標選択部1515は、ロック解除制御信号が入力された場合は、ポインタの位置のロックを解除し、ポインタ選択部14から入力された、ポインタの位置を示す座標(ポインタ座標)をポインタ情報送信部16に出力する。
When the lock control signal is not input, the coordinate selection unit 1515 outputs the coordinates (pointer coordinates) indicating the position of the pointer input from the pointer selection unit 14 to the coordinate storage unit 1512 and the pointer information transmission unit 16.
On the other hand, when the lock control signal is input, the coordinate selection unit 1515 reads out the pointer coordinates stored in the coordinate storage unit 1512 immediately before locking, and uses these pointer coordinates as the coordinate storage unit 1512 and the pointer information transmission unit. Output to 16. In this way, the position of the pointer is locked when the pointer state changes until the unlock control signal is input.
When the unlock control signal is input, the coordinate selection unit 1515 unlocks the position of the pointer, and the pointer information transmission unit sets the coordinates (pointer coordinates) indicating the position of the pointer input from the pointer selection unit 14. Output to 16.

なお、座標ロック制御部1514は、ポインタ状態情報生成部1513から出力されるポインタの状態を示す情報に基づいて、ポインタ状態の変化を検出したときに、時間をカウントするカウンタ1516を動作させ、所定の時間経過したときに、ロック解除制御信号を座標選択部1515に出力してもよい。
また、ポインタ状態情報生成部1513から出力されるポインタの状態を示す情報に基づいて、ポインタ状態の変化を検出したときに、カウンタ1516を動作させ、所定の時間経過したときに、入力される所定の変化量を小さい値に書き換えてもよい。こうすることで、ロック解除制御信号を出力する基準となる所定の変化量が小さくなり、座標選択部1515でのロックが外れやすい状態となる。
ポインタ状態の変化を検出したときからの経過時間をカウンタ1516で測定しない場合には、カウンタ1516を設けなくともよい。
The coordinate lock control unit 1514 operates a counter 1516 that counts the time when a change in the pointer state is detected based on the information indicating the state of the pointer output from the pointer state information generation unit 1513. When the time has elapsed, the unlock control signal may be output to the coordinate selection unit 1515.
Further, the counter 1516 is operated when a change in the pointer state is detected based on the information indicating the state of the pointer output from the pointer state information generation unit 1513, and is input when a predetermined time elapses. The amount of change in may be rewritten to a small value. By doing so, the predetermined amount of change as a reference for outputting the unlock control signal becomes small, and the lock in the coordinate selection unit 1515 becomes easy to be released.
If the counter 1516 does not measure the elapsed time from the time when the change in the pointer state is detected, the counter 1516 may not be provided.

なお、座標ロック制御部1514は、経過時間をカウンタ1516で測定する代わりに、カメラ画像のフレーム数をカウントしておき、フレーム数が所定の数を超えたときに、ロック解除制御信号を座標選択部1515に出力したり、入力される所定の変化量を小さい値に書き換えてもよい。 Instead of measuring the elapsed time with the counter 1516, the coordinate lock control unit 1514 counts the number of frames of the camera image, and when the number of frames exceeds a predetermined number, the coordinate unlock control signal selects the coordinates. The predetermined amount of change output to the unit 1515 or input may be rewritten to a small value.

ポインタ情報生成部15Bを含むユーザインターフェイス装置10の動作は、ステップS15とステップS16との間にステップS18~ステップS21が挿入されている点を除いて、図8に示すフローチャートと同じである。図12は本実施形態のユーザインターフェイス装置の一部の動作を示すフローチャートである。 The operation of the user interface device 10 including the pointer information generation unit 15B is the same as the flowchart shown in FIG. 8 except that steps S18 to S21 are inserted between steps S15 and S16. FIG. 12 is a flowchart showing the operation of a part of the user interface device of the present embodiment.

ステップS18では、座標ロック制御部1514は、ポインタ状態情報生成部1513から出力されるポインタの状態を示す情報に基づいて、ポインタ状態の変化を検出し、ポインタ状態が変化するかどうかを判断する。ポインタ状態が変化する場合は、ステップS19に移り、ポインタ状態が変化しない場合はロック制御信号を出力せず、ステップS21に移る。 In step S18, the coordinate lock control unit 1514 detects a change in the pointer state based on the information indicating the state of the pointer output from the pointer state information generation unit 1513, and determines whether or not the pointer state changes. If the pointer state changes, the process proceeds to step S19, and if the pointer state does not change, the lock control signal is not output and the process proceeds to step S21.

ステップS19では、座標ロック制御部1514は、座標変化量検出部1511から出力される、ロックする直前の座標からの変化量(移動量に対応する)が、入力される所定の変化量を超えるかどうかを判断する。変化量(移動量に対応する)が、入力される所定の変化量を超える場合にはロック制御信号を出力せずステップS21に移る。入力される所定の変化量を超えない場合には、ステップS20に移る。 In step S19, the coordinate lock control unit 1514 outputs whether the change amount (corresponding to the movement amount) from the coordinates immediately before locking, which is output from the coordinate change amount detection unit 1511, exceeds the input predetermined change amount. Judge whether or not. If the amount of change (corresponding to the amount of movement) exceeds the input predetermined amount of change, the process proceeds to step S21 without outputting the lock control signal. If the input predetermined change amount is not exceeded, the process proceeds to step S20.

ステップS20では、ポインタ状態が変化する際にポインタの位置をロックするために、座標選択部1515にロック制御信号を出力する。そして、座標選択部1515は、ロック制御信号が入力された場合には、選択状態が変わる直前のポインタ座標を維持(ロック)する。 In step S20, a lock control signal is output to the coordinate selection unit 1515 in order to lock the position of the pointer when the pointer state changes. Then, when the lock control signal is input, the coordinate selection unit 1515 maintains (locks) the pointer coordinates immediately before the selection state changes.

ステップS21では、座標選択部1515は、ロック制御信号が入力されない場合には、入力されたポインタ座標を選択して、ポインタ情報送信部16に出力する。
一方、座標選択部1515は、ロック制御信号が入力された場合には、座標記憶部1512に記憶された、ロックする直前のポインタ座標を読み出し、このポインタ座標を選択して、ポインタ情報送信部16に出力する。そして、ロック解除制御信号が入力されるまで、選択状態が変わる直前のポインタ座標が維持(ロック)される。また、ポインタ状態情報生成部1513は、ポインタの状態を示す情報を生成して、ポインタ情報送信部16に出力する。
In step S21, when the lock control signal is not input, the coordinate selection unit 1515 selects the input pointer coordinates and outputs the input to the pointer information transmission unit 16.
On the other hand, when the lock control signal is input, the coordinate selection unit 1515 reads out the pointer coordinates stored in the coordinate storage unit 1512 immediately before locking, selects the pointer coordinates, and selects the pointer information transmission unit 16. Output to. Then, until the unlock control signal is input, the pointer coordinates immediately before the selection state changes are maintained (locked). Further, the pointer state information generation unit 1513 generates information indicating the state of the pointer and outputs the information to the pointer information transmission unit 16.

(第4の実施形態)
第1の実施形態のユーザインターフェイスシステムにおいて、ノイズ等により、瞬間的にポインタの状態の情報が失われる場合がある。ポインタの状態の情報が失われる問題への対応のため、本実施形態では、ポインタの状態の切り替えを、同じ変更状態の形態が所定の回数連続した場合に初めて行う。
(Fourth Embodiment)
In the user interface system of the first embodiment, information on the state of the pointer may be momentarily lost due to noise or the like. In order to deal with the problem that the information on the state of the pointer is lost, in the present embodiment, the state of the pointer is switched only when the same changed state is continuously performed a predetermined number of times.

図13は本発明の第4の実施形態のユーザインターフェイス装置のポインタ情報生成部を示すブロック図である。本実施形態のユーザインターフェイス装置及びユーザインターフェイスシステムの構成は、ポインタ情報生成部の構成が異なる点を除いて第1の実施形態のユーザインターフェイス装置及びユーザインターフェイスシステムの構成と同じである。
本実施形態のユーザインターフェイス装置では、図3に示すポインタ情報生成部15がポインタ情報生成部15Cに置き換わっている。
FIG. 13 is a block diagram showing a pointer information generation unit of the user interface device according to the fourth embodiment of the present invention. The configuration of the user interface device and the user interface system of the present embodiment is the same as the configuration of the user interface device and the user interface system of the first embodiment except that the configuration of the pointer information generation unit is different.
In the user interface device of the present embodiment, the pointer information generation unit 15 shown in FIG. 3 is replaced with the pointer information generation unit 15C.

図13に示すように、ポインタ情報生成部15Cは、ポインタ状態情報生成部1521、ポインタ状態記憶部1522、連続状態検出部1523、状態選択部1524及び選択状態記憶部1525を備えている。ポインタ状態情報生成部1521は、図9に示したポインタ状態情報生成部1501と同様な機能を有する。図13において図示されていないが、ポインタ情報生成部15Cは、ポインタの部分画像の位置を示す情報をポインタ情報送信部16に出力する。 As shown in FIG. 13, the pointer information generation unit 15C includes a pointer state information generation unit 1521, a pointer state storage unit 1522, a continuous state detection unit 1523, a state selection unit 1524, and a selection state storage unit 1525. The pointer state information generation unit 1521 has the same function as the pointer state information generation unit 1501 shown in FIG. Although not shown in FIG. 13, the pointer information generation unit 15C outputs information indicating the position of the partial image of the pointer to the pointer information transmission unit 16.

ポインタ状態情報生成部1521は、図9に示すポインタ状態情報生成部1501と同様な動作を行い、ポインタ選択部14で抽出された部分画像がクラス0かクラス1かにより、ポインタが選択状態にあるか、非選択状態にあるかを示す情報(ポインタの状態を示す情報)を生成して、ポインタの状態を示す情報を、ポインタ状態記憶部1522に順次記憶するとともに状態選択部1524に出力する。 The pointer state information generation unit 1521 operates in the same manner as the pointer state information generation unit 1501 shown in FIG. 9, and the pointer is in the selected state depending on whether the partial image extracted by the pointer selection unit 14 is class 0 or class 1. Information indicating whether the pointer is in the non-selected state (information indicating the state of the pointer) is generated, and the information indicating the state of the pointer is sequentially stored in the pointer state storage unit 1522 and output to the state selection unit 1524.

連続状態検出部1523は、ポインタ状態記憶部1522からポインタの状態を読み出し、ポインタ状態が変化し、変化後のポインタ状態が所定の回数連続して検出した場合に、ポインタの状態の切り替え制御信号を状態選択部1524に出力する。 The continuous state detection unit 1523 reads the pointer state from the pointer state storage unit 1522, changes the pointer state, and continuously detects the changed pointer state a predetermined number of times, and outputs a pointer state switching control signal. Output to the state selection unit 1524.

状態選択部1524は、ポインタ状態情報生成部1521から出力されるポインタ状態と、選択状態記憶部1525から読み出したポインタ状態とを比較する。
状態選択部1524は、ポインタ状態情報生成部1521から出力されるポインタ状態と、選択状態記憶部1525から読み出したポインタ状態とが同じであれば、そのポインタ状態を示す情報をポインタ情報送信部16に出力するとともに、選択状態記憶部1525に記憶する。
一方、状態選択部1524は、ポインタ状態情報生成部1521から出力されるポインタ状態が、選択状態記憶部1525から読み出したポインタ状態と異なる場合は、連続状態検出部1523からポインタの状態の切り替え制御信号を受けたときのみ、ポインタ状態を、ポインタ状態情報生成部1521から出力されるポインタ状態に切り替えて、切り替えたポインタ状態を、ポインタ情報送信部16に出力するとともに、選択状態記憶部1525に記憶する。状態選択部1524は、ポインタの状態の切り替え制御信号を受けない場合は、ポインタ状態情報生成部1521から出力されるポインタ状態に切り替えることなく、選択状態記憶部1525から読み出したポインタ状態を、ポインタ情報送信部16に出力するとともに、選択状態記憶部1525に記憶する。
The state selection unit 1524 compares the pointer state output from the pointer state information generation unit 1521 with the pointer state read from the selection state storage unit 1525.
If the pointer state output from the pointer state information generation unit 1521 and the pointer state read from the selection state storage unit 1525 are the same, the state selection unit 1524 transmits information indicating the pointer state to the pointer information transmission unit 16. It is output and stored in the selected state storage unit 1525.
On the other hand, when the pointer state output from the pointer state information generation unit 1521 is different from the pointer state read from the selection state storage unit 1525, the state selection unit 1524 receives a pointer state switching control signal from the continuous state detection unit 1523. Only when the pointer state is received, the pointer state is switched to the pointer state output from the pointer state information generation unit 1521, and the switched pointer state is output to the pointer information transmission unit 16 and stored in the selection state storage unit 1525. .. When the state selection unit 1524 does not receive the pointer state switching control signal, the pointer information reads the pointer state read from the selection state storage unit 1525 without switching to the pointer state output from the pointer state information generation unit 1521. It is output to the transmission unit 16 and stored in the selection state storage unit 1525.

ポインタ情報生成部15Cを含むユーザインターフェイス装置10の動作は、ステップS15とステップS16との間にステップS22~ステップS25が挿入されている点を除いて、図8に示すフローチャートと同じである。図14は本実施形態のユーザインターフェイス装置の一部の動作を示すフローチャートである。 The operation of the user interface device 10 including the pointer information generation unit 15C is the same as the flowchart shown in FIG. 8 except that steps S22 to S25 are inserted between steps S15 and S16. FIG. 14 is a flowchart showing the operation of a part of the user interface device of the present embodiment.

ステップS22では、連続状態検出部1523は、ポインタ状態記憶部1522からポインタの状態を読み出し、ポインタ状態が変化するかどうかを判断する。ポインタ状態が変化する場合はステップS23に移り、ポインタ状態が変化しない場合はステップS16に移る。 In step S22, the continuous state detection unit 1523 reads the state of the pointer from the pointer state storage unit 1522 and determines whether or not the pointer state changes. If the pointer state changes, the process proceeds to step S23, and if the pointer state does not change, the process proceeds to step S16.

ステップS23では、連続状態検出部1523は、ポインタ状態記憶部1522からポインタの状態の履歴を読み出し、変化後のポインタ状態が所定の回数連続して検出できるかを判断する。同じポインタ状態が連続して検出できる場合はポインタの状態の切り替え制御信号を状態選択部1524に出力し、ステップS24に移り、同じポインタ状態が連続して検出できない場合はステップS25に移る。 In step S23, the continuous state detection unit 1523 reads the history of the pointer state from the pointer state storage unit 1522, and determines whether the changed pointer state can be continuously detected a predetermined number of times. If the same pointer state can be continuously detected, the pointer state switching control signal is output to the state selection unit 1524 and the process proceeds to step S24. If the same pointer state cannot be continuously detected, the process proceeds to step S25.

ステップS24では、状態選択部1524は、ポインタ状態情報生成部1521から出力される変化したポインタ状態を選択する。 In step S24, the state selection unit 1524 selects the changed pointer state output from the pointer state information generation unit 1521.

ステップS25では、状態選択部1524は、選択状態記憶部1525から読み出した変化前のポインタ状態を選択する。 In step S25, the state selection unit 1524 selects the pointer state before the change read from the selection state storage unit 1525.

(第5の実施形態)
カメラ画像とその認識の状態をディスプレイに表示しないようなアプリケーションでは、ユーザがうっかり手をカメラの視野から外してしまってユーザインターフェイス装置で認識されなくなっても、その異常に気づきにくい。
本実施形態では、音や光でユーザに認識状況を報知する報知部を設ける。
(Fifth Embodiment)
In an application that does not display the camera image and its recognition status on the display, even if the user inadvertently removes his or her hand from the field of view of the camera and the user interface device does not recognize it, it is difficult to notice the abnormality.
In the present embodiment, a notification unit is provided to notify the user of the recognition status by sound or light.

図15は本発明の第5の実施形態のユーザインターフェイス装置のポインタ情報生成部を示すブロック図である。
本実施形態のユーザインターフェイス装置では、図3に示すユーザインターフェイス装置10Aにポインタ有無判断部17と報知部18とが追加されている。
FIG. 15 is a block diagram showing a pointer information generation unit of the user interface device according to the fifth embodiment of the present invention.
In the user interface device of the present embodiment, the pointer presence / absence determination unit 17 and the notification unit 18 are added to the user interface device 10A shown in FIG.

ポインタ有無判断部17は、ポインタの位置がカメラ画像の領域から外れているかどうかを判断する。 The pointer presence / absence determination unit 17 determines whether or not the position of the pointer is out of the area of the camera image.

報知部18は、ポインタ有無判断部17の判断結果に基づいて、ポインタの位置がカメラ画像の領域から外れている場合は、音でユーザに認識状況を報知する鳴動デバイス、光でユーザに認識状況を報知するLED等の発光素子である。
報知部18は、鳴動デバイスを用いる場合、ポインタの認識状況に応じて、ユーザインターフェイス動作音を変えたり、あるいはユーザインターフェイス動作音をオン/オフすることで、ユーザに認識状況を報知する。
報知部18は、LED等の発光素子を用いる場合、ユーザインターフェイス装置10AにLEDを取り付けて、発光色を、あるいは発光をオン/オフすることで点滅させて、ユーザに認識状況を報知する。
The notification unit 18 is a ringing device that notifies the user of the recognition status by sound when the position of the pointer is out of the area of the camera image based on the determination result of the pointer presence / absence determination unit 17, and the recognition status by light. It is a light emitting element such as an LED for notifying.
When the ringing device is used, the notification unit 18 notifies the user of the recognition status by changing the user interface operation sound or turning on / off the user interface operation sound according to the recognition status of the pointer.
When a light emitting element such as an LED is used, the notification unit 18 attaches an LED to the user interface device 10A and blinks the light emission color or by turning on / off the light emission to notify the user of the recognition status.

ポインタ有無判断部17と報知部18とを含むユーザインターフェイス装置10Aの動作のフローチャートは、図8に示したステップS16の後に、ステップS26とステップS27が挿入されている点を除いて、図8に示すフローチャートと同じである。
図16は本実施形態のユーザインターフェイス装置の一部の動作を示すフローチャートである。
A flowchart of the operation of the user interface device 10A including the pointer presence / absence determination unit 17 and the notification unit 18 is shown in FIG. 8 except that step S26 and step S27 are inserted after step S16 shown in FIG. It is the same as the flowchart shown.
FIG. 16 is a flowchart showing the operation of a part of the user interface device of the present embodiment.

ステップS26では、ポインタ有無判断部17が、ポインタの位置がカメラ画像の領域から外れているかどうかを判断する。ポインタの位置がカメラ画像の領域から外れている場合はステップS27に移り、ポインタの位置がカメラ画像の領域から外れていない場合は処理を終了する。
ステップS27では、報知部18がユーザに認識状況を報知する。その後、処理を終了する。
In step S26, the pointer presence / absence determination unit 17 determines whether or not the position of the pointer is out of the area of the camera image. If the position of the pointer is out of the area of the camera image, the process proceeds to step S27, and if the position of the pointer is not out of the area of the camera image, the process ends.
In step S27, the notification unit 18 notifies the user of the recognition status. After that, the process ends.

以上、本発明の第1~第5の実施形態は、指示体として親指と人差し指とを用い、親指と人差し指とをピンチ動作で選択する選択対象はテンキーを例にとって説明したが、選択対象によっては両手を用いてピンチ動作で選択したい場合がある。例えば、選択対象がキーボードである場合、文字入力をする場合に両手を用いて入力したい場合がある。この場合には、キーボードの画像を2つに分け、左右の画像のそれぞれについて2軸でサーチすればよい。
本実施形態では、クラス0とクラス1の2種類のみをポインタに割り当てて選択、非選択の2つの状態を表しているが、他の実施形態として、4つの形態をポインタに割り当てて、ボタンAの選択/非選択、ボタンBの選択/非選択といった応用も可能である。
例えば、図7において、クラス0とクラス1の他に、クラス4とクラス5をポインタに割り当てて、ボタンAの選択/非選択についてはクラス1とクラス0、ボタンBの選択/非選択についてはクラス5とクラス4をポインタとすることができる。
クラス0とクラス1の2種類によるポインタの代わりに、クラス4とクラス5の2種類によるポインタを用いてもよい。
As described above, in the first to fifth embodiments of the present invention, the thumb and the index finger are used as the indicators, and the selection target for selecting the thumb and the index finger by the pinch motion has been described by taking the numeric keypad as an example. You may want to select by pinching with both hands. For example, when the selection target is a keyboard, it may be desired to input characters using both hands. In this case, the keyboard image may be divided into two, and each of the left and right images may be searched on two axes.
In the present embodiment, only two types of class 0 and class 1 are assigned to the pointer to represent two states of selection and non-selection, but as another embodiment, four forms are assigned to the pointer and the button A is used. Applications such as selection / non-selection of and button B selection / non-selection are also possible.
For example, in FIG. 7, in addition to class 0 and class 1, class 4 and class 5 are assigned to pointers, class 1 and class 0 are selected / not selected for button A, and button B is selected / not selected. Class 5 and class 4 can be pointers.
Instead of the pointers of the two types of class 0 and class 1, the pointers of the two types of class 4 and class 5 may be used.

本発明の第1~第5の実施形態は、親指と人差し指とをピンチ動作に限定されず、図17及び図18に示すように、伸ばした親指を図17に示す形態から回転させて図18に示す形態とすることで、親指の爪の面が90°回転し、非選択、選択を表すことができる。図17及び図18において、点線の領域は指先を示す。
また、本発明は指示体が含まれているカメラ画像に対して適用でき、指示体は親指と人差し指に限定されない。例えば、手首から先の画像でジャンケンなどの形態を利用することで非選択、選択を表すことができる。
さらに、遠く離れたところからのアングルでカメラで撮像し、カメラ画像における人の立ち位置で位置を示し、手の上げ下げ(万歳、水平開き)で状態を示すことができる。
本発明の第2~第5の実施形態は、2つの実施形態又は3つ以上の実施形態を適宜組み合わせることができる。例えば、ポインタの移動を滑らかなものとし、且つユーザの操作で形態(ポインタ状態)が変わる際に、ユーザが意図せずポインタの座標がぶれることを抑制するために、第2の実施形態と第3の実施形態を組み合わせることができる。
The first to fifth embodiments of the present invention are not limited to the pinch motion of the thumb and the index finger, and as shown in FIGS. 17 and 18, the extended thumb is rotated from the form shown in FIG. By adopting the form shown in the above, the surface of the thumb nail can be rotated by 90 ° to indicate non-selection or selection. In FIGS. 17 and 18, the dotted area indicates the fingertip.
Further, the present invention can be applied to a camera image including an indicator, and the indicator is not limited to the thumb and the index finger. For example, non-selection or selection can be expressed by using a form such as rock-paper-scissors in the image from the wrist to the tip.
Furthermore, it is possible to take an image with a camera from an angle from a distant place, indicate the position by the standing position of a person in the camera image, and indicate the state by raising and lowering the hand (hurray, horizontal opening).
The second to fifth embodiments of the present invention can appropriately combine two embodiments or three or more embodiments. For example, in order to make the movement of the pointer smooth and to prevent the coordinates of the pointer from being unintentionally blurred when the form (pointer state) is changed by the user's operation, the second embodiment and the second embodiment. 3 embodiments can be combined.

以上説明した第2~第4の実施形態は、第1の実施形態の2軸サーチを前提としているが、第2~第4の実施形態はポインタのポインタの精度向上のための構成であって、ポインタ情報生成部以外の構成は第1の実施形態の構成に限定されない。例えば、右手か左手かを予め指定すれば対象検出部11は1軸サーチであっても指先を求めることができる。
また、第5の実施形態は第1~第4の実施形態のいずれかを前提としているが、第5の実施形態は指示体がカメラ画像から外れた場合に報知するための構成であって、特に第1~第4の実施形態の構成に限定されない。
The second to fourth embodiments described above are premised on the two-axis search of the first embodiment, but the second to fourth embodiments are configured to improve the accuracy of the pointer of the pointer. The configuration other than the pointer information generation unit is not limited to the configuration of the first embodiment. For example, if the right hand or the left hand is specified in advance, the target detection unit 11 can obtain the fingertip even in the uniaxial search.
Further, the fifth embodiment is premised on any one of the first to fourth embodiments, but the fifth embodiment is a configuration for notifying when the indicator deviates from the camera image. In particular, the configuration is not limited to the first to fourth embodiments.

以上、本発明に係る実施形態について説明した。本実施形態のユーザインターフェイス装置に含まれる各構成部は、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。また、上記の制御システムに含まれる各構成部のそれぞれの協働により行なわれるサーボ制御方法も、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。 The embodiment according to the present invention has been described above. Each component included in the user interface device of the present embodiment can be realized by hardware, software, or a combination thereof. Further, a servo control method performed by cooperation of each component included in the above control system can also be realized by hardware, software, or a combination thereof. Here, what is realized by software means that it is realized by a computer reading and executing a program.

プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。 Programs can be stored and supplied to a computer using various types of non-transitory computer readable medium. Non-temporary computer-readable media include various types of tangible storage media. Examples of non-temporary computer-readable media include magnetic recording media (eg, hard disk drives), optomagnetic recording media (eg, optomagnetic disks), CD-ROM (Read Only Memory), CD-R, CD-R /. W includes semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)).

上述した各実施形態は、本発明の好適な実施形態ではあるが、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。 Although each of the above-described embodiments is a preferred embodiment of the present invention, the scope of the present invention is not limited to the above-described embodiment, and various modifications are made without departing from the gist of the present invention. It is possible to carry out in.

本開示によるユーザインターフェイス装置、ユーザインターフェイスシステム及びユーザインターフェイス用プログラムは、上述した実施形態を含め、次のような構成を有する各種各様の実施形態を取ることができる。
(1) 指示のために形態が変わる指示体を撮像したカメラ画像に基づいて、該指示体の形態を識別することで指示を特定するユーザインターフェイス装置であって、
前記カメラ画像を2値化した画像について、前記カメラ画像に含まれる対象物の端部を検出するために、方向の異なる、少なくとも斜め2方向にサーチする検出部と、
検出された前記端部に基づいて前記カメラ画像から部分画像を切り出す画像切り出し部と、
前記部分画像が、前記対象物として前記指示体を撮像した部分画像である場合に、前記指示体が指示前の形態を示す部分画像と指示の形態を示す部分画像とを選択する選択部と、
前記指示体が指示前の形態か指示の形態かを示す情報を生成する情報生成部と、
を備えたユーザインターフェイス装置。
このユーザインターフェイス装置によれば、指示体がカメラ画像のどの位置にあり、どのような形態となっているかを正確に検出することができる。
The user interface device, user interface system, and user interface program according to the present disclosure can take various embodiments having the following configurations, including the above-described embodiment.
(1) A user interface device that specifies an instruction by identifying the form of the indicator based on a camera image of an indicator whose form changes due to an instruction.
With respect to the binarized image of the camera image, in order to detect the end portion of the object included in the camera image, a detection unit that searches in at least two diagonal directions with different directions, and a detection unit.
An image cutout portion that cuts out a partial image from the camera image based on the detected end portion, and an image cutout portion.
When the partial image is a partial image obtained by imaging the indicator as the object, a selection unit for selecting a partial image showing the form before the instruction and a partial image showing the form of the instruction by the indicator.
An information generation unit that generates information indicating whether the indicator is in the form before the instruction or in the form of the instruction.
User interface device with.
According to this user interface device, it is possible to accurately detect the position and the form of the indicator in the camera image.

(2) 前記部分画像をディープラーニングによりクラス分けする形態認識部を備え、
前記選択部は、クラス分けされた部分画像から前記指示体が指示前の形態を示す部分画像と指示後の形態を示す部分画像とを選択する、上記(1)に記載のユーザインターフェイス装置。
このユーザインターフェイス装置によれば、機械的な2軸のサーチによる画像認識と、画像のディープラーニングとを組み合わせることで、計算コストの低減と柔軟性の高い認識を両立させることができる。
(2) Equipped with a morphology recognition unit that classifies the partial images by deep learning.
The user interface device according to (1) above, wherein the selection unit selects a partial image showing the form before the instruction and a partial image showing the form after the instruction from the classified partial images.
According to this user interface device, by combining image recognition by mechanical two-axis search and deep learning of an image, it is possible to achieve both reduction of calculation cost and highly flexible recognition.

(3) 前記指示体は、ユーザの親指と人差し指であり、
前記指示前の形態は、前記親指と前記人差し指が開いた状態であり、前記指示の形態は前記親指と前記人差し指が付いた状態である、上記(1)又は(2)に記載のユーザインターフェイス装置。
(3) The indicator is the user's thumb and index finger.
The user interface device according to (1) or (2) above, wherein the form before the instruction is a state in which the thumb and the index finger are open, and the form of the instruction is a state in which the thumb and the index finger are attached. ..

(4) 前記情報生成部は、
前記指示体の位置を示す座標を記憶する座標記憶部と、
前記指示体の位置を示す座標が入力されると、前記座標記憶部に記憶された前記座標の履歴を読み出して移動平均値を取り、該移動平均値を用いて入力された前記座標を補正して出力する移動平均値演算部と、を備え、
前記指示体の位置を示す座標は前記選択部から出力される、上記(1)から(3)のいずれかに記載のユーザインターフェイス装置。
このユーザインターフェイス装置によれば、指示体の移動を滑らかなものとすることができる。
(4) The information generation unit is
A coordinate storage unit that stores coordinates indicating the position of the indicator, and
When the coordinates indicating the position of the indicator are input, the history of the coordinates stored in the coordinate storage unit is read out to obtain a moving average value, and the input coordinates are corrected using the moving average value. Equipped with a moving average value calculation unit that outputs
The user interface device according to any one of (1) to (3) above, wherein the coordinates indicating the position of the indicator are output from the selection unit.
According to this user interface device, the movement of the indicator can be made smooth.

(5) 前記情報生成部は、
前記指示体の位置を示す座標を記憶する座標記憶部と、
生成した、前記指示体が指示前の形態か指示の形態かを示す情報に基づいて、前記指示体の形態の変化を検出し、形態が変化する際に前記指示体の位置をロックするためのロック制御信号を出力する座標ロック制御部と、
前記ロック制御信号が入力されない場合には、入力された、前記指示体の位置を示す座標を出力し、ロック制御信号が入力された場合には、前記座標記憶部に記憶された、ロックする直前の前記指示体の座標を読み出し、形態が変わる直前の前記指示体の座標を維持し、該指示体の座標を出力する座標選択部と、を備え、
前記指示体の位置を示す座標は前記選択部から出力される、上記(1)から(4)のいずれかに記載のユーザインターフェイス装置。
このユーザインターフェイス装置によれば、ユーザの操作で指示体の形態が変わる際に、ユーザが意図せず指示体の座標がぶれることを抑えることができる。
(5) The information generation unit is
A coordinate storage unit that stores coordinates indicating the position of the indicator, and
To detect a change in the form of the indicator based on the generated information indicating whether the indicator is the form before the instruction or the form of the instruction, and to lock the position of the indicator when the form changes. A coordinate lock control unit that outputs a lock control signal,
When the lock control signal is not input, the input coordinates indicating the position of the indicator are output, and when the lock control signal is input, the coordinates stored in the coordinate storage unit immediately before locking are output. It is provided with a coordinate selection unit that reads out the coordinates of the indicator, maintains the coordinates of the indicator immediately before the form changes, and outputs the coordinates of the indicator.
The user interface device according to any one of (1) to (4) above, wherein the coordinates indicating the position of the indicator are output from the selection unit.
According to this user interface device, it is possible to prevent the coordinates of the indicator body from being unintentionally blurred by the user when the form of the indicator body is changed by the user's operation.

(6) 前記指示体の位置を示す座標が入力されると、前記座標記憶部から、ロックする直前の前記指示体の位置を示す座標を読み出して座標変化量を検出する座標変化量検出部を備え、
前記座標ロック制御部は、前記指示体の形態の変化を検出した場合に、前記直前の座標からの変化量が、入力される所定の変化量を超えないときは前記ロック制御信号を出力し、入力される所定の変化量を超えるときは前記ロック制御信号を出力せず、前記ロック制御信号を出力後に、前記直前の座標からの変化量が、入力される所定の変化量を超えたときはロック解除制御信号を出力し、
座標選択部は、前記ロック解除制御信号を受けた場合は、前記指示体の座標の維持を解除し、入力された、前記指示体の位置を示す座標を出力する、上記(5)に記載のユーザインターフェイス装置。
(6) When the coordinates indicating the position of the indicator are input, the coordinate change detection unit that reads the coordinates indicating the position of the indicator immediately before locking from the coordinate storage unit and detects the coordinate change amount is used. Prepare,
When the coordinate lock control unit detects a change in the form of the indicator, the coordinate lock control unit outputs the lock control signal when the change amount from the immediately preceding coordinate does not exceed the input predetermined change amount. When the input predetermined change amount is exceeded, the lock control signal is not output, and when the change amount from the immediately preceding coordinate after the lock control signal is output exceeds the input predetermined change amount, the lock control signal is not output. Output unlock control signal,
The coordinate selection unit, when receiving the unlock control signal, releases the maintenance of the coordinates of the indicator and outputs the input coordinates indicating the position of the indicator, as described in (5) above. User interface device.

(7) 前記座標ロック制御部は、前記指示体の形態の変化を検出し前記ロック制御信号を出力したときから、所定の時間経過したときに、ロック解除制御信号を出力し、
座標選択部は、前記ロック解除制御信号を受けた場合は、前記指示体の座標の維持を解除し、入力された、前記指示体の位置を示す座標を出力する、上記(5)に記載のユーザインターフェイス装置。
(7) The coordinate lock control unit outputs a lock release control signal when a predetermined time has elapsed from the time when the change in the form of the indicator is detected and the lock control signal is output.
The coordinate selection unit, when receiving the unlock control signal, releases the maintenance of the coordinates of the indicator and outputs the input coordinates indicating the position of the indicator, as described in (5) above. User interface device.

(8) 前記座標ロック制御部が前記指示体の形態の変化を検出し前記ロック制御信号を出力したときから、所定の時間経過したときに、入力される前記所定の変化量を前記所定の変化量より小さい値に書き換える、上記(6)に記載のユーザインターフェイス装置。 (8) When a predetermined time has elapsed from the time when the coordinate lock control unit detects a change in the form of the indicator and outputs the lock control signal, the predetermined change amount to be input is changed to the predetermined change. The user interface device according to (6) above, which is rewritten to a value smaller than the amount.

(9) 前記情報生成部は、
生成した、前記指示体が指示前の形態の状態か指示の形態の状態かを示す情報を記憶する記憶部と、
前記記憶部から前記指示体の状態を読み出し、前記指示体の状態が変化し、変化後の前記指示体の状態が所定の回数連続して検出した場合に、前記指示体の状態の切り替え制御信号を出力する連続状態検出部と、
生成した、前記指示体が指示前の形態の状態か指示の形態の状態かを示す情報が入力され、入力された情報が示す状態と、入力前に出力した状態と異なる場合に、前記切り替え制御信号を受けたときに、前記入力前に出力した状態を前記入力された情報が示す状態に切り替えて出力する状態選択部と、
前記入力前に出力した状態を記憶する選択状態記憶部と、
を備えた、
上記(1)から(8)のいずれかに記載のユーザインターフェイス装置。
このユーザインターフェイス装置によれば、ノイズ等により、瞬間的にポインタ情報が失われることを抑制できる。
(9) The information generation unit is
A storage unit that stores the generated information indicating whether the indicator is in the state before the instruction or in the state of the instruction.
When the state of the indicator is read from the storage unit, the state of the indicator changes, and the changed state of the indicator is continuously detected a predetermined number of times, a control signal for switching the state of the indicator. And the continuous state detector that outputs
The switching control is performed when the generated information indicating whether the indicator is in the state before the instruction or the state of the instruction is input and the state indicated by the input information is different from the state output before the input. When a signal is received, a state selection unit that switches the state output before the input to the state indicated by the input information and outputs the signal.
A selection state storage unit that stores the state output before the input, and
With,
The user interface device according to any one of (1) to (8) above.
According to this user interface device, it is possible to suppress momentary loss of pointer information due to noise or the like.

(10) 前記指示体の位置が前記カメラ画像の領域から外れているかどうかを判断する判断部と、
前記指示体の位置が前記カメラ画像の領域から外れている場合に、ユーザに報知する報知部と、
を備えた、上記(1)から(9)のいずれかに記載のユーザインターフェイス装置。
このユーザインターフェイス装置によれば、ユーザに指示体の位置が前記カメラ画像の領域から外れた状況を報知することができる。
(10) A determination unit for determining whether or not the position of the indicator is out of the area of the camera image, and a determination unit.
A notification unit that notifies the user when the position of the indicator is out of the area of the camera image.
The user interface device according to any one of (1) to (9) above.
According to this user interface device, it is possible to notify the user of the situation where the position of the indicator is out of the area of the camera image.

(11) 上記(1)から(10)のいずれかに記載のユーザインターフェイス装置と、
指示のために形態が変わる指示体を撮像する撮像装置と、
前記ユーザインターフェイス装置から出力される前記指示体が指示前の形態か指示の形態かを示す情報に基づいて操作される表示画面を表示する表示装置と、
を備えた、ユーザインターフェイスシステム。
このユーザインターフェイスシステムによれば、指示体がカメラ画像のどの位置にあり、どのような形態となっているかを正確に検出して、検出結果に基づいて表示装置の表示画面を操作することができる。
(11) The user interface device according to any one of (1) to (10) above, and
An imaging device that captures an image of an indicator whose form changes due to an instruction,
A display device that displays a display screen that is operated based on information indicating whether the indicator output from the user interface device is in the form before the instruction or in the form of the instruction.
A user interface system with.
According to this user interface system, it is possible to accurately detect the position and shape of the indicator in the camera image and operate the display screen of the display device based on the detection result. ..

(12) コンピュータに、
カメラ画像に含まれる対象物の端部を検出するために、方向の異なる、少なくとも斜め2方向にサーチする検出機能と、
検出された前記端部に基づいて前記カメラ画像から部分画像を切り出す画像切り出し機能と、
前記部分画像が、前記対象物として、指示のために形態が変わる指示体を撮像した部分画像である場合に、前記指示体が指示前の形態を示す部分画像と指示の形態を示す部分画像とを選択する選択機能と、
前記指示体が指示前の形態か指示の形態かを示す情報を生成する情報生成機能と、
を実行させる、ユーザインターフェイス用プログラム。
このユーザインターフェイス用プログラムによれば、指示体がカメラ画像のどの位置にあり、どのような形態となっているかを正確に検出することができる。
(12) On the computer
In order to detect the edge of the object contained in the camera image, a detection function that searches in at least two diagonal directions with different directions, and a detection function.
An image cropping function that crops a partial image from the camera image based on the detected edge,
When the partial image is a partial image of an indicator whose form changes due to an instruction as the object, the partial image showing the form before the instruction and the partial image showing the form of the instruction are shown. With the selection function to select
An information generation function that generates information indicating whether the indicator is in the form before the instruction or in the form of the instruction.
A program for the user interface that executes.
According to this user interface program, it is possible to accurately detect the position and shape of the indicator in the camera image.

以上説明した(1)~(12)の実施態様以外にも、本発明は次に示す実施態様とも認識できる。 In addition to the embodiments (1) to (12) described above, the present invention can also be recognized as the following embodiments.

(13) 指示のために形態が変わる指示体を撮像したカメラ画像に基づいて、該指示体の形態を識別することで指示を特定するユーザインターフェイス装置であって、
前記カメラ画像から部分画像を切り出す画像切り出し部と、
前記部分画像が、前記対象物として前記指示体を撮像した部分画像である場合に、前記指示体が指示前の形態を示す部分画像と指示の形態を示す部分画像とを選択する選択部と、
前記指示体が指示前の形態か指示の形態かを示す情報を生成する情報生成部と、
を備え、
前記情報生成部は、
前記指示体の位置を示す座標を記憶する座標記憶部と、
前記指示体の位置を示す座標が入力されると、前記座標記憶部に記憶された前記座標の履歴を読み出して移動平均値を取り、該移動平均値を用いて入力された前記座標を補正して出力する移動平均値演算部と、を備え、
前記指示体の位置を示す座標は前記選択部から出力される、ユーザインターフェイス装置。
このユーザインターフェイス装置によれば、指示体の移動を滑らかなものとすることができる。
(13) A user interface device that specifies an instruction by identifying the form of the indicator based on a camera image of an indicator whose form changes due to an instruction.
An image cutout portion that cuts out a partial image from the camera image,
When the partial image is a partial image obtained by imaging the indicator as the object, a selection unit for selecting a partial image showing the form before the instruction and a partial image showing the form of the instruction by the indicator.
An information generation unit that generates information indicating whether the indicator is in the form before the instruction or in the form of the instruction.
Equipped with
The information generation unit
A coordinate storage unit that stores coordinates indicating the position of the indicator, and
When the coordinates indicating the position of the indicator are input, the history of the coordinates stored in the coordinate storage unit is read out to obtain a moving average value, and the input coordinates are corrected using the moving average value. Equipped with a moving average value calculation unit that outputs
A user interface device in which coordinates indicating the position of the indicator are output from the selection unit.
According to this user interface device, the movement of the indicator can be made smooth.

(14) 指示のために形態が変わる指示体を撮像したカメラ画像に基づいて、該指示体の形態を識別することで指示を特定するユーザインターフェイス装置であって、
前記カメラ画像から部分画像を切り出す画像切り出し部と、
前記部分画像が、前記対象物として前記指示体を撮像した部分画像である場合に、前記指示体が指示前の形態を示す部分画像と指示の形態を示す部分画像とを選択する選択部と、
前記指示体が指示前の形態か指示の形態かを示す情報を生成する情報生成部と、
を備え、
前記情報生成部は、
前記指示体の位置を示す座標を記憶する座標記憶部と、
生成した、前記指示体が指示前の形態か指示の形態かを示す情報に基づいて、前記指示体の形態の変化を検出し、形態が変化する際に前記指示体の位置をロックするためのロック制御信号を出力する座標ロック制御部と、
前記ロック制御信号が入力されない場合には、入力された、前記指示体の位置を示す座標を出力し、ロック制御信号が入力された場合には、前記座標記憶部に記憶された、ロックする直前の前記指示体の座標を読み出し、形態が変わる直前の前記指示体の座標を維持し、この指示体の座標を出力する座標選択部と、を備え、
前記指示体の位置を示す座標は前記選択部から出力される、ユーザインターフェイス装置。
このユーザインターフェイス装置によれば、ユーザの操作で指示体の形態が変わる際に、ユーザが意図せず指示体の座標がぶれることを抑えることができる。
(14) A user interface device that specifies an instruction by identifying the form of the indicator based on a camera image of an indicator whose form changes due to an instruction.
An image cutout portion that cuts out a partial image from the camera image,
When the partial image is a partial image obtained by imaging the indicator as the object, a selection unit for selecting a partial image showing the form before the instruction and a partial image showing the form of the instruction by the indicator.
An information generation unit that generates information indicating whether the indicator is in the form before the instruction or in the form of the instruction.
Equipped with
The information generation unit
A coordinate storage unit that stores coordinates indicating the position of the indicator, and
To detect a change in the form of the indicator based on the generated information indicating whether the indicator is the form before the instruction or the form of the instruction, and to lock the position of the indicator when the form changes. A coordinate lock control unit that outputs a lock control signal,
When the lock control signal is not input, the input coordinates indicating the position of the indicator are output, and when the lock control signal is input, the coordinates stored in the coordinate storage unit immediately before locking are output. It is provided with a coordinate selection unit that reads out the coordinates of the indicator, maintains the coordinates of the indicator immediately before the form changes, and outputs the coordinates of the indicator.
A user interface device in which coordinates indicating the position of the indicator are output from the selection unit.
According to this user interface device, it is possible to prevent the coordinates of the indicator body from being unintentionally blurred by the user when the form of the indicator body is changed by the user's operation.

(15) 前記指示体の位置を示す座標が入力されると、前記座標記憶部から、ロックする直前の前記指示体の位置を示す座標を読み出して座標変化量を検出する座標変化量検出部を備え、
前記座標ロック制御部は、前記指示体の形態の変化を検出した場合に、前記直前の座標からの変化量が、入力される所定の変化量を超えないときは前記ロック制御信号を出力し、入力される所定の変化量を超えるときは前記ロック制御信号を出力せず、前記ロック制御信号を出力後に、前記直前の座標からの変化量が、入力される所定の変化量を超えたときはロック解除制御信号を出力し、
座標選択部は、前記ロック解除制御信号を受けた場合は、前記指示体の座標の維持を解除し、入力された、前記指示体の位置を示す座標を出力する、上記(14)に記載のユーザインターフェイス装置。
(15) When the coordinates indicating the position of the indicator are input, the coordinate change detection unit that reads the coordinates indicating the position of the indicator immediately before locking from the coordinate storage unit and detects the coordinate change amount is used. Prepare,
When the coordinate lock control unit detects a change in the form of the indicator, the coordinate lock control unit outputs the lock control signal when the change amount from the immediately preceding coordinate does not exceed the input predetermined change amount. When the input predetermined change amount is exceeded, the lock control signal is not output, and when the change amount from the immediately preceding coordinate after the lock control signal is output exceeds the input predetermined change amount, the lock control signal is not output. Output unlock control signal,
The coordinate selection unit receives the unlock control signal, releases the maintenance of the coordinates of the indicator, and outputs the input coordinates indicating the position of the indicator, according to the above (14). User interface device.

(16) 前記座標ロック制御部は、前記指示体の形態の変化を検出し前記ロック制御信号を出力したときから、所定の時間経過したときに、ロック解除制御信号を出力し、
座標選択部は、前記ロック解除制御信号を受けた場合は、前記指示体の座標の維持を解除し、入力された、前記指示体の位置を示す座標を出力する、上記(14)に記載のユーザインターフェイス装置。
(16) The coordinate lock control unit outputs a lock release control signal when a predetermined time has elapsed from the time when the change in the form of the indicator is detected and the lock control signal is output.
The coordinate selection unit receives the unlock control signal, releases the maintenance of the coordinates of the indicator, and outputs the input coordinates indicating the position of the indicator, according to the above (14). User interface device.

(17) 前記座標ロック制御部が前記指示体の形態の変化を検出し前記ロック制御信号を出力したときから、所定の時間経過したときに、入力される前記所定の変化量を前記所定の変化量より小さい値に書き換える、上記(15)に記載のユーザインターフェイス装置。 (17) When a predetermined time has elapsed from the time when the coordinate lock control unit detects a change in the form of the indicator and outputs the lock control signal, the predetermined change amount to be input is changed to the predetermined change. The user interface device according to (15) above, which is rewritten to a value smaller than the amount.

(18) 指示のために形態が変わる指示体を撮像したカメラ画像に基づいて、該指示体の形態を識別することで指示を特定するユーザインターフェイス装置であって、
前記カメラ画像から部分画像を切り出す画像切り出し部と、
前記部分画像が、前記対象物として前記指示体を撮像した部分画像である場合に、前記指示体が指示前の形態を示す部分画像と指示の形態を示す部分画像とを選択する選択部と、
前記指示体が指示前の形態か指示の形態かを示す情報を生成する情報生成部と、
を備え、
前記情報生成部は、
生成した、前記指示体が指示前の形態の状態か指示の形態の状態かを示す情報を記憶する記憶部と、
前記記憶部から前記指示体の状態を読み出し、前記指示体の状態が変化し、変化後の前記指示体の状態が所定の回数連続して検出した場合に、前記指示体の状態の切り替え制御信号を出力する連続状態検出部と、
生成した、前記指示体が指示前の形態の状態か指示の形態の状態かを示す情報が入力され、入力された情報が示す状態と、入力前に出力した状態と異なる場合に、前記切り替え制御信号を受けたときに、前記入力前に出力した状態を前記入力された情報が示す状態に切り替えて出力する状態選択部と、
前記入力前に出力した状態を記憶する選択状態記憶部と、
を備えた、
ユーザインターフェイス装置。
このユーザインターフェイス装置によれば、ノイズ等により、瞬間的にポインタ情報が失われることを抑制できる。
(18) A user interface device that specifies an instruction by identifying the form of the indicator based on a camera image of an indicator whose form changes due to an instruction.
An image cutout portion that cuts out a partial image from the camera image,
When the partial image is a partial image obtained by imaging the indicator as the object, a selection unit for selecting a partial image showing the form before the instruction and a partial image showing the form of the instruction by the indicator.
An information generation unit that generates information indicating whether the indicator is in the form before the instruction or in the form of the instruction.
Equipped with
The information generation unit
A storage unit that stores the generated information indicating whether the indicator is in the state before the instruction or in the state of the instruction.
When the state of the indicator is read from the storage unit, the state of the indicator changes, and the changed state of the indicator is continuously detected a predetermined number of times, a control signal for switching the state of the indicator. And the continuous state detector that outputs
The switching control is performed when the generated information indicating whether the indicator is in the state before the instruction or the state of the instruction is input and the state indicated by the input information is different from the state output before the input. When a signal is received, a state selection unit that switches the state output before the input to the state indicated by the input information and outputs the signal.
A selection state storage unit that stores the state output before the input, and
With,
User interface device.
According to this user interface device, it is possible to suppress momentary loss of pointer information due to noise or the like.

(19) 指示のために形態が変わる指示体を撮像したカメラ画像に基づいて、該指示体の形態を識別することで指示を特定するユーザインターフェイス装置であって、
前記カメラ画像から部分画像を切り出す画像切り出し部と、
前記部分画像が、前記対象物として前記指示体を撮像した部分画像である場合に、前記指示体が指示前の形態を示す部分画像と指示の形態を示す部分画像とを選択する選択部と、
前記指示体が指示前の形態か指示の形態かを示す情報を生成する情報生成部と、
を備え、
前記指示体の位置が前記カメラ画像の領域から外れているかどうかを判断する判断部と、
前記指示体の位置が前記カメラ画像の領域から外れている場合に、ユーザに報知する報知部と、
を備えた、ユーザインターフェイス装置。
このユーザインターフェイス装置によれば、ユーザに指示体の位置が前記カメラ画像の領域から外れた状況を報知することができる。
(19) A user interface device that specifies an instruction by identifying the form of the indicator based on a camera image of an indicator whose form changes due to an instruction.
An image cutout portion that cuts out a partial image from the camera image,
When the partial image is a partial image obtained by imaging the indicator as the object, a selection unit for selecting a partial image showing the form before the instruction and a partial image showing the form of the instruction by the indicator.
An information generation unit that generates information indicating whether the indicator is in the form before the instruction or in the form of the instruction.
Equipped with
A determination unit for determining whether or not the position of the indicator is out of the area of the camera image,
A notification unit that notifies the user when the position of the indicator is out of the area of the camera image.
A user interface device equipped with.
According to this user interface device, it is possible to notify the user of the situation where the position of the indicator is out of the area of the camera image.

(20) 上記(13)から上記(19)のいずれかに記載のユーザインターフェイス装置と、
指示のために形態が変わる指示体を撮像する撮像装置と、
前記ユーザインターフェイス装置から出力される前記指示体が指示前の形態か指示の形態かを示す情報に基づいて操作される表示画面を表示する表示装置と、
を備えた、ユーザインターフェイスシステム。
(20) The user interface device according to any one of (13) to (19) above, and the user interface device according to any one of (19) above.
An imaging device that captures an image of an indicator whose form changes due to an instruction,
A display device that displays a display screen that is operated based on information indicating whether the indicator output from the user interface device is in the form before the instruction or in the form of the instruction.
A user interface system with.

(21) コンピュータに、上記(13)から(19)のいずれかのユーザインターフェイス装置の各部の機能を実行させるための、ユーザインターフェイス用プログラム。 (21) A user interface program for causing a computer to execute the functions of each part of the user interface device according to any one of (13) to (19) above.

1 ユーザインターフェイスシステム
10 ユーザインターフェイス装置
11 対象検出部
12 画像切り出し部
13形態認識部
14 ポインタ選択部
15 ポインタ情報生成部
16 ポインタ情報送信部
20 カメラ
30 表示装置
1 User interface system 10 User interface device 11 Target detection unit 12 Image cropping unit 13 Form recognition unit 14 Pointer selection unit 15 Pointer information generation unit 16 Pointer information transmission unit 20 Camera 30 Display device

Claims (12)

指示のために形態が変わる指示体を撮像したカメラ画像に基づいて、該指示体の形態を識別することで指示を特定するユーザインターフェイス装置であって、
前記カメラ画像を2値化した画像について、前記カメラ画像に含まれる対象物の端部を検出するために、方向の異なる、少なくとも斜め2方向にサーチする検出部と、
検出された前記端部に基づいて前記カメラ画像から部分画像を切り出す画像切り出し部と、
前記部分画像が、前記対象物として前記指示体を撮像した部分画像である場合に、前記指示体が指示前の形態を示す部分画像と指示の形態を示す部分画像とを選択する選択部と、
前記指示体が指示前の形態か指示の形態かを示す情報を生成する情報生成部と、
を備えたユーザインターフェイス装置。
A user interface device that identifies an instruction by identifying the form of the indicator based on a camera image of an indicator whose form changes due to an instruction.
With respect to the binarized image of the camera image, in order to detect the end portion of the object included in the camera image, a detection unit that searches in at least two diagonal directions with different directions, and a detection unit.
An image cutout portion that cuts out a partial image from the camera image based on the detected end portion, and an image cutout portion.
When the partial image is a partial image obtained by imaging the indicator as the object, a selection unit for selecting a partial image showing the form before the instruction and a partial image showing the form of the instruction by the indicator.
An information generation unit that generates information indicating whether the indicator is in the form before the instruction or in the form of the instruction.
User interface device with.
前記部分画像をディープラーニングによりクラス分けする形態認識部を備え、
前記選択部は、クラス分けされた部分画像から前記指示体が指示前の形態を示す部分画像と指示後の形態を示す部分画像とを選択する、請求項1に記載のユーザインターフェイス装置。
It is equipped with a morphology recognition unit that classifies the partial images by deep learning.
The user interface device according to claim 1, wherein the selection unit selects a partial image showing a form before the instruction and a partial image showing the form after the instruction from the classified partial images.
前記指示体は、ユーザの親指と人差し指であり、
前記指示前の形態は、前記親指と前記人差し指が開いた状態であり、前記指示の形態は前記親指と前記人差し指が付いた状態である、請求項1又は2に記載のユーザインターフェイス装置。
The indicators are the user's thumb and index finger.
The user interface device according to claim 1 or 2, wherein the form before the instruction is a state in which the thumb and the index finger are open, and the form of the instruction is a state in which the thumb and the index finger are attached.
前記情報生成部は、
前記指示体の位置を示す座標を記憶する座標記憶部と、
前記指示体の位置を示す座標が入力されると、前記座標記憶部に記憶された前記座標の履歴を読み出して移動平均値を取り、該移動平均値を用いて入力された前記座標を補正して出力する移動平均値演算部と、を備え、
前記指示体の位置を示す座標は前記選択部から出力される、請求項1から3のいずれか1項に記載のユーザインターフェイス装置。
The information generation unit
A coordinate storage unit that stores coordinates indicating the position of the indicator, and
When the coordinates indicating the position of the indicator are input, the history of the coordinates stored in the coordinate storage unit is read out to obtain a moving average value, and the input coordinates are corrected using the moving average value. Equipped with a moving average value calculation unit that outputs
The user interface device according to any one of claims 1 to 3, wherein the coordinates indicating the position of the indicator are output from the selection unit.
前記情報生成部は、
前記指示体の位置を示す座標を記憶する座標記憶部と、
生成した、前記指示体が指示前の形態か指示の形態かを示す情報に基づいて、前記指示体の形態の変化を検出し、形態が変化する際に前記指示体の位置をロックするためのロック制御信号を出力する座標ロック制御部と、
前記ロック制御信号が入力されない場合には、入力された、前記指示体の位置を示す座標を出力し、ロック制御信号が入力された場合には、前記座標記憶部に記憶された、ロックする直前の前記指示体の座標を読み出し、形態が変わる直前の前記指示体の座標を維持し、該指示体の座標を出力する座標選択部と、を備え、
前記指示体の位置を示す座標は前記選択部から出力される、請求項1から4のいずれか1項に記載のユーザインターフェイス装置。
The information generation unit
A coordinate storage unit that stores coordinates indicating the position of the indicator, and
To detect a change in the form of the indicator based on the generated information indicating whether the indicator is the form before the instruction or the form of the instruction, and to lock the position of the indicator when the form changes. A coordinate lock control unit that outputs a lock control signal,
When the lock control signal is not input, the input coordinates indicating the position of the indicator are output, and when the lock control signal is input, the coordinates stored in the coordinate storage unit immediately before locking are output. It is provided with a coordinate selection unit that reads out the coordinates of the indicator, maintains the coordinates of the indicator immediately before the form changes, and outputs the coordinates of the indicator.
The user interface device according to any one of claims 1 to 4, wherein the coordinates indicating the position of the indicator are output from the selection unit.
前記指示体の位置を示す座標が入力されると、前記座標記憶部から、ロックする直前の前記指示体の位置を示す座標を読み出して座標変化量を検出する座標変化量検出部を備え、
前記座標ロック制御部は、前記指示体の形態の変化を検出した場合に、前記直前の座標からの変化量が、入力される所定の変化量を超えないときは前記ロック制御信号を出力し、入力される所定の変化量を超えるときは前記ロック制御信号を出力せず、前記ロック制御信号を出力後に、前記直前の座標からの変化量が、入力される所定の変化量を超えたときはロック解除制御信号を出力し、
座標選択部は、前記ロック解除制御信号を受けた場合は、前記指示体の座標の維持を解除し、入力された、前記指示体の位置を示す座標を出力する、請求項5に記載のユーザインターフェイス装置。
When the coordinates indicating the position of the indicator are input, the coordinate change amount detection unit is provided, which reads the coordinates indicating the position of the indicator immediately before locking from the coordinate storage unit and detects the coordinate change amount.
When the coordinate lock control unit detects a change in the form of the indicator, the coordinate lock control unit outputs the lock control signal when the change amount from the immediately preceding coordinate does not exceed the input predetermined change amount. When the input predetermined change amount is exceeded, the lock control signal is not output, and when the change amount from the immediately preceding coordinate after the lock control signal is output exceeds the input predetermined change amount, the lock control signal is not output. Output unlock control signal,
The user according to claim 5, wherein when the coordinate selection unit receives the unlock control signal, it releases the maintenance of the coordinates of the indicator and outputs the input coordinates indicating the position of the indicator. Interface device.
前記座標ロック制御部は、前記指示体の形態の変化を検出し前記ロック制御信号を出力したときから、所定の時間経過したときに、ロック解除制御信号を出力し、
座標選択部は、前記ロック解除制御信号を受けた場合は、前記指示体の座標の維持を解除し、入力された、前記指示体の位置を示す座標を出力する、請求項5に記載のユーザインターフェイス装置。
The coordinate lock control unit outputs a lock release control signal when a predetermined time has elapsed from the time when the change in the form of the indicator is detected and the lock control signal is output.
The user according to claim 5, wherein when the coordinate selection unit receives the unlock control signal, it releases the maintenance of the coordinates of the indicator and outputs the input coordinates indicating the position of the indicator. Interface device.
前記座標ロック制御部が前記指示体の形態の変化を検出し前記ロック制御信号を出力したときから、所定の時間経過したときに、入力される前記所定の変化量を前記所定の変化量より小さい値に書き換える、請求項6に記載のユーザインターフェイス装置。 The predetermined change amount to be input is smaller than the predetermined change amount when a predetermined time has elapsed from the time when the coordinate lock control unit detects the change in the form of the indicator and outputs the lock control signal. The user interface device according to claim 6, which is rewritten into a value. 前記情報生成部は、
生成した、前記指示体が指示前の形態の状態か指示の形態の状態かを示す情報を記憶する記憶部と、
前記記憶部から前記指示体の状態を読み出し、前記指示体の状態が変化し、変化後の前記指示体の状態が所定の回数連続して検出した場合に、前記指示体の状態の切り替え制御信号を出力する連続状態検出部と、
生成した、前記指示体が指示前の形態の状態か指示の形態の状態かを示す情報が入力され、入力された情報が示す状態と、入力前に出力した状態と異なる場合に、前記切り替え制御信号を受けたときに、前記入力前に出力した状態を前記入力された情報が示す状態に切り替えて出力する状態選択部と、
前記入力前に出力した状態を記憶する選択状態記憶部と、
を備えた、
請求項1から8のいずれか1項に記載のユーザインターフェイス装置。
The information generation unit
A storage unit that stores the generated information indicating whether the indicator is in the state before the instruction or in the state of the instruction.
When the state of the indicator is read from the storage unit, the state of the indicator changes, and the changed state of the indicator is continuously detected a predetermined number of times, a control signal for switching the state of the indicator. And the continuous state detector that outputs
The switching control is performed when the generated information indicating whether the indicator is in the state before the instruction or the state of the instruction is input and the state indicated by the input information is different from the state output before the input. When a signal is received, a state selection unit that switches the state output before the input to the state indicated by the input information and outputs the signal.
A selection state storage unit that stores the state output before the input, and
With,
The user interface device according to any one of claims 1 to 8.
前記指示体の位置が前記カメラ画像の領域から外れているかどうかを判断する判断部と、
前記指示体の位置が前記カメラ画像の領域から外れている場合に、ユーザに報知する報知部と、
を備えた、請求項1から9のいずれか1項に記載のユーザインターフェイス装置。
A determination unit for determining whether or not the position of the indicator is out of the area of the camera image,
A notification unit that notifies the user when the position of the indicator is out of the area of the camera image.
The user interface device according to any one of claims 1 to 9.
請求項1から請求項10のいずれか1項に記載のユーザインターフェイス装置と、
指示のために形態が変わる指示体を撮像する撮像装置と、
前記ユーザインターフェイス装置から出力される前記指示体が指示前の形態か指示の形態かを示す情報に基づいて操作される表示画面を表示する表示装置と、
を備えた、ユーザインターフェイスシステム。
The user interface device according to any one of claims 1 to 10.
An imaging device that captures an image of an indicator whose form changes due to an instruction,
A display device that displays a display screen that is operated based on information indicating whether the indicator output from the user interface device is in the form before the instruction or in the form of the instruction.
A user interface system with.
コンピュータに、
カメラ画像に含まれる対象物の端部を検出するために、方向の異なる、少なくとも斜め2方向にサーチする検出機能と、
検出された前記端部に基づいて前記カメラ画像から部分画像を切り出す画像切り出し機能と、
前記部分画像が、前記対象物として、指示のために形態が変わる指示体を撮像した部分画像である場合に、前記指示体が指示前の形態を示す部分画像と指示の形態を示す部分画像とを選択する選択機能と、
前記指示体が指示前の形態か指示の形態かを示す情報を生成する情報生成機能と、
を実行させる、ユーザインターフェイス用プログラム。
On the computer
In order to detect the edge of the object contained in the camera image, a detection function that searches in at least two diagonal directions with different directions, and a detection function.
An image cropping function that crops a partial image from the camera image based on the detected edge,
When the partial image is a partial image of an indicator whose form changes due to an instruction as the object, the partial image showing the form before the instruction and the partial image showing the form of the instruction are shown. With the selection function to select
An information generation function that generates information indicating whether the indicator is in the form before the instruction or in the form of the instruction.
A program for the user interface that executes.
JP2020189577A 2020-11-13 2020-11-13 USER INTERFACE DEVICE, USER INTERFACE SYSTEM AND PROGRAM FOR USER INTERFACE Active JP7203436B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020189577A JP7203436B2 (en) 2020-11-13 2020-11-13 USER INTERFACE DEVICE, USER INTERFACE SYSTEM AND PROGRAM FOR USER INTERFACE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020189577A JP7203436B2 (en) 2020-11-13 2020-11-13 USER INTERFACE DEVICE, USER INTERFACE SYSTEM AND PROGRAM FOR USER INTERFACE

Publications (2)

Publication Number Publication Date
JP2022078706A true JP2022078706A (en) 2022-05-25
JP7203436B2 JP7203436B2 (en) 2023-01-13

Family

ID=81707076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020189577A Active JP7203436B2 (en) 2020-11-13 2020-11-13 USER INTERFACE DEVICE, USER INTERFACE SYSTEM AND PROGRAM FOR USER INTERFACE

Country Status (1)

Country Link
JP (1) JP7203436B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023214451A1 (en) * 2022-05-02 2023-11-09 ディープインサイト株式会社 User interface device, user interface system, and user interface program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014178887A (en) * 2013-03-14 2014-09-25 Sharp Corp Information processor, display unit with touch panel, and information processing method and program
JP2015069369A (en) * 2013-09-27 2015-04-13 株式会社Jvcケンウッド Operation input device, operation input method, and program
WO2015104919A1 (en) * 2014-01-10 2015-07-16 コニカミノルタ株式会社 Gesture recognition device, operation input device, and gesture recognition method
WO2015108112A1 (en) * 2014-01-15 2015-07-23 株式会社Juice Design Manipulation determination device, manipulation determination method, and program
JP2016167268A (en) * 2015-03-06 2016-09-15 国立大学法人 筑波大学 Gesture modeling device, gesture modeling method, program for gesture modeling system, and gesture modeling system
JP2019121191A (en) * 2018-01-05 2019-07-22 ラピスセミコンダクタ株式会社 Operation determination device and operation determination method
JP2020057139A (en) * 2018-10-01 2020-04-09 トヨタ自動車株式会社 Equipment controller

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014178887A (en) * 2013-03-14 2014-09-25 Sharp Corp Information processor, display unit with touch panel, and information processing method and program
JP2015069369A (en) * 2013-09-27 2015-04-13 株式会社Jvcケンウッド Operation input device, operation input method, and program
WO2015104919A1 (en) * 2014-01-10 2015-07-16 コニカミノルタ株式会社 Gesture recognition device, operation input device, and gesture recognition method
WO2015108112A1 (en) * 2014-01-15 2015-07-23 株式会社Juice Design Manipulation determination device, manipulation determination method, and program
JP2016167268A (en) * 2015-03-06 2016-09-15 国立大学法人 筑波大学 Gesture modeling device, gesture modeling method, program for gesture modeling system, and gesture modeling system
JP2019121191A (en) * 2018-01-05 2019-07-22 ラピスセミコンダクタ株式会社 Operation determination device and operation determination method
JP2020057139A (en) * 2018-10-01 2020-04-09 トヨタ自動車株式会社 Equipment controller

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023214451A1 (en) * 2022-05-02 2023-11-09 ディープインサイト株式会社 User interface device, user interface system, and user interface program

Also Published As

Publication number Publication date
JP7203436B2 (en) 2023-01-13

Similar Documents

Publication Publication Date Title
US20210258474A1 (en) Adjusting Motion Capture Based on the Distance Between Tracked Objects
JP6159323B2 (en) Information processing method and information processing apparatus
KR101437760B1 (en) Gesture recognition apparatus, electronic device, gesture recognition method, and computer-readable recording medium for control program
JP5802667B2 (en) Gesture input device and gesture input method
EP2817694B1 (en) Navigation for multi-dimensional input
US9405373B2 (en) Recognition apparatus
JP4575829B2 (en) Display screen position analysis device and display screen position analysis program
US20150062006A1 (en) Feature tracking for device input
WO2014045953A1 (en) Information processing device and method, and program
JPH0844490A (en) Interface device
US20160073033A1 (en) Electronic apparatus
TW201719335A (en) Line-of-sight input device, line-of-sight input method, and line-of-sight input program
JP2013061848A (en) Noncontact input device
JPWO2015159548A1 (en) Projection control apparatus, projection control method, and projection control program
JP6255954B2 (en) Motion input device, motion input program, and motion input method
WO2016018518A1 (en) Optical tracking of a user-guided object for mobile platform user input
JP2022078706A (en) User interface device, user interface system and program for user interface
JP5174492B2 (en) Image recognition apparatus, image recognition method, image recognition program, gesture motion recognition system, gesture motion recognition method, and gesture motion recognition program
WO2023214451A1 (en) User interface device, user interface system, and user interface program
JP2011243157A (en) Electronic apparatus, button size control method, and program
JP6196101B2 (en) Information processing apparatus, method, and program
JP2023179345A (en) Information input method, information input device, electronic equipment, and storage medium
JP4972013B2 (en) Information presenting apparatus, information presenting method, information presenting program, and recording medium recording the program
JP6823988B2 (en) Screen operation method and screen operation device
KR101294212B1 (en) Motion Detection system in robot and thereof method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221220

R150 Certificate of patent or registration of utility model

Ref document number: 7203436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150