JP2017162126A - Input system, input method, control program and storage medium - Google Patents

Input system, input method, control program and storage medium Download PDF

Info

Publication number
JP2017162126A
JP2017162126A JP2016044973A JP2016044973A JP2017162126A JP 2017162126 A JP2017162126 A JP 2017162126A JP 2016044973 A JP2016044973 A JP 2016044973A JP 2016044973 A JP2016044973 A JP 2016044973A JP 2017162126 A JP2017162126 A JP 2017162126A
Authority
JP
Japan
Prior art keywords
hand
touch
unit
gesture recognition
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016044973A
Other languages
Japanese (ja)
Inventor
克幸 ▲高▼橋
克幸 ▲高▼橋
Katsuyuki Takahashi
武士 松村
Takeshi Matsumura
武士 松村
宗士 大志万
Soshi Oshima
宗士 大志万
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016044973A priority Critical patent/JP2017162126A/en
Publication of JP2017162126A publication Critical patent/JP2017162126A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an input system which has improved operation ability relative to prior ones, and which achieves various kinds of input operations.SOLUTION: An input system comprises: a projector 207 for displaying an UI component on an operation plane; a touch panel 330 for detecting a touch position on which a user touched the operation plane by a finger; and a distance image sensor part 208 for acquiring a shape of a hand comprising a finger which touches the operation plane. The input system recognizes a hand area in which the hand is projected to the operation plane based on the shape of the hand, and detects a touch operation to the UI component based on the touch position and a display position of the UI component. The input system determines the operation content to the UI component according to the hand area and the touch operation.SELECTED DRAWING: Figure 3

Description

本発明は、表示中のUI(User Interface)部品に対する操作内容を検出する入力システムに関する。UI部品とは、画面部品や機能部品などをいう。   The present invention relates to an input system that detects the operation content of a UI (User Interface) component being displayed. UI parts refer to screen parts and functional parts.

プロジェクタや大型の液晶ディスプレイ等の表示装置によりUI部品を表示し、これを複数のタッチ位置を検出可能な位置検出装置であるタッチパネルを用いて操作する入力システムがある。ユーザが表示装置で表示されたUI部品をタッチし、そのタッチ位置をタッチパネルが検出することで、UI部品とタッチ位置とに応じた処理が行われる。このような入力システムでは、複数のユーザが同時にUI部品を操作することが想定されている。そのために入力システムは、複数点のタッチ位置を検出したときに、一人のユーザがマルチタッチを行っているか、あるいは複数のユーザがそれぞれシングルタッチを行っているか、を判断する必要がある。特許文献1は、タッチ操作時に表示面に接触する指形状に基づいて、一人のユーザがマルチタッチを行っているか、あるいは複数のユーザがそれぞれシングルタッチを行っているか、を判断して、表示内容を変更する技術を開示する。   There is an input system in which UI parts are displayed by a display device such as a projector or a large liquid crystal display, and this is operated using a touch panel which is a position detection device capable of detecting a plurality of touch positions. When the user touches a UI component displayed on the display device and the touch position is detected by the touch panel, processing according to the UI component and the touch position is performed. In such an input system, it is assumed that a plurality of users simultaneously operate UI parts. Therefore, when the input system detects a plurality of touch positions, it is necessary to determine whether one user is performing multi-touch or whether a plurality of users are performing single touches. Patent Document 1 determines whether a single user is performing multi-touch or a plurality of users are performing single touch based on the finger shape that touches the display surface during a touch operation, and displays the contents. Disclose the technology to change.

特開2014−16795号公報JP 2014-16795 A

従来のようにタッチ操作時に表示面に接触している部分の指形状で操作内容を判断する場合、タッチ操作時にユーザの手がどのような姿勢になっているかを判別することは困難である。そのために、手の姿勢(例えば手を握っている、開いている等)に応じて操作内容を変更するといった処理ができない。手の姿勢を判別することで、従来よりも多種多様な入力操作が可能となる。   When the operation content is determined based on the finger shape of the portion that is in contact with the display surface during the touch operation as in the past, it is difficult to determine the posture of the user's hand during the touch operation. Therefore, it is not possible to perform processing such as changing the operation content in accordance with the posture of the hand (for example, holding the hand or opening the hand). By discriminating the posture of the hand, a wider variety of input operations than before can be performed.

本発明は、上記の問題を解決するために、従来よりも操作性が向上し、多種多様な入力操作が可能な入力システムを提供することを主たる課題とする。   In order to solve the above problems, it is a main object of the present invention to provide an input system that has improved operability as compared with the prior art and is capable of various input operations.

本発明の入力システムは、UI部品を操作平面に表示する表示手段と、ユーザが指で前記操作平面をタッチしたタッチ位置を検出する位置検出手段と、前記操作平面をタッチしている指を備える手の形状を取得する画像取得手段と、前記手の形状から、該手を前記操作平面に投影した手領域を認識するジェスチャー認識手段と、前記位置検出手段で検出した前記タッチ位置と前記表示手段が表示する前記UI部品の位置とから、当該UI部品へのタッチ操作を検出するイベント検知手段と、前記ジェスチャー認識手段で認識した前記手領域と前記イベント検知手段で検出した前記タッチ操作とに応じて、前記UI部品への操作内容を判定する判定手段と、を備えることを特徴とする。   An input system according to the present invention includes display means for displaying a UI component on an operation plane, position detection means for detecting a touch position where a user touches the operation plane with a finger, and a finger touching the operation plane. Image acquisition means for acquiring the shape of the hand, gesture recognition means for recognizing a hand region obtained by projecting the hand onto the operation plane from the shape of the hand, the touch position detected by the position detection means, and the display means Depending on the position of the UI component displayed by the event detection means for detecting a touch operation on the UI component, the hand region recognized by the gesture recognition means, and the touch operation detected by the event detection means And determining means for determining the operation content of the UI component.

本発明によれば、UI部品へのタッチ操作のみならず、タッチ時の手の形状も操作内容の判定に用いるために、従来よりも操作性が向上し、多種多様な入力操作が可能になる。   According to the present invention, not only the touch operation to the UI component but also the shape of the hand at the time of touch is used for the determination of the operation content. .

入力システムの全体構成図。1 is an overall configuration diagram of an input system. (a)〜(c)はカメラスキャナの説明図。(A)-(c) is explanatory drawing of a camera scanner. コントローラ部のハードウェア構成例示図。The hardware configuration example figure of a controller part. 機能モジュール群の構成例示図。The structural example figure of a functional module group. 距離画像取得部が実行する処理のフローチャート。The flowchart of the process which a distance image acquisition part performs. (a)〜(c)はパターン投射方式による距離画像の計測原理の説明図。(A)-(c) is explanatory drawing of the measurement principle of the distance image by a pattern projection system. ジェスチャー認識部の処理のフローチャート。The flowchart of the process of a gesture recognition part. (a)〜(d)は指先検出処理の概要の説明図。(A)-(d) is explanatory drawing of the outline | summary of a fingertip detection process. タッチパネルイベント検知部の処理のフローチャート。The flowchart of the process of a touchscreen event detection part. タッチパネルイベントの制御処理のフローチャート。The flowchart of the control process of a touch panel event. (a)、(b)はメイン制御部からユーザインタフェース部への通知の説明図。(A), (b) is explanatory drawing of the notification from a main control part to a user interface part. (a)〜(c)はタッチパネルイベント検知部がマルチタッチイベントを検知する場合の模式図(A)-(c) is a schematic diagram in case a touch panel event detection part detects a multi-touch event. タッチパネルイベントの制御処理のフローチャート。The flowchart of the control process of a touch panel event. 手領域とタッチ点との関係を示す模式図。The schematic diagram which shows the relationship between a hand area | region and a touch point. タッチパネルイベントの制御処理のフローチャート。The flowchart of the control process of a touch panel event. 手領域とタッチ点との関係を示す模式図。The schematic diagram which shows the relationship between a hand area | region and a touch point. タッチパネルイベントの制御処理のフローチャート。The flowchart of the control process of a touch panel event. ユーザによる操作を示す模式図。The schematic diagram which shows operation by a user.

以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the present invention according to the claims, and all combinations of features described in the embodiments are not necessarily essential to the solution means of the present invention. .

[第1実施形態]
図1は、本実施形態の入力システムの全体構成図である。この入力システムは、イーサネット等のネットワーク104を介して通信可能に接続された、カメラスキャナ101、ホストコンピュータ102、及びプリンタ103を含む。
この入力システムでは、ホストコンピュータ102からの指示により、カメラスキャナ101から画像を読み取るスキャン機能、スキャンデータをプリンタ103により出力するプリント機能などの実行が可能となる。また、ホストコンピュータ102を介さず、カメラスキャナ101への直接の指示により、スキャン機能、プリント機能の実行も可能である。
[First Embodiment]
FIG. 1 is an overall configuration diagram of an input system according to this embodiment. This input system includes a camera scanner 101, a host computer 102, and a printer 103, which are communicably connected via a network 104 such as Ethernet.
This input system can execute a scan function for reading an image from the camera scanner 101 and a print function for outputting scan data by the printer 103 according to an instruction from the host computer 102. Further, it is possible to execute a scan function and a print function by direct instructions to the camera scanner 101 without using the host computer 102.

<カメラスキャナの構成>
図2は、カメラスキャナ101の説明図である。カメラスキャナ101の全体構成図を図2(a)に示す。図示のように、カメラスキャナ101は、コントローラ部201、カメラ部202、腕部203、短焦点のプロジェクタ207、距離画像センサ部208を含んで構成される。
コントローラ部201、カメラ部202、プロジェクタ207及び距離画像センサ部208は、腕部203により連結されている。腕部203は、関節を用いて曲げ伸ばしが可能なものである。距離画像センサ部208は、物体(図示の例では原稿206)までの距離を非接触で測定するセンサであり、物体を指向するレンズを有する。カメラスキャナ101は、操作平面204に設置される。カメラ部202及び距離画像センサ部208のレンズは、この操作平面204方向に向けられており、破線で囲まれた読み取り領域205内の画像を読み取り可能である。図示の例では、原稿206が読み取り領域205内に置かれている。そのためにカメラスキャナ101は、原稿206を読み取り可能となっている。
<Configuration of camera scanner>
FIG. 2 is an explanatory diagram of the camera scanner 101. An overall configuration diagram of the camera scanner 101 is shown in FIG. As illustrated, the camera scanner 101 includes a controller unit 201, a camera unit 202, an arm unit 203, a short focus projector 207, and a distance image sensor unit 208.
The controller unit 201, the camera unit 202, the projector 207, and the distance image sensor unit 208 are connected by an arm unit 203. The arm part 203 can be bent and stretched using a joint. The distance image sensor unit 208 is a sensor that measures the distance to an object (document 206 in the illustrated example) in a non-contact manner, and includes a lens that points to the object. The camera scanner 101 is installed on the operation plane 204. The lenses of the camera unit 202 and the distance image sensor unit 208 are directed in the direction of the operation plane 204, and can read an image in the reading area 205 surrounded by a broken line. In the illustrated example, the document 206 is placed in the reading area 205. Therefore, the camera scanner 101 can read the document 206.

操作平面204には、ターンテーブル209も設けられている。ターンテーブル209は、コントローラ部201からの指示によって回転することができる。つまり、ターンテーブル209上に置かれた物体とカメラ部202との角度を任意に変えることができる。カメラ部202は、単一解像度で画像を撮像するものとしてもよいが、高解像度画像撮像と低解像度画像撮像が可能なものとすることが好ましい。   A turntable 209 is also provided on the operation plane 204. The turntable 209 can be rotated by an instruction from the controller unit 201. That is, the angle between the object placed on the turntable 209 and the camera unit 202 can be arbitrarily changed. The camera unit 202 may capture an image with a single resolution, but it is preferable that the camera unit 202 can capture a high-resolution image and a low-resolution image.

操作平面204内にはタッチパネル330が設けられる。タッチパネル330は、ユーザが手で触れたり、スタイラスペンで圧力を加える等により、触れられた位置の情報を感知して情報信号として出力する位置検出装置である。図2には示されていないが、カメラスキャナ101は、スピーカをさらに含んでもよい。さらに、周囲の環境情報を収集するための人感センサ、照度センサ、加速度センサなどの各種センサデバイスを含んでもよい。   A touch panel 330 is provided in the operation plane 204. The touch panel 330 is a position detection device that senses information on a touched position and outputs it as an information signal when the user touches it with a hand or applies pressure with a stylus pen. Although not shown in FIG. 2, the camera scanner 101 may further include a speaker. Furthermore, various sensor devices such as a human sensor, an illuminance sensor, and an acceleration sensor for collecting surrounding environmental information may be included.

図2(b)は、カメラスキャナ101における座標系の説明図である。カメラスキャナ101では、各ハードウェアデバイスに対して、カメラ座標系、距離画像センサ座標系、プロジェクタ座標系という座標系が定義される。これらの座標系は、カメラ部202及び距離画像センサ部208のRGBカメラ363が撮像する画像平面、あるいはプロジェクタ207が投影する画像平面をXY平面とする。そして、画像平面に直交した方向をZ方向として定義したものである。また、これらの独立した座標系の3次元データを統一的に扱えるようにするため、操作平面204を含む平面をXY平面とし、このXY平面から上方に垂直な向きをZ軸とする直交座標系を定義する。   FIG. 2B is an explanatory diagram of a coordinate system in the camera scanner 101. In the camera scanner 101, coordinate systems such as a camera coordinate system, a distance image sensor coordinate system, and a projector coordinate system are defined for each hardware device. In these coordinate systems, an image plane captured by the RGB camera 363 of the camera unit 202 and the distance image sensor unit 208 or an image plane projected by the projector 207 is an XY plane. The direction orthogonal to the image plane is defined as the Z direction. Further, in order to be able to handle the three-dimensional data of these independent coordinate systems in a unified manner, an orthogonal coordinate system in which a plane including the operation plane 204 is an XY plane and a direction perpendicular to the XY plane is a Z axis. Define

座標系を変換する場合の例として、図2(c)に直交座標系と、カメラ部202を中心としたカメラ座標系を用いて表現された空間と、カメラ部202が撮像する画像平面との関係を示す。直交座標系における3次元点P[X,Y,Z]は、(1)式によって、カメラ座標系における3次元点Pc[Xc,Yc,Zc]へ変換できる。   As an example of transforming the coordinate system, FIG. 2C illustrates a rectangular coordinate system, a space expressed using a camera coordinate system centered on the camera unit 202, and an image plane captured by the camera unit 202. Show the relationship. The three-dimensional point P [X, Y, Z] in the orthogonal coordinate system can be converted to the three-dimensional point Pc [Xc, Yc, Zc] in the camera coordinate system by the equation (1).

ここで、Rc及びtcは、直交座標系に対するカメラ部202の姿勢(回転)と位置(並進)によって求まる外部パラメータによって構成される。Rcを3×3の回転行列、tcを並進ベクトルと呼ぶ。逆に、カメラ座標系で定義された3次元点は、(2)式によって、直交座標系へ変換することができる。   Here, Rc and tc are configured by external parameters determined by the posture (rotation) and position (translation) of the camera unit 202 with respect to the orthogonal coordinate system. Rc is called a 3 × 3 rotation matrix, and tc is called a translation vector. Conversely, a three-dimensional point defined in the camera coordinate system can be converted into an orthogonal coordinate system by equation (2).

カメラ部202で撮影される2次元のカメラ画像平面は、カメラ部202によって3次元空間中の3次元情報が2次元情報に変換されたものである。すなわち、カメラ座標系上での3次元点Pc[Xc,Yc,Zc]を、(3)式によってカメラ画像平面での2次元座標pc[xp,yp]に透視投影変換することによって変換することができる。   The two-dimensional camera image plane photographed by the camera unit 202 is obtained by converting the three-dimensional information in the three-dimensional space into two-dimensional information by the camera unit 202. That is, the three-dimensional point Pc [Xc, Yc, Zc] on the camera coordinate system is converted by perspective projection conversion to the two-dimensional coordinate pc [xp, yp] on the camera image plane according to the equation (3). Can do.

ここで、Aは、カメラの内部パラメータと呼ばれ、焦点距離と画像中心などで表現される3×3の行列である。   Here, A is a 3 × 3 matrix called an internal parameter of the camera and expressed by a focal length and an image center.

以上のように、(1)式と(3)式とを用いることで、直交座標系で表された3次元点群を、カメラ座標系での3次元点群座標やカメラ画像平面に変換することができる。
なお、各ハードウェアデバイスの内部パラメータ及び直交座標系に対する位置姿勢(外部パラメータ)は、公知のキャリブレーション手法により、あらかじめキャリブレーションされているものとする。以後、特に断りがなく3次元点群と表記した場合は、直交座標系における3次元データを表しているものとする。
As described above, by using the expressions (1) and (3), the three-dimensional point group represented by the orthogonal coordinate system is converted into the three-dimensional point group coordinates and the camera image plane in the camera coordinate system. be able to.
It is assumed that the internal parameters of each hardware device and the position and orientation (external parameters) with respect to the orthogonal coordinate system are calibrated in advance by a known calibration method. Hereinafter, when there is no particular notice and it is expressed as a three-dimensional point group, it represents three-dimensional data in an orthogonal coordinate system.

<コントローラ部の構成例>
図3は、カメラスキャナ101の本体であるコントローラ部201のハードウェア構成例を示す図である。コントローラ部201は、システムバス301に様々な機能部品を接続して構成される。機能部品は、CPU302、RAM303、ROM304、HDD305を基本構成とするコンピュータを含む。CPU(Central Processing Unit)302は、カメラスキャナ101の制御用プログラムを実行することにより、コントローラ部201の全体動作を制御する。つまり、制御用プログラムは、コンピュータをコントローラ部201ないしカメラスキャナ101として動作させるためのものである。
RAM(Random Access Memory)303は、揮発性の書き換え可能な記憶媒体であり、CPU302のワークエリアとして機能する。ROM(Read Only Memory)304は、書き換え不能な記憶媒体であり、CPU302の起動用プログラムが格納されている。HDD305は、RAM303と比較して大容量なハードディスクドライブ(HDD)である。HDD305にはコントローラ部201の実行する、カメラスキャナ101の制御用プログラムが格納されている。
<Configuration example of controller unit>
FIG. 3 is a diagram illustrating a hardware configuration example of the controller unit 201 which is the main body of the camera scanner 101. The controller unit 201 is configured by connecting various functional components to the system bus 301. The functional components include a computer having a CPU 302, a RAM 303, a ROM 304, and an HDD 305 as basic components. A CPU (Central Processing Unit) 302 controls the overall operation of the controller unit 201 by executing a control program for the camera scanner 101. That is, the control program is for operating the computer as the controller unit 201 or the camera scanner 101.
A RAM (Random Access Memory) 303 is a volatile rewritable storage medium and functions as a work area of the CPU 302. A ROM (Read Only Memory) 304 is a non-rewritable storage medium, and stores a startup program for the CPU 302. The HDD 305 is a hard disk drive (HDD) having a larger capacity than the RAM 303. The HDD 305 stores a control program for the camera scanner 101 executed by the controller unit 201.

システムバス301に接続される機能部品には、ネットワークI/F(I/Fはインタフェースの略、以下同じ)306、画像処理プロセッサ307、カメラI/F308も含まれる。さらに、ディスプレイコントローラ309、シリアルI/F310、オーディオコントローラ311及びUSB(Universal Serial Bus)コントローラ312も機能部品に含まれる。   Functional components connected to the system bus 301 include a network I / F (I / F is an abbreviation of an interface, the same applies hereinafter) 306, an image processor 307, and a camera I / F 308. Furthermore, a display controller 309, a serial I / F 310, an audio controller 311 and a USB (Universal Serial Bus) controller 312 are also included in the functional components.

CPU302は、カメラスキャナ101が電源ON等によって起動されると、ROM304に格納されている起動用プログラムを実行する。この起動用プログラムは、HDD305に格納されている制御用プログラムを読み出し、RAM303上に展開するためのものである。CPU302は、起動用プログラムを実行すると、続けてRAM303上に展開した制御用プログラムを実行し、制御を行う。
CPU302は、また、制御用プログラムによる動作に用いるデータもRAM303上に格納して読み書きを行う。HDD305上には、さらに、制御用プログラムによる動作に必要な各種設定や、また、カメラ入力によって生成した画像データを格納することができ、CPU302によって読み書きされる。CPU302は、ネットワークI/F306を介してネットワーク104上の他の機器との通信を行う。
When the camera scanner 101 is activated by turning on the power or the like, the CPU 302 executes the activation program stored in the ROM 304. This activation program is for reading a control program stored in the HDD 305 and developing it on the RAM 303. When executing the startup program, the CPU 302 executes the control program developed on the RAM 303 and performs control.
The CPU 302 also stores data used for the operation by the control program on the RAM 303 to read / write. Various settings necessary for operation by the control program and image data generated by camera input can be further stored on the HDD 305 and read / written by the CPU 302. The CPU 302 communicates with other devices on the network 104 via the network I / F 306.

画像処理プロセッサ307は、RAM303に格納された画像データを読み出して所要の画像処理を行い、処理結果をRAM303へ書き戻す。なお、画像処理プロセッサ307が実行する画像処理は、回転、変倍、色変換等である。
カメラI/F308はカメラ部202及び距離画像センサ部208に接続され、CPU302からの指示に応じてカメラ部202から画像データを、距離画像センサ部208から距離画像データを取得してRAM303に書き込む。また、CPU302からの制御コマンドをカメラ部202及び距離画像センサ部208へ送信し、カメラ部202及び距離画像センサ部208の設定を行う。距離画像センサ部208は、赤外線によるパターン画像を投射する赤外線パターン投射部361、可視画像を撮影するRGBカメラ363、及び赤外線画像を撮影する赤外線カメラ362を備える。
The image processor 307 reads the image data stored in the RAM 303, performs necessary image processing, and writes the processing result back to the RAM 303. Note that image processing executed by the image processor 307 includes rotation, scaling, color conversion, and the like.
The camera I / F 308 is connected to the camera unit 202 and the distance image sensor unit 208, and acquires image data from the camera unit 202 and distance image data from the distance image sensor unit 208 in accordance with an instruction from the CPU 302, and writes the acquired image data into the RAM 303. In addition, a control command from the CPU 302 is transmitted to the camera unit 202 and the distance image sensor unit 208 to set the camera unit 202 and the distance image sensor unit 208. The distance image sensor unit 208 includes an infrared pattern projection unit 361 that projects an infrared pattern image, an RGB camera 363 that captures a visible image, and an infrared camera 362 that captures an infrared image.

コントローラ部201は、ディスプレイコントローラ309、シリアルI/F310、オーディオコントローラ311及びUSBコントローラ312のうち少なくとも1つをさらに含むことができる。ディスプレイコントローラ309は、CPU302の指示に応じてディスプレイへの画像の表示を制御する。ディスプレイコントローラ309は、短焦点のプロジェクタ207及びタッチパネル330に接続されている。   The controller unit 201 can further include at least one of a display controller 309, a serial I / F 310, an audio controller 311, and a USB controller 312. A display controller 309 controls display of an image on the display in accordance with an instruction from the CPU 302. The display controller 309 is connected to the short-focus projector 207 and the touch panel 330.

シリアルI/F310は、シリアル信号の入出力を行う。本例では、シリアルI/F310は、ターンテーブル209と接続される。そして、CPU302の回転開始・終了及び回転角度の指示をターンテーブル209へ送信する。シリアルI/F310は、また、タッチパネル330に接続される。CPU302は、タッチパネル330が押下されたときに、シリアルI/F310を介して押下された座標(位置)を取得する。また、CPU302は、シリアルI/F310を介してタッチパネル330が接続されているか否かの判断を行う。   The serial I / F 310 inputs and outputs serial signals. In this example, the serial I / F 310 is connected to the turntable 209. Then, the CPU 302 transmits the rotation start / end and rotation angle instructions to the turntable 209. The serial I / F 310 is also connected to the touch panel 330. The CPU 302 acquires the coordinates (position) pressed via the serial I / F 310 when the touch panel 330 is pressed. Further, the CPU 302 determines whether or not the touch panel 330 is connected via the serial I / F 310.

オーディオコントローラ311は、スピーカ340に接続される。オーディオコントローラ311は、CPU302の指示に応じて音声データをアナログ音声信号に変換し、スピーカ340を通じて音声を出力する。USBコントローラ312は、CPU302の指示に応じて外付けのUSBデバイスの制御を行う。本例では、USBコントローラ312は、USBメモリやSDカードなどの外部メモリ350に接続され、外部メモリ350へのデータの読み書きを行う。   The audio controller 311 is connected to the speaker 340. The audio controller 311 converts audio data into an analog audio signal in accordance with an instruction from the CPU 302 and outputs audio through the speaker 340. The USB controller 312 controls an external USB device in accordance with an instruction from the CPU 302. In this example, the USB controller 312 is connected to an external memory 350 such as a USB memory or an SD card, and reads / writes data from / to the external memory 350.

<カメラスキャナの機能構成例>
図4は、CPU302が制御用プログラムを実行することによりコントローラ部201に形成される機能モジュール群401の構成の例示図である。制御用プログラムは、前述のようにHDD305に格納され、CPU302が起動したときにRAM303上に展開される。機能モジュール群401のうち、メイン制御部402は制御の中心であり、コントローラ部201を制御する。
<Functional configuration example of camera scanner>
FIG. 4 is an exemplary diagram of a configuration of a functional module group 401 formed in the controller unit 201 when the CPU 302 executes a control program. The control program is stored in the HDD 305 as described above, and is expanded on the RAM 303 when the CPU 302 is activated. Of the functional module group 401, the main control unit 402 is the center of control and controls the controller unit 201.

画像取得部416は、画像入力処理を行うモジュールであり、カメラ画像取得部407、距離画像取得部408を有している。カメラ画像取得部407は、カメラI/F308を介してカメラ部202が出力する画像を取得し、これをRAM303へ格納する。距離画像取得部408は、カメラI/F308を介して距離画像センサ部208が出力する距離画像を取得し、これをRAM303へ格納する。距離画像取得部408の処理の詳細については後述する。   The image acquisition unit 416 is a module that performs image input processing, and includes a camera image acquisition unit 407 and a distance image acquisition unit 408. The camera image acquisition unit 407 acquires an image output from the camera unit 202 via the camera I / F 308 and stores it in the RAM 303. The distance image acquisition unit 408 acquires the distance image output from the distance image sensor unit 208 via the camera I / F 308 and stores it in the RAM 303. Details of the processing of the distance image acquisition unit 408 will be described later.

認識処理部417は、カメラ画像取得部407及び距離画像取得部408が取得する画像(画像データ)から操作平面204上の物体の動きを検知して認識する。そのために認識処理部417は、ジェスチャー認識部409、物体検知部410およびタッチパネルイベント検知部420を有している。
ジェスチャー認識部409は、画像取得部416から操作平面204上の画像を連続して取得し、取得した画像からタッチなどのジェスチャーを認識する。ジェスチャー認識部409は、ジェスチャーを認識するとメイン制御部402に通知する。ジェスチャー認識部409の処理の詳細については後述する。
物体検知部410は、画像取得部416から操作平面204を撮像した画像を取得し、操作平面204上に物体が置かれるタイミング、物体が置かれて静止するタイミング、あるいは物体が取り除かれるタイミングを検知する処理を行う。
タッチパネルイベント検知部420は、ユーザが指やペン等の指示体でタッチパネル330に接触した際に、シリアルI/F310を介して指示体が接触した位置を表すタッチ座標を取得する。タッチパネルイベント検知部420は、取得したタッチ座標情報をタッチパネルイベントとしてメイン制御部402に通知する。なお、以下の説明は指示体として指を例にして行う。
The recognition processing unit 417 detects and recognizes the movement of an object on the operation plane 204 from images (image data) acquired by the camera image acquisition unit 407 and the distance image acquisition unit 408. For this purpose, the recognition processing unit 417 includes a gesture recognition unit 409, an object detection unit 410, and a touch panel event detection unit 420.
The gesture recognition unit 409 continuously acquires images on the operation plane 204 from the image acquisition unit 416, and recognizes a gesture such as touch from the acquired images. When the gesture recognition unit 409 recognizes the gesture, the gesture recognition unit 409 notifies the main control unit 402. Details of the processing of the gesture recognition unit 409 will be described later.
The object detection unit 410 acquires an image obtained by imaging the operation plane 204 from the image acquisition unit 416, and detects when the object is placed on the operation plane 204, when the object is placed and stopped, or when the object is removed. Perform the process.
When the user touches the touch panel 330 with an indicator such as a finger or a pen, the touch panel event detection unit 420 acquires touch coordinates representing a position where the indicator contacts via the serial I / F 310. The touch panel event detection unit 420 notifies the main control unit 402 of the acquired touch coordinate information as a touch panel event. In the following description, a finger is used as an indicator.

画像処理部418は、カメラ部202および距離画像センサ部208から取得した画像を画像処理プロセッサ307で解析するための処理を行う。ジェスチャー認識部409、物体検知部410、タッチパネルイベント検知部420は、画像処理部418の処理結果を利用して処理を行う。   The image processing unit 418 performs processing for analyzing images acquired from the camera unit 202 and the distance image sensor unit 208 by the image processing processor 307. The gesture recognition unit 409, the object detection unit 410, and the touch panel event detection unit 420 perform processing using the processing result of the image processing unit 418.

ユーザインタフェース部403は、メイン制御部402からの要求を受け付けて、メッセージやボタン等のUI部品を生成する。ユーザインタフェース部403は、生成したUI部品の表示を表示部406に要求する。表示部406はディスプレイコントローラ309を介して、プロジェクタ207により、要求されたUI部品を表示する。プロジェクタ207は操作平面204に向けて設置されているため、操作平面204上にUI部品を投射することが可能となっている。また、ユーザインタフェース部403は、ジェスチャー認識部409が認識したタッチ等のジェスチャー操作、あるいはタッチパネルイベント検知部420が検知したタッチ操作、それらの座標を、メイン制御部402経由で受信する。ユーザインタフェース部403は表示中の画面(操作画面)の内容と操作座標とを対応させて操作内容(押下されたボタン等)を判定する。メイン制御部402は、この操作内容をユーザインタフェース部403から取得することにより、ユーザの操作を受け付ける。   The user interface unit 403 receives a request from the main control unit 402 and generates a UI component such as a message or a button. The user interface unit 403 requests the display unit 406 to display the generated UI component. The display unit 406 displays the requested UI component by the projector 207 via the display controller 309. Since the projector 207 is installed toward the operation plane 204, it is possible to project UI parts on the operation plane 204. Further, the user interface unit 403 receives a gesture operation such as a touch recognized by the gesture recognition unit 409, a touch operation detected by the touch panel event detection unit 420, and coordinates thereof via the main control unit 402. The user interface unit 403 determines the operation content (such as a pressed button) by associating the content of the screen (operation screen) being displayed with the operation coordinates. The main control unit 402 receives a user operation by acquiring the operation content from the user interface unit 403.

ネットワーク通信部404は、ネットワークI/F306を介して、ネットワーク104上の他の機器とTCP/IPによる通信を行う。データ管理部405は、機能モジュール群401の動作時に生成された作業データを含む様々なデータをHDD305上の所定の領域へ保存し、管理する。   The network communication unit 404 communicates with other devices on the network 104 by TCP / IP via the network I / F 306. The data management unit 405 stores and manages various data including work data generated during the operation of the functional module group 401 in a predetermined area on the HDD 305.

<距離画像センサおよび距離画像取得部>
距離画像取得部408の動作を図5及び図6を参照して説明する。図5は距離画像取得部408が実行する処理のフローチャートである。図6(a)〜(c)はパターン投射方式による距離画像の計測原理の説明図である。距離画像センサ部208は赤外線によるパターン投射方式の距離画像センサである。
<Distance Image Sensor and Distance Image Acquisition Unit>
The operation of the distance image acquisition unit 408 will be described with reference to FIGS. FIG. 5 is a flowchart of processing executed by the distance image acquisition unit 408. FIGS. 6A to 6C are explanatory diagrams of the measurement principle of the distance image by the pattern projection method. The distance image sensor unit 208 is a pattern image type distance image sensor using infrared rays.

図5を参照し、距離画像取得部408は、処理を開始すると、図6(a)に示すように、赤外線パターン投射部361を用いて赤外線による3次元形状測定パターン522を対象物521に投射する(S501)。距離画像取得部408は、RGBカメラ363を用いて対象物521を撮影したRGBカメラ画像523及び、赤外線カメラ362を用いてS501で投射した3次元形状測定パターン522を撮影した赤外線カメラ画像524を取得する(S502)。   Referring to FIG. 5, when starting the processing, the distance image acquisition unit 408 projects a three-dimensional shape measurement pattern 522 using infrared rays onto the object 521 using an infrared pattern projection unit 361 as shown in FIG. (S501). The distance image acquisition unit 408 acquires an RGB camera image 523 obtained by photographing the object 521 using the RGB camera 363 and an infrared camera image 524 obtained by photographing the three-dimensional shape measurement pattern 522 projected in S501 using the infrared camera 362. (S502).

なお、赤外線カメラ362とRGBカメラ363とでは設置位置が異なる。つまり、図6(b)に示すように、それぞれで撮影されるRGBカメラ画像523及び赤外線カメラ画像524の撮影領域が異なる。そこで、距離画像取得部408は、赤外線カメラ362の座標系からRGBカメラ363の座標系への座標系変換を用いて赤外線カメラ画像524をRGBカメラ画像523の座標系に合わせる(S503)。赤外線カメラ362とRGBカメラ363の相対位置やそれぞれの内部パラメータは、事前のキャリブレーション処理により既知であるとする。   Note that the infrared camera 362 and the RGB camera 363 have different installation positions. That is, as shown in FIG. 6B, the shooting areas of the RGB camera image 523 and the infrared camera image 524 that are shot are different. Therefore, the distance image acquisition unit 408 matches the infrared camera image 524 to the coordinate system of the RGB camera image 523 using coordinate system conversion from the coordinate system of the infrared camera 362 to the coordinate system of the RGB camera 363 (S503). It is assumed that the relative positions of the infrared camera 362 and the RGB camera 363 and their internal parameters are known by a prior calibration process.

その後、距離画像取得部408は、図6(c)に示すように、3次元形状測定パターン522とS503で座標変換を行った赤外線カメラ画像524との間での対応点を抽出する(S504)。例えば、赤外線カメラ画像524上の1点を3次元形状測定パターン522上から探索し、同一の点が検出された場合に対応付けを行う。あるいは、赤外線カメラ画像524の画素の周辺のパターンを3次元形状測定パターン522上から探索し、一番類似度が高い部分と対応付けてもよい。   Thereafter, as shown in FIG. 6C, the distance image acquisition unit 408 extracts a corresponding point between the three-dimensional shape measurement pattern 522 and the infrared camera image 524 that has undergone coordinate transformation in S503 (S504). . For example, one point on the infrared camera image 524 is searched from the three-dimensional shape measurement pattern 522, and association is performed when the same point is detected. Alternatively, a pattern around the pixels of the infrared camera image 524 may be searched from the three-dimensional shape measurement pattern 522 and associated with a portion having the highest similarity.

対応点を抽出すると、距離画像取得部408は、赤外線パターン投射部361と赤外線カメラ362とを結ぶ直線を基線525として三角測量の原理を用いて計算を行うことにより、赤外線カメラ362からの距離を算出する(S505)。S504の処理で対応付けができた画素については、赤外線カメラ362からの距離を算出し、これを画素値として保存する。対応付けができなかった画素については、距離の計測ができなかった部分として無効値を保存する。これをS503で座標変換を行った赤外線カメラ画像524の全画素に対して行うことで、距離画像取得部408は、各画素に距離値が入った距離画像を生成する。   When the corresponding points are extracted, the distance image acquisition unit 408 calculates the distance from the infrared camera 362 by performing calculation using the principle of triangulation with the straight line connecting the infrared pattern projection unit 361 and the infrared camera 362 as the base line 525. Calculate (S505). For the pixels that can be associated in the process of S504, the distance from the infrared camera 362 is calculated and stored as a pixel value. For pixels that could not be associated, an invalid value is stored as the portion where the distance could not be measured. The distance image acquisition unit 408 generates a distance image in which each pixel has a distance value by performing this operation on all the pixels of the infrared camera image 524 that have undergone coordinate conversion in S503.

その後、距離画像取得部408は、距離画像の各画素にRGBカメラ画像523のRGB値を保存することにより、1画素につきR、G、B、距離の4つの値を持つ距離画像を生成する(S506)。ここで取得した距離画像は、距離画像センサ部208のRGBカメラ363で定義された距離画像センサ座標系が基準となっている。そこで、距離画像取得部408は、図2(b)に示したように、距離画像センサ座標系として得られた距離データを直交座標系における3次元点群に変換する(S507)。なお、以後、特に指定がなく3次元点群と表記した場合は、直交座標系における3次元点群を示すものとする。   Thereafter, the distance image acquisition unit 408 generates a distance image having four values of R, G, B, and distance for each pixel by storing the RGB values of the RGB camera image 523 in each pixel of the distance image ( S506). The distance image acquired here is based on the distance image sensor coordinate system defined by the RGB camera 363 of the distance image sensor unit 208. Therefore, as shown in FIG. 2B, the distance image acquisition unit 408 converts the distance data obtained as the distance image sensor coordinate system into a three-dimensional point group in the orthogonal coordinate system (S507). In the following description, unless otherwise specified, the term “three-dimensional point group” refers to a three-dimensional point group in an orthogonal coordinate system.

なお、第1実施形態では、距離画像センサ部208として赤外線パターン投射方式を採用しているが、他の方式の距離画像センサ部を用いることも可能である。例えば、2つのRGBカメラでステレオ立体視を行うステレオ方式や、レーザー光の飛行時間を検出することで距離を測定するTOF(Time of Flight)方式を用いても構わない。   In the first embodiment, an infrared pattern projection method is adopted as the distance image sensor unit 208, but a distance image sensor unit of another method can also be used. For example, a stereo system that performs stereo stereoscopic vision with two RGB cameras or a TOF (Time of Flight) system that measures distance by detecting the flight time of laser light may be used.

<ジェスチャー認識部>
ジェスチャー認識部409の処理の詳細を、図7のフローチャートを参照して説明する。図7において、ジェスチャー認識部409は、処理を開始すると、初期化処理を行う(S601)。すなわちジェスチャー認識部409は、距離画像取得部408から距離画像を1フレーム取得する。ジェスチャー認識部409は、動作開始時には操作平面204上に対象物が置かれていない状態なので、初期状態として操作平面204の平面の認識を行う。つまり、取得した距離画像から最も広い平面を抽出し、その位置と法線ベクトル(以降、操作平面204の平面パラメータと呼ぶ)を算出し、これをRAM303に保存する。
<Gesture recognition unit>
Details of the processing of the gesture recognition unit 409 will be described with reference to the flowchart of FIG. In FIG. 7, when the gesture recognition unit 409 starts the process, the gesture recognition unit 409 performs an initialization process (S601). That is, the gesture recognition unit 409 acquires one frame of the distance image from the distance image acquisition unit 408. The gesture recognizing unit 409 recognizes the plane of the operation plane 204 as an initial state because no object is placed on the operation plane 204 when the operation starts. That is, the widest plane is extracted from the acquired distance image, its position and normal vector (hereinafter referred to as plane parameters of the operation plane 204) are calculated, and stored in the RAM 303.

初期化処理を終えると、ジェスチャー認識部409は、操作平面204上に存在する物体の3次元点群を取得する(S602)。具体的には、ジェスチャー認識部409は、距離画像取得部408から距離画像と3次元点群を1フレーム取得する(S621)。また、ジェスチャー認識部409は、操作平面204の平面パラメータを用いて、取得した3次元点群から操作平面204を含む平面にある点群を除去する(S622)。その後、ジェスチャー認識部409は、取得した3次元点群からユーザの手の形状および指先を検出する、手形状及び指先検出処理を行う(S603)。より具体的には、S631〜S634の処理を実行する。   When the initialization process is completed, the gesture recognition unit 409 acquires a three-dimensional point group of an object existing on the operation plane 204 (S602). Specifically, the gesture recognition unit 409 acquires one frame of the distance image and the three-dimensional point group from the distance image acquisition unit 408 (S621). In addition, the gesture recognizing unit 409 removes the point group on the plane including the operation plane 204 from the acquired three-dimensional point group using the plane parameter of the operation plane 204 (S622). Thereafter, the gesture recognizing unit 409 performs a hand shape and fingertip detection process of detecting the shape and fingertip of the user's hand from the acquired three-dimensional point group (S603). More specifically, the process of S631-S634 is performed.

ここで、S631〜S634の指先検出処理の概要を図8を参照して説明する。ジェスチャー認識部409は、S602で取得した3次元点群から、操作平面204を含む平面から所定の高さ以上にある、肌色の3次元点群を抽出する。これにより、図8(a)に示す手の3次元点群661を抽出する(S631)。その後、ジェスチャー認識部409は、抽出した手の3次元点群661を、操作平面204の平面に投影した2次元画像662を生成し、その手の外形を検出する(S632)。そして、検出した手の外形から手重心座標を算出する。投影は、点群の各座標を、操作平面204の平面パラメータを用いて投影すればよい。また、図8(b)に示すように、投影した3次元点群から、xy座標の値だけを取り出すことにより、z軸方向から見た2次元画像を操作平面204上を占める手領域663として扱うことができる。このとき、手の3次元点群の各点が、操作平面204の平面に投影した手領域663の各座標のどれに対応するかを記憶しておく。   Here, an outline of the fingertip detection process in S631 to S634 will be described with reference to FIG. The gesture recognizing unit 409 extracts a skin-colored three-dimensional point group that is higher than a predetermined height from the plane including the operation plane 204 from the three-dimensional point group acquired in S602. Thereby, the three-dimensional point group 661 of the hand shown in FIG. 8A is extracted (S631). Thereafter, the gesture recognition unit 409 generates a two-dimensional image 662 obtained by projecting the extracted three-dimensional point group 661 of the hand onto the plane of the operation plane 204, and detects the outer shape of the hand (S632). Then, hand center-of-gravity coordinates are calculated from the detected outer shape of the hand. The projection may be performed by projecting the coordinates of the point group using the plane parameters of the operation plane 204. Further, as shown in FIG. 8B, by extracting only the value of the xy coordinates from the projected three-dimensional point group, a two-dimensional image viewed from the z-axis direction is taken as a hand region 663 that occupies the operation plane 204. Can be handled. At this time, it is stored which of the coordinates of the hand region 663 projected by each point of the three-dimensional point group of the hand onto the plane of the operation plane 204 is stored.

その後、ジェスチャー認識部409は、図8(c)に示すように、検出した手の外形上の各点について、その点での外形の曲率を算出し、算出した曲率が所定値より小さい点を指先として検出する(S633)。図8(c)は、外形の曲率から指先を検出する方法を模式的に表した図である。この図では、操作平面204の平面に投影された2次元画像(手領域663)の外形を表す点664の一部が示されている。
ここで、外形を表す点664のうち、隣り合う5個の点を含むように円を描くことを考える。円665、667が、その例である。このような円を、全ての外形の点に対して順に描き、その直径(例えば666、668)が所定の値より小さい(曲率が小さい)ことを以て、指先とする。この例では、隣り合う5個の点としたが、その数は限定されるものではない。また、ここでは曲率を用いたが、外形に対して楕円フィッティングを行うことで、指先を検出してもよい。
Thereafter, as shown in FIG. 8C, the gesture recognizing unit 409 calculates the curvature of the outer shape at each point on the detected outer shape of the hand, and calculates a point where the calculated curvature is smaller than a predetermined value. It is detected as a fingertip (S633). FIG. 8C is a diagram schematically showing a method for detecting a fingertip from the curvature of the outer shape. In this figure, a part of a point 664 representing the outer shape of the two-dimensional image (hand region 663) projected on the plane of the operation plane 204 is shown.
Here, it is considered that a circle is drawn so as to include five adjacent points among the points 664 representing the outer shape. Circles 665 and 667 are examples. Such a circle is drawn in order with respect to all the points of the outer shape, and its diameter (for example, 666, 668) is smaller than a predetermined value (curvature is small), and is used as a fingertip. In this example, five adjacent points are used, but the number is not limited. In addition, the curvature is used here, but the fingertip may be detected by performing elliptic fitting on the outer shape.

指先を検出すると、ジェスチャー認識部409は、検出した指先の個数及び各指先の座標を算出する(S634)。ジェスチャー認識部409は、操作平面204に投影した2次元画像の各点と、手の3次元点群の各点の対応関係を記憶しているため、各指先の3次元座標を得ることができる。   When the fingertip is detected, the gesture recognition unit 409 calculates the number of detected fingertips and the coordinates of each fingertip (S634). Since the gesture recognition unit 409 stores the correspondence between each point of the two-dimensional image projected on the operation plane 204 and each point of the three-dimensional point group of the hand, the gesture recognition unit 409 can obtain the three-dimensional coordinates of each fingertip. .

本例では、3次元点群から2次元画像に投影した画像から指先を検出する方法を説明したが、指先検出の対象とする画像は、これに限定されるものではない。例えば、距離画像の背景差分や、RGB画像の肌色領域から手の領域を抽出し、上述と同様の方法(外形の曲率計算等)で、手領域のうちの指先を検出してもよい。この場合、検出した指先の座標はRGB画像や距離画像といった、2次元画像上の座標であるため、その座標における距離画像の距離情報を用いて、直交座標系の3次元座標に変換する必要がある。このとき、指先点となる外形上の点ではなく、指先を検出するときに用いた、曲率円の中心を指先点としてもよい。   In this example, the method for detecting a fingertip from an image projected from a three-dimensional point group onto a two-dimensional image has been described, but the image to be detected by the fingertip is not limited to this. For example, a hand region may be extracted from a background difference of a distance image or a skin color region of an RGB image, and a fingertip in the hand region may be detected by a method similar to the above (external curvature calculation or the like). In this case, since the coordinates of the detected fingertip are coordinates on a two-dimensional image such as an RGB image or a distance image, it is necessary to convert the coordinate information into the three-dimensional coordinates of the orthogonal coordinate system using the distance information of the distance image at that coordinate. is there. At this time, the center of the curvature circle used when detecting the fingertip may be used as the fingertip point, instead of the point on the outer shape that becomes the fingertip point.

指先検出処理の後、ジェスチャー認識部409は、腕検出処理を行う(S606)。図8(d)は、腕検出処理について模式的に説明した図である。ジェスチャー認識部409は、S631で抽出した手領域の3次元点群661に接続する3次元点群を抽出して、腕の3次元点群669を検出する(S661)。ジェスチャー認識部409は、検出した腕の3次元点群669を操作平面204の平面に投影した腕領域670を算出する。ジェスチャー認識部409は、操作平面204の端部の辺と腕領域670とが交差する点の中心を、腕の操作平面204への侵入点671として、その座標を算出する(S662)。   After the fingertip detection process, the gesture recognition unit 409 performs an arm detection process (S606). FIG. 8D is a diagram schematically illustrating the arm detection process. The gesture recognizing unit 409 extracts a three-dimensional point group connected to the three-dimensional point group 661 of the hand region extracted in S631, and detects the three-dimensional point group 669 of the arm (S661). The gesture recognition unit 409 calculates an arm region 670 obtained by projecting the detected arm three-dimensional point group 669 onto the plane of the operation plane 204. The gesture recognizing unit 409 calculates the coordinates of the point where the edge of the operation plane 204 and the arm region 670 intersect as the entry point 671 of the arm operation plane 204 (S662).

ジェスチャー認識部409は、S634で算出した指先の座標(位置情報)およびS662で算出した侵入点671の座標(位置情報)をメイン制御部402に通知する(S607)。通知後にジェスチャー認識部409は、S602の処理へ戻って、ジェスチャー認識処理を繰り返し行う。以上の実施形態では一本指によるジェスチャー認識について説明したが、複数の指、複数の手、あるいは腕や体全体をジェスチャー認識の対象としてもよい。   The gesture recognition unit 409 notifies the main control unit 402 of the coordinates (position information) of the fingertip calculated in S634 and the coordinates (position information) of the intrusion point 671 calculated in S662 (S607). After the notification, the gesture recognition unit 409 returns to the process of S602 and repeats the gesture recognition process. In the above embodiment, the gesture recognition with one finger has been described. However, a plurality of fingers, a plurality of hands, an arm, or the entire body may be set as a target for gesture recognition.

<タッチパネルイベント検知部>
図9のフローチャートによりタッチパネルイベント検知部420の処理を説明する。タッチパネルイベント検知部420は、ユーザが指等でタッチパネル330に接触した際に、シリアルI/F310から指等が接触した位置を表す位置情報であるタッチ座標を取得する。
<Touch panel event detection unit>
The process of the touch panel event detection unit 420 will be described with reference to the flowchart of FIG. When the user touches the touch panel 330 with a finger or the like, the touch panel event detection unit 420 acquires touch coordinates that are position information indicating a position where the finger or the like has touched from the serial I / F 310.

タッチパネルイベント検知部420は、処理を開始すると、タッチ座標を取得したか否か確認する(S701)。タッチ座標を取得するまで、タッチパネルイベント検知部420は、タッチ座標の取得確認を繰り返す(S701:N)。タッチ座標を取得した場合(S701:Y)、タッチパネルイベント検知部420は、取得したタッチ座標をタッチパネルイベントとしてメイン制御部402に通知する(S702)。その後、タッチパネルイベント検知部420は、S701の処理に戻り、タッチ座標の取得確認を行う。このような処理を繰り返し行い、タッチパネルイベント検知部420は、タッチパネルイベントをメイン制御部402に通知し続ける。   When the process is started, the touch panel event detection unit 420 confirms whether or not the touch coordinates have been acquired (S701). Until the touch coordinates are acquired, the touch panel event detection unit 420 repeats the touch coordinate acquisition confirmation (S701: N). When the touch coordinates are acquired (S701: Y), the touch panel event detection unit 420 notifies the main control unit 402 of the acquired touch coordinates as a touch panel event (S702). After that, the touch panel event detection unit 420 returns to the processing of S701 and confirms acquisition of touch coordinates. By repeating such processing, the touch panel event detection unit 420 continues to notify the main control unit 402 of touch panel events.

<メイン制御部>
メイン制御部402は、タッチパネルイベント検知部420から通知されるタッチパネルイベントに応じた処理を行う。図10は、メイン制御部402によるタッチパネルイベントの制御処理のフローチャートである。
<Main control unit>
The main control unit 402 performs processing according to the touch panel event notified from the touch panel event detection unit 420. FIG. 10 is a flowchart of touch panel event control processing by the main control unit 402.

メイン制御部402は、処理を開始すると、ジェスチャー認識部409に対して処理開始指示を行う(S801)。ジェスチャー認識部409は、この指示に応じて、上述の図7の処理を行う。また、メイン制御部402は、タッチパネルイベント検知部420に対して処理開始の指示を行う(S802)。タッチパネルイベント検知部420は、この指示に応じて、上述の図9の処理を行う。   When starting the processing, the main control unit 402 instructs the gesture recognition unit 409 to start processing (S801). In response to this instruction, the gesture recognition unit 409 performs the above-described processing of FIG. In addition, the main control unit 402 instructs the touch panel event detection unit 420 to start processing (S802). The touch panel event detection unit 420 performs the above-described processing of FIG. 9 in response to this instruction.

メイン制御部402は、ジェスチャー認識部409からのタッチイベントの通知の有無を確認する(S803)。メイン制御部402は、通知があるまで、タッチイベントの通知の有無を確認する(S803:N)。タッチイベントの通知が有る場合(S803:Y)、メイン制御部402は、シングルタッチ処理を行う(S804)。   The main control unit 402 confirms whether or not there is a touch event notification from the gesture recognition unit 409 (S803). The main control unit 402 confirms the presence / absence of a touch event notification until notified (S803: N). When there is a touch event notification (S803: Y), the main control unit 402 performs a single touch process (S804).

シングルタッチ処理では、メイン制御部402は、まずジェスチャー認識部409が検知した指の本数を取得する(S811)。メイン制御部402は、ジェスチャー認識部409が検知した指の本数が1本であるかを判断する(S812)。検知した指の本数が1本である場合(S812:Y)、メイン制御部402は、指差し姿勢タッチイベントをユーザインタフェース部403へ通知する(S813)。検知した指の本数が1本ではない場合(S812:N)、メイン制御部402は、指差し姿勢ではないタッチイベントをユーザインタフェース部403へ通知する(S814)。ユーザインタフェース部403への通知を行ったメイン制御部402は、S803へ戻り、ジェスチャー認識部409からのタッチイベントの通知を待機する。   In the single touch process, the main control unit 402 first acquires the number of fingers detected by the gesture recognition unit 409 (S811). The main control unit 402 determines whether the number of fingers detected by the gesture recognition unit 409 is 1 (S812). When the number of detected fingers is one (S812: Y), the main control unit 402 notifies the user interface unit 403 of a pointing posture touch event (S813). When the number of detected fingers is not one (S812: N), the main control unit 402 notifies the user interface unit 403 of a touch event that is not a pointing posture (S814). The main control unit 402 that has notified the user interface unit 403 returns to S803 and waits for a touch event notification from the gesture recognition unit 409.

図11は、メイン制御部402からユーザインタフェース部403への通知の説明図である。   FIG. 11 is an explanatory diagram of notification from the main control unit 402 to the user interface unit 403.

図11(a)は、S813の指差し姿勢タッチイベントをユーザインタフェース部403へ通知する処理の説明図である。ユーザインタフェース部403は、操作平面204上にUI部品801を投影している。タッチ点803は、タッチパネルイベント検知部420が検知した操作平面204上の指の接触位置である。手領域802は、ジェスチャー認識部409が認識したユーザの手の領域である。ジェスチャー認識部409は、図7のS633の処理により1本の指先804を検出する。
このように、ジェスチャー認識部409が検出する指先が1本であるため、メイン制御部402は指差し姿勢でのタッチであることをユーザインタフェース部403へ通知する。ユーザインタフェース部403は、UI部品801がタッチ点803でタッチされたことだけでなく、それが指差し姿勢でタッチされたことが利用できるため、それらに応じた処理を実行することができる。
FIG. 11A is an explanatory diagram of processing for notifying the user interface unit 403 of the pointing posture touch event in S813. The user interface unit 403 projects a UI component 801 on the operation plane 204. A touch point 803 is a finger contact position on the operation plane 204 detected by the touch panel event detection unit 420. A hand region 802 is a user hand region recognized by the gesture recognition unit 409. The gesture recognition unit 409 detects one fingertip 804 by the process of S633 in FIG.
Thus, since the gesture recognition unit 409 detects one fingertip, the main control unit 402 notifies the user interface unit 403 that the touch is in the pointing posture. The user interface unit 403 can use not only that the UI component 801 has been touched at the touch point 803 but also that the UI component 801 has been touched with the pointing posture, and therefore can perform processing according to them.

図11(b)は、S814の指差し姿勢ではないタッチイベントをユーザインタフェース部403へ通知する処理の説明図である。タッチ点805は、タッチパネルイベント検知部420が検知した操作平面204上の指の接触位置である。手領域806は、ジェスチャー認識部409が認識した手の領域である。ジェスチャー認識部409は、図7のS633の処理により5本の指先807〜811を検出する。
このように、ジェスチャー認識部409が検出する指先が1本以上であるため、メイン制御部402は指差し姿勢ではない姿勢でのタッチであることをユーザインタフェース部403へ通知する。ユーザインタフェース部403は、UI部品801がタッチ点805でタッチされたことだけでなく、それが指差し姿勢ではない姿勢でタッチされたことが利用できるため、それらに応じた処理を実行することができる。
FIG. 11B is an explanatory diagram of processing for notifying the user interface unit 403 of a touch event that is not the pointing posture in S814. A touch point 805 is a finger contact position on the operation plane 204 detected by the touch panel event detection unit 420. A hand region 806 is a hand region recognized by the gesture recognition unit 409. The gesture recognizing unit 409 detects five fingertips 807 to 811 by the process of S633 in FIG.
Thus, since the gesture recognizing unit 409 detects one or more fingertips, the main control unit 402 notifies the user interface unit 403 that the touch is in a posture other than the pointing posture. The user interface unit 403 can use not only that the UI component 801 is touched at the touch point 805 but also that the UI component 801 is touched in a posture that is not a pointing posture, and can execute processing according to them. it can.

このようにユーザインタフェース部403は、UI部品801がタッチされた際に指差し姿勢であるか否かを判別できるために、指差し姿勢であるか否かに応じて操作内容を判定し、操作内容に応じて異なる処理を行うことができる。例えば指差し姿勢でタッチ操作が行われたと判別した場合にUI部品801上に線の描画処理を行い、指差し姿勢でない姿勢でタッチ操作が行われたと判別した場合にUI部品801の内部画像をスクロールする、といった別の処理を行うことが可能である。各処理は、メイン制御部402が表示するUI部品毎にユーザインタフェース部403へ予め登録しておく。   As described above, the user interface unit 403 can determine whether or not the user is in the pointing posture when the UI component 801 is touched. Different processes can be performed depending on the contents. For example, a line drawing process is performed on the UI component 801 when it is determined that a touch operation is performed with a pointing posture, and an internal image of the UI component 801 is displayed when it is determined that a touch operation is performed with a posture that is not a pointing posture. It is possible to perform another process such as scrolling. Each process is registered in advance in the user interface unit 403 for each UI component displayed by the main control unit 402.

以上のような入力システムは、タッチパネルイベント検知部420が検知したタッチ点以外に、ジェスチャー認識部409が検知した手の姿勢をUI部品の操作に用いるために、ユーザの操作性を高め、従来よりも多種多様な入力操作が可能となる。本実施形態ではユーザがタッチしたときの指差し姿勢に応じてUI部品への操作を切り替える例を説明したが、ジェスチャー認識部409が検出する手の姿勢はこれに限らない。例えば指を2本立てた姿勢と1本立てた姿勢とでUI部品の操作を切り替えてもよい。また、ジェスチャー認識部409は、検知した指先の本数により手の姿勢を判別する他に、手の3次元点群から手の骨格モデルを算出し、算出した骨格モデルから手の姿勢を判別してもよい。   In addition to the touch point detected by the touch panel event detection unit 420, the input system as described above improves the user operability in order to use the posture of the hand detected by the gesture recognition unit 409 for UI component operation. A wide variety of input operations are possible. In this embodiment, the example in which the operation to the UI component is switched according to the pointing posture when the user touches has been described. However, the posture of the hand detected by the gesture recognition unit 409 is not limited to this. For example, the UI component operation may be switched between a posture with two fingers and a posture with one finger. In addition to determining the hand posture based on the number of detected fingertips, the gesture recognizing unit 409 calculates a hand skeleton model from the three-dimensional point cloud of the hand, and determines the hand posture from the calculated skeleton model. Also good.

[第2実施形態]
第1実施形態では、ユーザが操作平面204上を1点だけタッチするシングルタッチをタッチパネルイベント検知部420が検知する場合の処理を説明した。第2実施形態では、ユーザが操作平面204上を2点タッチするマルチタッチをタッチパネルイベント検知部420が検知する場合の処理について説明する。入力システムの構成は第1実施形態と同様であるため説明を省略する。
[Second Embodiment]
In 1st Embodiment, the process in case the touch panel event detection part 420 detects the single touch in which a user touches only one point on the operation plane 204 was demonstrated. In the second embodiment, a process when the touch panel event detection unit 420 detects multi-touch in which the user touches two points on the operation plane 204 will be described. Since the configuration of the input system is the same as that of the first embodiment, description thereof is omitted.

図12は、タッチパネルイベント検知部420がマルチタッチイベントを検知する場合の模式図である。   FIG. 12 is a schematic diagram when the touch panel event detection unit 420 detects a multi-touch event.

図12(a)は、ユーザが片手で2点のマルチタッチを行う場合を表す。タッチパネルイベント検知部420は、タッチ点903、904を検知する。ジェスチャー認識部409は手領域901及び腕侵入点902を検出する。タッチ点が2点で手領域が1つである場合、メイン制御部402は、1人のユーザによる片手マルチタッチと判断する。   FIG. 12A shows a case where the user performs multi-touch of two points with one hand. The touch panel event detection unit 420 detects touch points 903 and 904. The gesture recognition unit 409 detects the hand region 901 and the arm entry point 902. When there are two touch points and one hand area, the main control unit 402 determines that one user is a one-hand multi-touch.

図12(b)は、ユーザが両手で2点のマルチタッチを行う場合を表す。タッチパネルイベント検知部420は、タッチ点913、916を検知する。ジェスチャー認識部409は手領域911、914及び腕侵入点912、915を検出する。タッチ点が2点で手領域が2つあり、且つ2つの腕侵入点が操作平面204の同一辺上にある場合、メイン制御部402は、1人のユーザが両手を操作平面204の同一辺上から手を入れていると判断する。これによりメイン制御部402は、タッチ点913とタッチ点916とが1人のユーザによる両手マルチタッチと判断する。   FIG. 12B shows a case where the user performs multi-touch of two points with both hands. The touch panel event detection unit 420 detects touch points 913 and 916. The gesture recognition unit 409 detects hand areas 911 and 914 and arm entry points 912 and 915. When there are two touch points, two hand areas, and two arm entry points are on the same side of the operation plane 204, the main control unit 402 allows one user to place both hands on the same side of the operation plane 204. Judge that they are putting their hands from above. Accordingly, the main control unit 402 determines that the touch point 913 and the touch point 916 are two-hand multi-touch by one user.

図12(c)は、2人のユーザがそれぞれ1点ずつタッチを行う場合を表す。タッチパネルイベント検知部420は、タッチ点923、926を検知する。ジェスチャー認識部409は手領域921、941及び腕侵入点922、925を検出する。タッチ点が2点で手領域が2つあり、且つ2つの腕侵入点が操作平面204の異なる辺上にある場合、メイン制御部402は、2人のユーザがそれぞれ操作平面204の異なる方向から手を入れていると判断する。これによりメイン制御部402は、タッチ点923とタッチ点926とが2人のユーザによる2つのシングルタッチであると判断する。   FIG. 12C shows a case where two users touch one point at a time. The touch panel event detection unit 420 detects touch points 923 and 926. The gesture recognition unit 409 detects the hand regions 921 and 941 and the arm entry points 922 and 925. When there are two touch points, two hand areas, and two arm intrusion points on different sides of the operation plane 204, the main control unit 402 allows two users to move from different directions on the operation plane 204, respectively. Judge that you are putting your hand. Thereby, the main control unit 402 determines that the touch point 923 and the touch point 926 are two single touches by two users.

図13は、マルチタッチ時のメイン制御部402によるタッチパネルイベントの制御処理のフローチャートである。図10のフローチャートと同様の処理は同じステップ番号を付してある。   FIG. 13 is a flowchart of touch panel event control processing by the main control unit 402 during multi-touch. Processes similar to those in the flowchart of FIG. 10 are given the same step numbers.

メイン制御部402は、処理を開始すると、ジェスチャー認識部409に対して処理開始指示を行う(S801)。メイン制御部402は、タッチパネルイベント検知部420に対して処理開始指示を行う(S802)。メイン制御部402は、ジェスチャー認識部409からのタッチイベントの通知を待機する(S803)。
タッチイベントの通知を取得した場合(S803:Y)、メイン制御部402は、タッチ点の数が「1」であるか否かを判断する(S901)。タッチ点の数が「1」である場合(S901:Y)、メイン制御部402は、図10のシングルタッチ処理を行う(S804)。
When starting the processing, the main control unit 402 instructs the gesture recognition unit 409 to start processing (S801). The main control unit 402 instructs the touch panel event detection unit 420 to start processing (S802). The main control unit 402 waits for notification of a touch event from the gesture recognition unit 409 (S803).
When the notification of the touch event is acquired (S803: Y), the main control unit 402 determines whether or not the number of touch points is “1” (S901). When the number of touch points is “1” (S901: Y), the main control unit 402 performs the single touch process of FIG. 10 (S804).

タッチ点の数が「1」より大きい場合(S901:N)、メイン制御部402は、マルチタッチ処理(S902)を行う。マルチタッチ処理では、メイン制御部402は、まず、ジェスチャー認識部409から検出した手領域の数を取得する(S911)。メイン制御部402は、取得した手領域の数が「1」であるか否かを判断する(S912)。   When the number of touch points is greater than “1” (S901: N), the main control unit 402 performs multi-touch processing (S902). In the multi-touch process, the main control unit 402 first acquires the number of hand regions detected from the gesture recognition unit 409 (S911). The main control unit 402 determines whether or not the acquired number of hand regions is “1” (S912).

手領域の数が「1」である場合(S912:Y)、メイン制御部402は、図12(a)に示すように1人のユーザによるマルチタッチであると判断する。メイン制御部402は、片手マルチタッチイベントをユーザインタフェース部403に通知する(S916)。手領域の数が2以上である場合(S912:N)、メイン制御部402は、手領域の操作平面204への侵入点が、操作平面204の同じ辺上であるか、すなわち同じ方向から腕が侵入しているか否かを判断する(S913)。   When the number of hand regions is “1” (S912: Y), the main control unit 402 determines that the multi-touch is performed by one user as shown in FIG. The main control unit 402 notifies the user interface unit 403 of the one-handed multi-touch event (S916). When the number of hand areas is 2 or more (S912: N), the main control unit 402 determines whether the entry point of the hand area into the operation plane 204 is on the same side of the operation plane 204, that is, the arm from the same direction. It is determined whether or not the user has entered (S913).

同じ方向から腕が侵入している場合(S913:Y)、メイン制御部402は、図12(b)に示すように1人のユーザの両手マルチタッチイベントであると判断する。メイン制御部402は、両手マルチタッチイベントをユーザインタフェース部403に通知する(S914)。異なる方向から腕が侵入している場合(S913:N)、メイン制御部402は、図12(c)に示すように2人のユーザのそれぞれによるシングルタッチイベントであると判断する。メイン制御部402は、2人のユーザのそれぞれによるシングルタッチイベントをユーザインタフェース部403に通知する(S915)。ユーザインタフェース部403への通知を行ったメイン制御部402は、S803へ戻り、ジェスチャー認識部409からのタッチイベントの通知を待機する。   When the arm has entered from the same direction (S913: Y), the main control unit 402 determines that the event is a two-handed multi-touch event of one user as shown in FIG. The main control unit 402 notifies the user interface unit 403 of the two-hand multi-touch event (S914). If the arm has entered from a different direction (S913: N), the main control unit 402 determines that the single touch event is performed by each of the two users as shown in FIG. The main control unit 402 notifies the user interface unit 403 of a single touch event by each of the two users (S915). The main control unit 402 that has notified the user interface unit 403 returns to S803 and waits for a touch event notification from the gesture recognition unit 409.

以上のようなメイン制御部402の処理により、ユーザインタフェース部403は、タッチパネルイベント検知部420が2点のタッチイベントを検知した場合に、操作内容が次のいずれであるかを判断することができる。
・2人のユーザによる2つのシングルタッチ
・片手マルチタッチ
・1人のユーザによる両手マルチタッチ
Through the processing of the main control unit 402 as described above, the user interface unit 403 can determine which of the following operations is performed when the touch panel event detection unit 420 detects two touch events. .
-Two single touches by two users-One-handed multi-touch-Two-handed multi-touch by one user

ユーザインタフェース部403は、上記の3つの判断結果に応じて異なる処理を実行することができる。例えば、ユーザインタフェース部403は、片手マルチタッチでは、UI部品の拡大・縮小、両手マルチタッチではUI部品の回転、2つのシングルタッチではUI部品上もタッチ点の軌跡の線の描画、を行う。各処理は、第1実施形態と同様に、メイン制御部402が表示するUI部品毎に、ユーザインタフェース部403に予め登録しておく。   The user interface unit 403 can execute different processes according to the above three determination results. For example, the user interface unit 403 performs enlargement / reduction of a UI component in one-hand multi-touch, rotation of a UI component in two-hand multi-touch, and drawing of a locus of a touch point on the UI component in two single touches. Each processing is registered in advance in the user interface unit 403 for each UI component displayed by the main control unit 402, as in the first embodiment.

このように入力システムは、タッチパネルイベント検知部420が検知したタッチ点だけではなく、ジェスチャー認識部409が検知する手領域の数および侵入点を利用することで、操作するユーザの人数を判別することが可能となる。そのために、複数のユーザが、同時にシングルタッチやマルチタッチを行うことができ、操作性が向上して、従来よりも多種多様な入力操作が可能となる。   Thus, the input system determines the number of operating users by using not only the touch points detected by the touch panel event detection unit 420 but also the number of hand regions and entry points detected by the gesture recognition unit 409. Is possible. Therefore, a plurality of users can perform single touch and multi-touch at the same time, so that operability is improved and a variety of input operations can be performed as compared with the prior art.

[第3実施形態]
第2実施形態ではユーザが最大2人であり、操作平面204上のタッチ点も最大2である。第3実施形態では、タッチパネルイベント検知部420が検知するタッチ点とジェスチャー認識部409が検出する手領域とを関連付けることで、2以上の複数のタッチ点であっても適切なタッチイベントを実行する処理について説明する。入力システムの構成は第1実施形態と同様であるため説明を省略する。
[Third Embodiment]
In the second embodiment, the maximum number of users is two, and the maximum number of touch points on the operation plane 204 is two. In the third embodiment, an appropriate touch event is executed even when there are two or more touch points by associating the touch points detected by the touch panel event detection unit 420 with the hand regions detected by the gesture recognition unit 409. Processing will be described. Since the configuration of the input system is the same as that of the first embodiment, description thereof is omitted.

図14は、手領域とタッチ点との関係を示す模式図である。手領域1001は、1つのタッチ点1003と関連づけられ、操作平面204へ侵入点1002で侵入する。手領域1001は、操作平面204に同じ方向から侵入する他の手領域が無く、タッチ点が1つであることから、シングルタッチと判断される。手領域1004は、2つのタッチ点1006、1007と関連付けられ、操作平面204へ侵入点1005で侵入する。手領域1004は、操作平面204に同じ方向から侵入する他の手領域が無く、タッチ点が2つであることから、片手マルチタッチと判断される。   FIG. 14 is a schematic diagram illustrating a relationship between a hand region and a touch point. The hand region 1001 is associated with one touch point 1003 and enters the operation plane 204 at the entry point 1002. The hand region 1001 is determined as a single touch because there is no other hand region that enters the operation plane 204 from the same direction and there is one touch point. The hand region 1004 is associated with the two touch points 1006 and 1007 and enters the operation plane 204 at the entry point 1005. The hand region 1004 is determined as one-hand multi-touch because there is no other hand region that enters the operation plane 204 from the same direction and there are two touch points.

手領域1008は、1つのタッチ点1010と関連付けられ、操作平面204へ侵入点1009で侵入する。手領域1011は、1つのタッチ点1013と関連付けられ、操作平面204へ侵入点1012で侵入する。手領域1008の侵入点1009と手領域1011の侵入点1012とは、操作平面204の同じ辺上にある。そのために、手領域1008と手領域1011とは、同じ方向から侵入していると判断される。また、手領域1008と手領域1011とのそれぞれのタッチ点の数を合計すると「2」であることから、手領域1008と手領域1011とは、両手マルチタッチと判断される。   The hand region 1008 is associated with one touch point 1010 and enters the operation plane 204 at the entry point 1009. The hand region 1011 is associated with one touch point 1013 and enters the operation plane 204 at the entry point 1012. The entry point 1009 in the hand area 1008 and the entry point 1012 in the hand area 1011 are on the same side of the operation plane 204. Therefore, it is determined that the hand area 1008 and the hand area 1011 have entered from the same direction. Further, since the total number of touch points of the hand area 1008 and the hand area 1011 is “2”, the hand area 1008 and the hand area 1011 are determined to be two-hand multi-touch.

図15は、図14で説明したタッチ種類の判断とタッチイベントの判定処理を行う、メイン制御部402によるタッチパネルイベントの制御処理のフローチャートである。図10のフローチャートと同様の処理は同じステップ番号を付してある。   FIG. 15 is a flowchart of touch panel event control processing by the main control unit 402 that performs touch type determination and touch event determination processing described with reference to FIG. 14. Processes similar to those in the flowchart of FIG. 10 are given the same step numbers.

メイン制御部402は、処理を開始すると、ジェスチャー認識部409に対して処理開始指示を行う(S801)。メイン制御部402は、タッチパネルイベント検知部420に対して処理開始指示を行う(S802)。メイン制御部402は、ジェスチャー認識部409からのタッチイベントの通知を待機する(S803)。   When starting the processing, the main control unit 402 instructs the gesture recognition unit 409 to start processing (S801). The main control unit 402 instructs the touch panel event detection unit 420 to start processing (S802). The main control unit 402 waits for notification of a touch event from the gesture recognition unit 409 (S803).

タッチイベントの通知を取得した場合(S803:Y)、メイン制御部402は、タッチイベントで通知された各タッチ点について、どの手領域に含まれるかを算出し、含まれる手領域とタッチ点とを関連付ける(S1001)。なお、タッチ点の座標はタッチパネル330で検知され、手領域は距離画像センサ部208で検知されるため、検知方法の違いによる座標ずれが生じることがある。そのためにタッチ点がどの手領域にも含まれない場合があるが、その場合、メイン制御部402は、該タッチ点を最も近い手領域に関連付ける。   When the notification of the touch event is acquired (S803: Y), the main control unit 402 calculates which hand region is included in each touch point notified by the touch event, and includes the included hand region and the touch point. Are associated (S1001). In addition, since the coordinates of the touch point are detected by the touch panel 330 and the hand region is detected by the distance image sensor unit 208, a coordinate shift due to a difference in detection method may occur. For this reason, the touch point may not be included in any hand region. In this case, the main control unit 402 associates the touch point with the nearest hand region.

メイン制御部402は、すべての手領域について以降のループ処理を行う(S1002、S1003)。メイン制御部402は、まず、このループ処理の対象となる1つの手領域について、関連付けられたタッチ点の有無を判断する(S1011)。関連付けられたタッチ点が無い場合(S1011:N)、メイン制御部402は次の手領域についてのループ処理を行う。関連づけられたタッチ点が有る場合(S1011:Y)、メイン制御部402はタッチイベント判定処理を行う(S1021)。   The main control unit 402 performs the subsequent loop processing for all hand regions (S1002, S1003). First, the main control unit 402 determines whether or not there is an associated touch point for one hand region that is a target of the loop processing (S1011). If there is no associated touch point (S1011: N), the main control unit 402 performs a loop process for the next hand region. When there is an associated touch point (S1011: Y), the main control unit 402 performs a touch event determination process (S1021).

タッチイベント判定処理では、メイン制御部402は、まず処理対象の手領域の操作平面204への侵入点の辺と、同じ辺に侵入点をもつ手領域の有無、すなわち同じ方向から操作平面204に侵入する手領域の有無を確認する(S1012)。また、メイン制御部402は同じ方向から操作平面204に侵入する手領域にタッチ点が関連付けられているかを判断する。同じ方向から操作平面204へ侵入し、且つタッチ点が関連付けられた手領域が有る場合(S1012:Y)、メイン制御部402は、図14の手領域1008と手領域1011のように両手によるマルチタッチであると判断する。メイン制御部402は、両手マルチタッチイベントをユーザインタフェース部403へ通知する(S1016)。   In the touch event determination process, the main control unit 402 first enters the operation plane 204 from the same direction as the presence or absence of a hand area having an intrusion point on the same side as the side of the entry point of the hand area to be processed. The presence or absence of an intruding hand region is confirmed (S1012). Further, the main control unit 402 determines whether a touch point is associated with a hand region that enters the operation plane 204 from the same direction. When there is a hand region that enters the operation plane 204 from the same direction and is associated with a touch point (S1012: Y), the main control unit 402 performs a multi-handed operation using both hands as in the hand region 1008 and the hand region 1011 in FIG. Judged to be a touch. The main control unit 402 notifies the user interface unit 403 of the two-hand multi-touch event (S1016).

同じ方向から操作平面204へ侵入し、且つタッチ点が関連付けられた手領域が無い場合(S1012:N)、メイン制御部402は、処理対象の手領域に関連付けられたタッチ点が1つか否かを判断する(S1013)。タッチ点が1つである場合(S1013:Y)、メイン制御部402は、シングルタッチであると判断する。メイン制御部402は、シングルタッチイベントをユーザインタフェース部403へ通知する(S1014)。タッチ点が1より多い場合(S1013:N)、メイン制御部402は、片手によるマルチタッチイベントであると判断する。メイン制御部402は、片手マルチタッチイベントをユーザインタフェース部403へ通知する(S1015)。   When there is no hand region that enters the operation plane 204 from the same direction and is associated with a touch point (S1012: N), the main control unit 402 determines whether there is one touch point associated with the hand region to be processed. Is determined (S1013). When there is one touch point (S1013: Y), the main control unit 402 determines that the touch is single touch. The main control unit 402 notifies the user interface unit 403 of a single touch event (S1014). When there are more touch points than 1 (S1013: N), the main control unit 402 determines that the event is a multi-touch event with one hand. The main control unit 402 notifies the user interface unit 403 of the one-hand multi-touch event (S1015).

タッチイベントをユーザインタフェース部403へ通知したメイン制御部402は、未処理の手領域の有無を確認する(S1003)。未処理の手領域が有る場合、メイン制御部402はS1002以降の処理を、すべての手領域に対する処理が終了するまで繰り返し行う。すべての手領域に対する処理が終了すると、メイン制御部402は、S803へ戻り、ジェスチャー認識部409からのタッチイベントの通知を待機する。   The main control unit 402 that has notified the touch event to the user interface unit 403 confirms whether there is an unprocessed hand region (S1003). When there is an unprocessed hand area, the main control unit 402 repeats the processes after S1002 until the processes for all the hand areas are completed. When the processes for all the hand regions are completed, the main control unit 402 returns to S803 and waits for a touch event notification from the gesture recognition unit 409.

以上のようなメイン制御部402の処理により、ユーザインタフェース部403は、シングルタッチイベント、片手マルチタッチイベント、および両手マルチタッチイベントの通知を区別して取得することができる。さらに、上述したように手領域とタッチ点を関連付けることで、図14に示すようにこれらのタッチ操作が同時に発生した場合であっても、ユーザインタフェース部403は対応したタッチイベントを取得することができる。これにより、操作平面204上にユーザインタフェース部403が投影したUI部品を、複数のユーザが同時に別々の方向から操作することが可能となる。そのために、複数のユーザの操作性が向上して、従来よりも多種多様な入力操作が可能となる。   Through the processing of the main control unit 402 as described above, the user interface unit 403 can separately acquire notifications of single touch events, one-hand multi-touch events, and two-hand multi-touch events. Furthermore, as described above, by associating the hand region and the touch point, even when these touch operations occur simultaneously as shown in FIG. 14, the user interface unit 403 can acquire the corresponding touch event. it can. Thereby, it becomes possible for a plurality of users to simultaneously operate UI components projected by the user interface unit 403 on the operation plane 204 from different directions. Therefore, the operability of a plurality of users is improved, and a wider variety of input operations than before are possible.

[第4実施形態]
第2、第3実施形態では、操作平面204上をタッチしている手領域が複数有る場合に、手領域が同じ方向から操作平面204に侵入しているか否かにより、両手マルチタッチか、あるいは片手シングルタッチかを判別している。第4実施形態では、手領域が右手および左手のいずれであるかに基づいて、両手マルチタッチと片手シングルタッチとの判別を行う。これはメイン制御部402が手領域の形状を算出しており、これにより手領域が右手および左手のいずれであるかを判別することで行われる。入力システムの構成は第1実施形態と同様であるため説明を省略する。
[Fourth Embodiment]
In the second and third embodiments, when there are a plurality of hand areas touching on the operation plane 204, two-hand multi-touch is performed depending on whether the hand area has entered the operation plane 204 from the same direction, or It is determined whether it is a single-handed single touch. In the fourth embodiment, discrimination between both-hand multi-touch and one-hand single touch is performed based on whether the hand region is the right hand or the left hand. This is performed by the main control unit 402 calculating the shape of the hand region, and thereby determining whether the hand region is the right hand or the left hand. Since the configuration of the input system is the same as that of the first embodiment, description thereof is omitted.

図16は、手領域とタッチ点との関係を示す模式図である。手領域1101は1つのタッチ点1102が関連付けられ、操作平面204へ侵入点1103で侵入している。メイン制御部402は、タッチ点1102が片手シングルタッチのタッチ点であるか、あるいは両手マルチタッチのタッチ点であるかの判別を以下のように行う。メイン制御部402は、まず、手領域1101の形状から、手領域1101が右手であると判別する。そして、侵入点1103の左隣から侵入している手領域を探す。手領域1101が左手の場合には、侵入点1103の右隣から侵入している手領域を探す。図16では侵入点1106から侵入している手領域1104を発見する。メイン制御部402は、発見した手領域1104の形状から、手領域1104が右手であると判別する。手領域1101が右手であり、その左隣の手領域1104も右手であるため、手領域1101のタッチ点1102は片手によるシングルタッチであると判定される。   FIG. 16 is a schematic diagram illustrating a relationship between a hand region and a touch point. The hand region 1101 is associated with one touch point 1102 and enters the operation plane 204 at the entry point 1103. The main control unit 402 determines whether the touch point 1102 is a one-hand single touch touch point or a two-hand multi-touch touch point as follows. First, the main control unit 402 determines that the hand region 1101 is the right hand from the shape of the hand region 1101. Then, the intruding hand region is searched from the left side of the intrusion point 1103. When the hand region 1101 is the left hand, the hand region intruding from the right side of the intrusion point 1103 is searched. In FIG. 16, a hand region 1104 invading from the intrusion point 1106 is found. The main control unit 402 determines that the hand region 1104 is the right hand from the shape of the found hand region 1104. Since the hand region 1101 is the right hand and the left hand region 1104 is also the right hand, the touch point 1102 of the hand region 1101 is determined to be a single touch with one hand.

手領域1104のタッチ点1105が片手シングルタッチのタッチ点であるか、あるいは両手マルチタッチのタッチ点であるかの判別も、手領域1101の場合と同様に行われる。すなわち手領域1104が右手であることを判別し、左隣から侵入している手領域を探すことで行われる。ここで、操作平面204の同じ辺1110から侵入している手領域だけでなく、侵入点1106がある辺の左隣の辺1111からも侵入している手領域を探すことにより、侵入点1109から侵入している手領域1107を発見することができる。手領域1104が左手である場合には、右隣の辺1112から侵入している手領域を探す。続いて、左隣に発見した手領域1107の形状から、手領域1107が左手であると判別される。手領域1104が右手であり、その左隣の手領域1107が左手であることから、手領域1104のタッチ点1105は両手マルチタッチのタッチ点であると判定される。   Whether the touch point 1105 of the hand region 1104 is a one-hand single touch touch point or a two-hand multi-touch touch point is also determined in the same manner as the hand region 1101. That is, it is performed by determining that the hand region 1104 is the right hand and searching for the intruding hand region from the left side. Here, not only the hand region that has entered from the same side 1110 of the operation plane 204 but also the hand region that has entered from the side 1111 adjacent to the left side of the side where the entry point 1106 exists, An intruding hand area 1107 can be found. If the hand region 1104 is the left hand, the intruding hand region is searched from the right side 1112. Subsequently, it is determined that the hand region 1107 is the left hand from the shape of the hand region 1107 found on the left side. Since the hand region 1104 is the right hand and the left hand region 1107 is the left hand, the touch point 1105 of the hand region 1104 is determined to be a two-hand multi-touch touch point.

図17は、図16で説明したタッチ種類の判断とタッチイベントの判定処理を行う、メイン制御部402によるタッチパネルイベントの制御処理のフローチャートである。図17の処理は、図15のフローチャートのS1021の処理に置き換えられる。つまり図17のフローチャートの前には、図15のS801〜S1011の処理が行われる。   FIG. 17 is a flowchart of touch panel event control processing by the main control unit 402, which performs the touch type determination and touch event determination processing described in FIG. The process of FIG. 17 is replaced with the process of S1021 in the flowchart of FIG. That is, before the flowchart of FIG. 17, the processing of S801 to S1011 of FIG. 15 is performed.

メイン制御部402は、タッチイベント判定の対象となる手領域の形状から、該手領域が右手であるか、あるいは左手であるかを判別する(S1101)。メイン制御部402は、判定対象の手領域が右手であれば左隣、左手であれば右隣の侵入点を持つ手領域を探索する(S1102)。探索する手領域は、侵入点が操作平面204の同じ辺を持つ手領域、およびタッチイベント判定対象の手領域が右手であれば操作平面204の左隣の辺、タッチイベント判定対象の手領域が左手であれば操作平面204の右隣の辺に侵入点がある手領域である。   The main control unit 402 determines whether the hand region is the right hand or the left hand from the shape of the hand region that is the target of the touch event determination (S1101). The main control unit 402 searches for a hand region having an entry point on the left side if the hand region to be determined is the right hand and on the right side if the hand region is on the left hand (S1102). The hand area to be searched includes a hand area where the intrusion point has the same side of the operation plane 204, and a left side of the operation plane 204 if the touch event determination target hand area is the right hand, and a touch event determination target hand area If it is the left hand, it is a hand region having an entry point on the right side of the operation plane 204.

メイン制御部402は、隣の手領域を発見し、且つ該手領域にタッチ点があるか否かを判断する(S1103)。隣の手領域があり、且つ該手領域にタッチ点が有る場合(S1103:Y)、メイン制御部402は、隣の手領域の形状から該手領域が右手であるか、あるいは左手であるかを判別する(S1104)。メイン制御部402は、タッチイベント判定対象の手領域とその隣の手領域とが逆の手、すなわち一方が右手、他方が左手であるか否かを判断する(S1105)。タッチイベント判定対象の手領域とその隣の手領域とが逆の手である場合(S1105:Y)、メイン制御部402は、両手マルチタッチイベントであると判定する。メイン制御部402は、両手マルチタッチイベントをユーザインタフェース部403へ通知する(S1106)。   The main control unit 402 finds an adjacent hand region and determines whether there is a touch point in the hand region (S1103). When there is an adjacent hand region and there is a touch point in the hand region (S1103: Y), the main control unit 402 determines whether the hand region is a right hand or a left hand based on the shape of the adjacent hand region. Is discriminated (S1104). The main control unit 402 determines whether or not the hand region for touch event determination and the adjacent hand region are opposite hands, that is, one is a right hand and the other is a left hand (S1105). When the hand region for the touch event determination target and the adjacent hand region are opposite hands (S1105: Y), the main control unit 402 determines that the event is a two-handed multi-touch event. The main control unit 402 notifies the user interface unit 403 of the two-hand multi-touch event (S1106).

隣の手領域が無いあるいは隣の手領域があっても該手領域にタッチ点が無い場合(S1103:N)、メイン制御部402はタッチイベント判定対象の手領域に関連付けられたタッチ点が1つであるかどうかを判断する(S1107)。また、メイン制御部402は、タッチイベント判定対象の手領域とその隣の手領域とが逆の手ではない場合(S1105:N)にも、タッチイベント判定対象の手領域に関連付けられたタッチ点が1つであるかどうかを判断する(S1107)。タッチイベント判定対象の手領域とその隣の手領域とが逆の手ではない場合は、両方右手あるいは両方左手である場合である。   When there is no adjacent hand region or there is no touch point in the hand region even if there is an adjacent hand region (S1103: N), the main control unit 402 has one touch point associated with the hand region to be touch event determined. It is determined whether or not there is one (S1107). In addition, the main control unit 402 also determines the touch point associated with the touch event determination target hand region even when the hand region of the touch event determination target and the adjacent hand region are not opposite hands (S1105: N). It is determined whether or not there is one (S1107). The case where the hand region for touch event determination and the adjacent hand region are not the opposite hand is a case where both the right hand or both the left hand are used.

タッチ点が1つである場合(S1107:Y)、メイン制御部402は、シングルタッチイベントであると判定する。メイン制御部402は、シングルタッチイベントをユーザインタフェース部403に通知する(S1108)。タッチ点が複数である場合(S1107:N)、メイン制御部402は、片手マルチタッチイベントであると判定する。メイン制御部402は、片手マルチタッチイベントをユーザインタフェース部403へ通知する。タッチイベントをユーザインタフェース部403へ通知したメイン制御部402は、タッチイベント判定処理を終了する。   When there is one touch point (S1107: Y), the main control unit 402 determines that it is a single touch event. The main control unit 402 notifies the user interface unit 403 of the single touch event (S1108). When there are a plurality of touch points (S1107: N), the main control unit 402 determines that the event is a one-handed multi-touch event. The main control unit 402 notifies the user interface unit 403 of a one-handed multi-touch event. The main control unit 402 that has notified the touch event to the user interface unit 403 ends the touch event determination process.

以上のようなメイン制御部402の処理により、ユーザインタフェース部403は、シングルタッチイベント、片手マルチタッチイベント、および両手マルチタッチイベントの通知を区別して取得することができる。また、上述したように手領域とタッチ点を関連付けることで、図14に示すようにこれらのタッチ操作が同時に発生した場合であっても、ユーザインタフェース部403は対応したタッチイベントを取得することができる。これにより、操作平面204上にユーザインタフェース部403が投影したUI部品を、複数のユーザが同時に別々の方向から操作することが可能となる。そのために、複数のユーザの操作性が向上して、従来よりも多種多様な入力操作が可能となる。さらに、図16の手領域1104と手領域1107のように、操作平面204の2つの辺にまたがって両手マルチタッチを行うことも可能となる。   Through the processing of the main control unit 402 as described above, the user interface unit 403 can separately acquire notifications of single touch events, one-hand multi-touch events, and two-hand multi-touch events. Further, by associating the hand region and the touch point as described above, even when these touch operations occur simultaneously as shown in FIG. 14, the user interface unit 403 can acquire the corresponding touch event. it can. Thereby, it becomes possible for a plurality of users to simultaneously operate UI components projected by the user interface unit 403 on the operation plane 204 from different directions. Therefore, the operability of a plurality of users is improved, and a wider variety of input operations than before are possible. Furthermore, as shown in the hand region 1104 and the hand region 1107 in FIG. 16, it is possible to perform two-hand multi-touch across the two sides of the operation plane 204.

[第5実施形態]
第1〜第4実施形態では、距離画像センサ部208が読み取り領域205内を読み取るように配置されており、入力システムは、操作平面204上の手領域を用いて操作を判別している。第5実施形態では、距離画像センサ部208は、画角がより広角にされるとともに、より上方に配置されることで、操作平面204の周囲の物体の距離画像を取得する。これにより、操作平面204上の手の3次元点群だけでなく、操作平面204の周囲にある腕および人体の形状を表す3次元点群を取得することができる。入力システムは、取得した3次元点群を用いて手領域が接続する人体を判別することが可能となる。入力システムの構成は第1実施形態と同様であるため説明を省略する。
[Fifth Embodiment]
In the first to fourth embodiments, the distance image sensor unit 208 is arranged to read the inside of the reading area 205, and the input system discriminates the operation using the hand area on the operation plane 204. In the fifth embodiment, the distance image sensor unit 208 acquires a distance image of an object around the operation plane 204 by setting the angle of view to be a wider angle and being arranged at a higher position. Thereby, not only the three-dimensional point group of the hand on the operation plane 204 but also a three-dimensional point group representing the shape of the arm and the human body around the operation plane 204 can be acquired. The input system can determine the human body to which the hand region is connected using the acquired three-dimensional point cloud. Since the configuration of the input system is the same as that of the first embodiment, description thereof is omitted.

図18は、ユーザによる操作を示す模式図である。距離画像センサ部208により、操作平面204上の手領域1201、1204、1206の他に、人体1203、1208が検知される。   FIG. 18 is a schematic diagram illustrating an operation by the user. In addition to the hand areas 1201, 1204, and 1206 on the operation plane 204, the distance image sensor unit 208 detects human bodies 1203 and 1208.

メイン制御部402は、手領域1201が接続している人体1203に、手領域1201の他にタッチ操作を行っている手領域が接続していないことを判別する。これによりメイン制御部402は、手領域1201のタッチ点1202がシングルタッチであることを判定し、シングルタッチイベントをユーザインタフェース部403へ通知する。
メイン制御部402は、手領域1204が接続している人体1208に、タッチ点1207を持つ手領域1206が接続していることを判別する。これによりメイン制御部402は、タッチ点1205とタッチ点1207とが両手マルチタッチのタッチ点であることを判定し、両手マルチタッチイベントをユーザインタフェース部403へと通知する。
The main control unit 402 determines that the human body 1203 to which the hand area 1201 is connected is not connected to the hand area in which a touch operation is performed in addition to the hand area 1201. Accordingly, the main control unit 402 determines that the touch point 1202 of the hand area 1201 is a single touch, and notifies the user interface unit 403 of a single touch event.
The main control unit 402 determines that the hand region 1206 having the touch point 1207 is connected to the human body 1208 to which the hand region 1204 is connected. Thus, the main control unit 402 determines that the touch point 1205 and the touch point 1207 are two-hand multi-touch touch points, and notifies the user interface unit 403 of the two-hand multi-touch event.

このようなメイン制御部402によるタッチイベント判定処理は、図15のタッチイベント判定処理(S1202)に組み込まれる。これによりユーザインタフェース部403は、シングルタッチイベント、片手マルチタッチイベント、および両手マルチタッチイベントを区別して取得することができる。以上のような処理により、複数のユーザが同時に別々の方向から操作することが可能となるために、操作性が向上して、従来よりも多種多様な入力操作が可能となる。   Such a touch event determination process by the main control unit 402 is incorporated in the touch event determination process (S1202) of FIG. Accordingly, the user interface unit 403 can distinguish and acquire a single touch event, a one-hand multi-touch event, and a two-hand multi-touch event. With the processing as described above, it becomes possible for a plurality of users to operate from different directions at the same time, so that the operability is improved and a wider variety of input operations than before are possible.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

101…カメラスキャナ、201…コントローラ部、202…カメラ部、204…操作平面、207…プロジェクタ、208…距離画像センサ部、330…タッチパネル、402…メイン制御部、409…ジェスチャー認識部、420…タッチパネルイベント検知部   DESCRIPTION OF SYMBOLS 101 ... Camera scanner, 201 ... Controller part, 202 ... Camera part, 204 ... Operation plane, 207 ... Projector, 208 ... Distance image sensor part, 330 ... Touch panel, 402 ... Main control part, 409 ... Gesture recognition part, 420 ... Touch panel Event detector

Claims (12)

UI部品を操作平面に表示する表示手段と、
ユーザが指で前記操作平面をタッチしたタッチ位置を検出する位置検出手段と、
前記操作平面をタッチしている指を備える手の形状を取得する画像取得手段と、
前記手の形状から、該手を前記操作平面に投影した手領域を認識するジェスチャー認識手段と、
前記位置検出手段で検出した前記タッチ位置と前記表示手段が表示する前記UI部品の位置とから、当該UI部品へのタッチ操作を検出するイベント検知手段と、
前記ジェスチャー認識手段で認識した前記手領域と前記イベント検知手段で検出した前記タッチ操作とに応じて、前記UI部品への操作内容を判定する判定手段と、を備えることを特徴とする、
入力システム。
Display means for displaying UI parts on the operation plane;
Position detecting means for detecting a touch position where a user touches the operation plane with a finger;
Image acquisition means for acquiring a shape of a hand including a finger touching the operation plane;
Gesture recognition means for recognizing a hand region obtained by projecting the hand onto the operation plane from the shape of the hand;
Event detection means for detecting a touch operation on the UI component from the touch position detected by the position detection means and the position of the UI component displayed by the display means;
Determination means for determining operation content to the UI component according to the hand region recognized by the gesture recognition means and the touch operation detected by the event detection means,
Input system.
前記ジェスチャー認識手段は、認識した前記手領域から指の本数を検出し、
前記判定手段は、前記ジェスチャー認識手段で検出した前記指の本数と前記イベント検知手段で検出した前記タッチ操作とに応じて、前記UI部品への操作内容を判定することを特徴とする、
請求項1記載の入力システム。
The gesture recognition means detects the number of fingers from the recognized hand region,
The determination unit determines an operation content to the UI component according to the number of fingers detected by the gesture recognition unit and the touch operation detected by the event detection unit.
The input system according to claim 1.
前記判定手段は、前記位置検出手段が1つの前記タッチ位置を検出する場合に、前記ジェスチャー認識手段で検出した前記指の数が1本の場合と1本ではない場合とで、異なる操作内容の判定を行うことを特徴とする、
請求項2記載の入力システム。
When the position detection unit detects one touch position, the determination unit has different operation contents depending on whether the number of fingers detected by the gesture recognition unit is one or not. It is characterized by making a judgment,
The input system according to claim 2.
前記画像取得手段は、前記手に接続される腕の形状を取得し、
前記ジェスチャー認識手段は、前記腕の形状から、該腕が前記操作平面に侵入する侵入点を検出し、
前記判定手段は、前記位置検出手段が検出した前記タッチ位置の数、前記ジェスチャー認識手段が認識した手領域の数、前記侵入点の数、及び前記侵入点の位置に応じて操作内容の判定を行うことを特徴とする、
請求項2記載の入力システム。
The image acquisition means acquires a shape of an arm connected to the hand,
The gesture recognition means detects an entry point where the arm enters the operation plane from the shape of the arm,
The determination means determines the operation content according to the number of the touch positions detected by the position detection means, the number of hand regions recognized by the gesture recognition means, the number of intrusion points, and the position of the intrusion points. It is characterized by
The input system according to claim 2.
前記判定手段は、前記位置検出手段が2つの前記タッチ位置を検出し、且つ前記ジェスチャー認識手段が形状を認識した腕の数が1である場合に、1人のユーザによる片手マルチタッチであると判断することを特徴とする、
請求項4記載の入力システム。
When the position detecting unit detects two touch positions and the number of the arms whose shape is recognized by the gesture recognizing unit is 1, the determining unit is a one-hand multi-touch by one user. It is characterized by judging,
The input system according to claim 4.
前記判定手段は、前記位置検出手段が2つの前記タッチ位置を検出し、且つ前記ジェスチャー認識手段が形状を認識した腕の数が2である場合に、2つの前記侵入点の位置が前記操作平面の同一辺上にあるか否かに応じて、異なる操作内容の判定を行うことを特徴とする、
請求項4又は5記載の入力システム。
When the position detecting unit detects the two touch positions and the number of the arms whose shape is recognized by the gesture recognizing unit is 2, the determination unit determines that the positions of the two entry points are the operation planes. Depending on whether or not they are on the same side, the operation content is determined differently.
The input system according to claim 4 or 5.
前記位置検出手段で検出した前記タッチ位置と、当該タッチ位置にタッチしている指を備える手の手領域とを関連付ける関連付け手段を備えており、
前記判定手段は、前記手領域に関連付けられた前記タッチ位置の数と、該手に接続される腕の前記侵入点の位置に応じて操作内容の判定を行うことを特徴とする、
請求項4〜6のいずれか1項記載の入力システム。
An association means for associating the touch position detected by the position detection means with a hand region of a hand including a finger touching the touch position;
The determination means determines the operation content according to the number of the touch positions associated with the hand region and the position of the entry point of the arm connected to the hand,
The input system according to any one of claims 4 to 6.
前記関連付け手段は、前記位置検出手段が複数の前記タッチ位置を検出した場合に、各タッチ位置と手領域とを関連付けし、
前記判定手段は、前記ジェスチャー認識手段で認識した手が右手、左手のいずれであるかと、前記侵入点の位置とに応じて、前記操作内容を判定することを特徴とする、
請求項7記載の入力システム。
The associating means associates each touch position with a hand area when the position detecting means detects a plurality of the touch positions;
The determination unit determines the operation content according to whether the hand recognized by the gesture recognition unit is a right hand or a left hand and the position of the intrusion point.
The input system according to claim 7.
前記画像取得手段は、前記腕が接続する人体の形状を取得し、
前記位置検出手段は、前記人体に接続される手の手形状に応じて前記操作内容を判定することを特徴とする、
請求項1〜8のいずれか1項記載の入力システム。
The image acquisition means acquires a shape of a human body to which the arm connects,
The position detection means determines the operation content according to a hand shape of a hand connected to the human body,
The input system according to claim 1.
UI部品を操作平面に表示する表示手段と、ユーザが指で前記操作平面をタッチしたタッチ位置を検出する位置検出手段と、前記操作平面をタッチしている指を備える手の形状を取得する画像取得手段と、を備えたシステムにより実行される方法であって
前記手の形状から、該手を前記操作平面に投影した手領域を認識し、
前記位置検出手段で検出した前記タッチ位置と前記表示手段が表示する前記UI部品の位置とから、当該UI部品へのタッチ操作を検出し、
前記手領域と前記タッチ操作とに応じて、前記UI部品への操作内容を判定することを特徴とする、
入力方法。
An image for acquiring a shape of a hand including a display means for displaying a UI component on the operation plane, a position detection means for detecting a touch position where the user touches the operation plane with a finger, and a finger touching the operation plane. And a recognition method for recognizing a hand region obtained by projecting the hand onto the operation plane from the shape of the hand,
From the touch position detected by the position detection unit and the position of the UI component displayed by the display unit, a touch operation to the UI component is detected,
According to the hand region and the touch operation, the operation content to the UI component is determined,
input method.
UI部品を操作平面に表示する表示手段と、ユーザが指で前記操作平面をタッチしたタッチ位置を検出する位置検出手段と、前記操作平面をタッチしている指を備える手の形状を取得する画像取得手段と、を備えたコンピュータを、
前記手の形状から、該手を前記操作平面に投影した手領域を認識するジェスチャー認識手段、
前記位置検出手段で検出した前記タッチ位置と前記表示手段が表示する前記UI部品の位置とから、当該UI部品へのタッチ操作を検出するイベント検知手段、
前記ジェスチャー認識手段で認識した前記手領域と前記イベント検知手段で検出した前記タッチ操作とに応じて、前記UI部品への操作内容を判定する判定手段、
として機能させるための制御用プログラム。
An image for acquiring a shape of a hand including a display means for displaying a UI component on the operation plane, a position detection means for detecting a touch position where the user touches the operation plane with a finger, and a finger touching the operation plane. An acquisition means, and a computer,
Gesture recognition means for recognizing a hand region obtained by projecting the hand onto the operation plane from the shape of the hand;
Event detection means for detecting a touch operation on the UI component from the touch position detected by the position detection means and the position of the UI component displayed by the display means;
A determination unit that determines an operation content to the UI component according to the hand region recognized by the gesture recognition unit and the touch operation detected by the event detection unit;
Control program to function as
請求項11記載の制御用プログラムを記憶するコンピュータで読み取り可能な記憶媒体。   A computer-readable storage medium storing the control program according to claim 11.
JP2016044973A 2016-03-08 2016-03-08 Input system, input method, control program and storage medium Pending JP2017162126A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016044973A JP2017162126A (en) 2016-03-08 2016-03-08 Input system, input method, control program and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016044973A JP2017162126A (en) 2016-03-08 2016-03-08 Input system, input method, control program and storage medium

Publications (1)

Publication Number Publication Date
JP2017162126A true JP2017162126A (en) 2017-09-14

Family

ID=59857818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016044973A Pending JP2017162126A (en) 2016-03-08 2016-03-08 Input system, input method, control program and storage medium

Country Status (1)

Country Link
JP (1) JP2017162126A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020170851A1 (en) * 2019-02-22 2020-08-27 ソニー株式会社 Information processing device, information processing method, and program
US11073949B2 (en) 2019-02-14 2021-07-27 Seiko Epson Corporation Display method, display device, and interactive projector configured to receive an operation to an operation surface by a hand of a user
WO2022254693A1 (en) 2021-06-04 2022-12-08 日産自動車株式会社 Operation detection device and operation detection method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11073949B2 (en) 2019-02-14 2021-07-27 Seiko Epson Corporation Display method, display device, and interactive projector configured to receive an operation to an operation surface by a hand of a user
WO2020170851A1 (en) * 2019-02-22 2020-08-27 ソニー株式会社 Information processing device, information processing method, and program
US11789543B2 (en) 2019-02-22 2023-10-17 Sony Group Corporation Information processing apparatus and information processing method
WO2022254693A1 (en) 2021-06-04 2022-12-08 日産自動車株式会社 Operation detection device and operation detection method

Similar Documents

Publication Publication Date Title
US10310675B2 (en) User interface apparatus and control method
TWI559174B (en) Gesture based manipulation of three-dimensional images
US20120169671A1 (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
TW583589B (en) Passive optical mouse using image sensor with optical dual mode capability
JP6344530B2 (en) Input device, input method, and program
JP6618276B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP2016103137A (en) User interface system, image processor and control program
JP6381361B2 (en) DATA PROCESSING DEVICE, DATA PROCESSING SYSTEM, DATA PROCESSING DEVICE CONTROL METHOD, AND PROGRAM
US10254893B2 (en) Operating apparatus, control method therefor, and storage medium storing program
JP2009251702A (en) Information processing unit, information processing method, and information processing program
JP2017162126A (en) Input system, input method, control program and storage medium
JP2018112894A (en) System and control method
JP6746419B2 (en) Information processing apparatus, control method thereof, and computer program
TWI499938B (en) Touch control system
JP5558899B2 (en) Information processing apparatus, processing method thereof, and program
JP6643825B2 (en) Apparatus and method
JP6452658B2 (en) Information processing apparatus, control method thereof, and program
JP6618301B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP6555958B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP2018063555A (en) Information processing device, information processing method, and program
JP2017117372A (en) Operation device and control method of the same, and program
JP3201596U (en) Operation input device
JP6624861B2 (en) Image processing apparatus, control method, and program
JP2018116360A (en) Hand input device and control method of hand input device
JP2018181169A (en) Information processor, and information processor control method, computer program, and storage medium