JP2016122410A - Information processing apparatus, control method of the same, and program - Google Patents

Information processing apparatus, control method of the same, and program Download PDF

Info

Publication number
JP2016122410A
JP2016122410A JP2014263283A JP2014263283A JP2016122410A JP 2016122410 A JP2016122410 A JP 2016122410A JP 2014263283 A JP2014263283 A JP 2014263283A JP 2014263283 A JP2014263283 A JP 2014263283A JP 2016122410 A JP2016122410 A JP 2016122410A
Authority
JP
Japan
Prior art keywords
objects
touch operation
directions
information processing
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014263283A
Other languages
Japanese (ja)
Other versions
JP6166250B2 (en
Inventor
直道 岡田
Naomichi Okada
直道 岡田
吉田 真人
Masato Yoshida
真人 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Priority to JP2014263283A priority Critical patent/JP6166250B2/en
Publication of JP2016122410A publication Critical patent/JP2016122410A/en
Application granted granted Critical
Publication of JP6166250B2 publication Critical patent/JP6166250B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To distinguish, when a plurality of people can operate an operation screen, a multi-touch operation by a single user from a single-touch operation by each of a plurality of users.SOLUTION: An information processing apparatus comprises detection means that detects objects approaching on a projection surface to which an image is projected from a projection part and determination means that determines the number and the direction of approach of the detected objects, and controls movements of gesture operations by the objects according to the determined number and direction of approach of the objects.SELECTED DRAWING: Figure 9

Description

本発明は、投影部から投影される画像に対するジェスチャ操作を検出して、そのジェスチャ操作に基づく動作を制御する情報処理技術に関するものである。   The present invention relates to an information processing technique for detecting a gesture operation on an image projected from a projection unit and controlling an operation based on the gesture operation.

銀行にてローン等の契約を行う場合、行員(以下、「テラー」という)は顧客と対面形式にて商品説明や、契約書作成に必要な事項の説明を行うことが義務づけられている。そして、顧客はテラーより説明を受けたことを示すため、所定の欄に記名、捺印等を行うのが一般的である。また、係る業務を、半ば電子的に行うシステムも提案されている(特許文献1)。   When making a loan contract at a bank, a bank employee (hereinafter referred to as “Teller”) is obliged to explain the items necessary for creating a contract or a product explanation in a face-to-face manner with a customer. Then, in order to indicate that the customer has received an explanation from the teller, it is common to put a name, a seal, etc. in a predetermined column. In addition, a system that performs such work semi-electronically has also been proposed (Patent Document 1).

また、タブレット等の端末を使用して、手続に関する操作を容易にしたり、必要な書類の記入を簡素化したりするものもある。また、プロジェクタによって手続に関する操作画面を机上に投影し、その操作画面に対する手指等によるジェスチャをカメラで検出することで、手続に関する情報の入力や案内を行う技術が存在する(特許文献2)。   There are also devices that use a terminal such as a tablet to facilitate operations related to procedures and simplify the entry of necessary documents. In addition, there is a technique for projecting information related to a procedure and projecting information by projecting an operation screen related to the procedure on a desk using a projector and detecting a gesture with a finger or the like on the operation screen with a camera (Patent Document 2).

特開2009−122796号公報JP 2009-122796 A 特開2014−203176号公報JP 2014-203176 A

特許文献2で示されるようなシステムでは、机上に投影される操作画面に対する、タブレットやスマートフォンのようなタッチパネルを有するデバイスにおけるタッチ操作を、ジェスチャを検出するカメラを利用することで実現可能にしている。このタッチ操作には、1点のタッチによるシングルタッチ、2点のタッチによるマルチタッチ操作がある。マルチタッチ操作の一例には、図11に示すように、1人のユーザ(Aさん)の右手と左手それぞれの人差し指(あるいは一方の手に親指と人差し指)によって、操作画面500を拡縮するピンチアウト/ピンチイン操作がある。   In a system such as that disclosed in Patent Document 2, a touch operation on a device having a touch panel such as a tablet or a smartphone with respect to an operation screen projected on a desk can be realized by using a camera that detects a gesture. . This touch operation includes a single touch by one point touch and a multi-touch operation by two point touch. As an example of the multi-touch operation, as shown in FIG. 11, a pinch out that expands / contracts the operation screen 500 with the index fingers of the right hand and the left hand of one user (Mr. A) (or the thumb and index finger in one hand). / There is a pinch-in operation.

しかしながら、このようなマルチタッチ操作を受け付けることが可能な操作画面を、テラーと顧客とが対面して各種手続を行うような業務で利用する場合には、テラーと顧客とが同時に操作画面を操作し得る環境にある。つまり、複数人で操作画面のタッチ操作を行う可能性が生じる。そして、図12に示すように、複数人が操作画面500を操作し得る状況では、1人のユーザ(Aさん)によるマルチタッチ操作と、複数人のユーザ(AさんとBさん)それぞれによるシングルタッチ操作が発生し得るが、従来のシステムでは、どちらの操作もマルチタッチ操作として認識してしまい、両者を区別することができない。そのため、その操作内容によって、ユーザが意図する動作が実現されず、利便性や操作性が欠けているところがある。   However, when such an operation screen that can accept multi-touch operations is used in operations where the teller and the customer face each other and perform various procedures, the teller and the customer operate the operation screen at the same time. It is in an environment that can. That is, there is a possibility that a plurality of people perform touch operations on the operation screen. Then, as shown in FIG. 12, in a situation where a plurality of people can operate the operation screen 500, a multi-touch operation by one user (Mr. A) and a single by each of a plurality of users (Mr. A and Mr. B). Although a touch operation may occur, in a conventional system, both operations are recognized as multi-touch operations, and the two cannot be distinguished. For this reason, the operation intended by the user is not realized depending on the contents of the operation, and there are some cases where convenience and operability are lacking.

本願は上記の課題を鑑みてなされたものであり、操作画面に対する操作性を向上することができる技術を提供することを目的とする。   The present application has been made in view of the above-described problems, and an object thereof is to provide a technique capable of improving operability with respect to an operation screen.

上記の目的を達成するための本発明による情報処理装置は以下の構成を備える。即ち、
投影部から投影される画像に対するジェスチャ操作を検出して、そのジェスチャ操作に基づく動作を制御する情報処理装置であって、
前記投影部から画像が投影される投影面上に進入してくる対象物を検出する検出手段と、
前記検出手段で検出した対象物の数とその進入方向を判定する判定手段と、
前記判定手段で判定した対象物の数とその進入方向に応じて、前記対象物によるジェスチャ操作の動作を制御する制御手段と
を備える。
In order to achieve the above object, an information processing apparatus according to the present invention comprises the following arrangement. That is,
An information processing apparatus that detects a gesture operation on an image projected from a projection unit and controls an operation based on the gesture operation,
Detecting means for detecting an object entering the projection surface on which an image is projected from the projection unit;
Determination means for determining the number of objects detected by the detection means and the approach direction thereof;
Control means for controlling the operation of the gesture operation by the object according to the number of objects determined by the determining means and the approach direction thereof.

本発明によれば、操作画面に対する操作性を向上することができる技術を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which can improve the operativity with respect to an operation screen can be provided.

システムの外観構成図である。It is an external appearance block diagram of a system. システムのブロック構成図である。It is a block block diagram of a system. 対面システムの利用形態を示す図である。It is a figure which shows the utilization form of a facing system. 対面システムの基本処理を示すフローチャートである。It is a flowchart which shows the basic process of a facing system. シートDBのデータ構造を示す図である。It is a figure which shows the data structure of sheet DB. タッチ操作の一例を示す図である。It is a figure which shows an example of touch operation. タッチ操作の一例を示す図である。It is a figure which shows an example of touch operation. タッチ操作の一例を示す図である。It is a figure which shows an example of touch operation. 表示制御処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a display control process. ジェスチャテーブルの一例を示す図である。It is a figure which shows an example of a gesture table. タッチ操作の一例を示す図である。It is a figure which shows an example of touch operation. タッチ操作の一例を示す図である。It is a figure which shows an example of touch operation. 手情報管理テーブル1300の一例を示す図である。5 is a diagram illustrating an example of a hand information management table 1300. FIG.

以下、本発明の実施の形態について図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本実施形態におけるシステムは、銀行で利用される例を説明する。また、以下の説明では、銀行側の者(行員)をテラーとし、顧客と区別して説明する。尚、銀行を例にしたのは、これは業務を具現化することで理解を容易にするためであって、生命保険会社等、対面にて商品の売買や契約を行う類であれば利用可能であり、これに限定されない。あくまで例であることに注意されたい。   An example in which the system in the present embodiment is used in a bank will be described. Moreover, in the following description, a banker (banker) is assumed to be a teller and is described separately from a customer. The bank was used as an example in order to facilitate understanding by embodying the business, and it can be used if it is a life insurance company, etc. that sells or contracts products in person. However, the present invention is not limited to this. Note that this is an example only.

図1は本実施形態におけるシステムの外観構成図であり、図2はそのブロック構成図である。本システムは、情報処理装置として、システム全体の制御を司る制御装置100を有する。そして、この制御装置100には、投影撮像装置110をはじめ、ユーザとの間のユーザインターフェースとして機能するディスプレイ120、入力デバイス(キーボードやマウス等)130が接続されている。また、制御装置100は、業務に係る基幹ネットワーク(不図示)とも接続される。   FIG. 1 is an external configuration diagram of a system in the present embodiment, and FIG. 2 is a block configuration diagram thereof. This system includes a control device 100 that controls the entire system as an information processing device. The control apparatus 100 is connected to a projection imaging apparatus 110, a display 120 that functions as a user interface with the user, and input devices (such as a keyboard and a mouse) 130. The control device 100 is also connected to a backbone network (not shown) related to business.

制御装置100は、通常のPC(パーソナルコンピュータ)等と同様のハードウェア構成を備える。制御装置100は、プログラムに従って処理を行うCPU101、ブートプログラムやBIOS等を記憶するROM102、CPU101が実行するOSやアプリケーションを格納するため、並びにCPU101がワークエリアとして利用するRAM103を有する。また、制御装置100は、投影撮像装置110と通信するためのI/F部105、CPU101の指示に従って描画処理やビデオ信号の出力処理等を行うビデオコントローラ106を有する。更に、制御装置100は、ハードディスク(HDD)に代表される外部記憶装置108に対する読み書きを行うストレージコントローラ107、基幹ネットワーク(特に、ネットワークプリンタ)と通信するためのネットワークI/F104を有する。外部記憶装置108には、オペレーティングシステム(OS)108a、対面システムとして機能させるためのアプリケーションプログラム108bをはじめ、シートデータベース(シートDB)108c、環境情報108d及びジェスチャテーブル(ジェスチャTL)108eが格納されている。尚、シートDB108c及びジェスチャTL108eの詳細については後述する。   The control device 100 has a hardware configuration similar to that of a normal PC (personal computer) or the like. The control device 100 includes a CPU 101 that performs processing according to a program, a ROM 102 that stores a boot program, BIOS, and the like, a RAM 103 that stores an OS and applications executed by the CPU 101, and that the CPU 101 uses as a work area. The control device 100 also includes an I / F unit 105 for communicating with the projection imaging device 110, and a video controller 106 that performs drawing processing, video signal output processing, and the like in accordance with instructions from the CPU 101. Further, the control device 100 includes a storage controller 107 that reads / writes from / to an external storage device 108 typified by a hard disk (HDD), and a network I / F 104 for communicating with a backbone network (in particular, a network printer). The external storage device 108 stores an operating system (OS) 108a, an application program 108b for functioning as a face-to-face system, a sheet database (sheet DB) 108c, environment information 108d, and a gesture table (gesture TL) 108e. Yes. Details of the sheet DB 108c and the gesture TL 108e will be described later.

投影撮像装置110は、その筐体内に、制御装置100と通信するためのI/F部118、投影部115、撮像部116、距離測定部117を収容している。投影撮像装置110には、投影部115から出射した投影光を通過させるための開口部111が設けられている。更に、撮像部116並びに距離測定部117に共有され、外部からの光(赤外線を含む)を入射するための開口部112も設けられている。   The projection imaging apparatus 110 accommodates an I / F unit 118, a projection unit 115, an imaging unit 116, and a distance measurement unit 117 for communicating with the control device 100 in the casing. The projection imaging device 110 is provided with an opening 111 for allowing the projection light emitted from the projection unit 115 to pass therethrough. Furthermore, an opening 112 is also provided which is shared by the imaging unit 116 and the distance measurement unit 117 and for receiving light (including infrared rays) from the outside.

投影部115は、制御装置100から要求された画像を表す投影光を開口部112を介して天板113に向け、且つ、若干斜め方向に出射する。天板113の下面側にはミラーが設けられており、投影部115からの投影光を反射する。この結果、図1における投影撮像装置110の設置位置より手前側の領域(実際には、テーブルの上面)が投影スクリーンとして、その画像を表示することになる。尚、出射する方向を斜めにするのではなく、天板113を傾けても構わない。   The projection unit 115 emits projection light representing an image requested from the control device 100 toward the top plate 113 through the opening 112 and slightly obliquely. A mirror is provided on the lower surface side of the top plate 113 and reflects the projection light from the projection unit 115. As a result, the image on the front side of the installation position of the projection imaging apparatus 110 in FIG. 1 (actually, the upper surface of the table) is displayed as a projection screen. Note that the top plate 113 may be inclined instead of obliquely emitting the light.

また、撮像部116並びに距離測定部117は、天板113のミラーを介して、投影部115によるテーブル上の投影領域よりも広い範囲を撮像範囲、又は、測距範囲として設定されている。撮像部116は通常のデジタルカメラに代表される撮像装置と同じ構成であり、テーブルの撮影範囲内の画像を光学的に読み取るものである。距離測定部117は、奥行きを検出するものであり、予め設定されたパターンを示す赤外線を照射する照射部と、その対象物から反射赤外線を検出するセンサで構成される。そして、撮像部116で得らえた画像データと、距離測定部117より検出された距離データの時間軸に対する変化に基づき、制御装置100のCPU101による処理によって、ユーザの手指の大きさや動き(例えば、移動方向や、手指が指し示す向き等)、手指でテーブルをタップする操作(ジェスチャ)の検出処理が実現する。   In addition, the imaging unit 116 and the distance measuring unit 117 are set as an imaging range or a range-finding range through the mirror of the top plate 113, which is wider than the projection area on the table by the projection unit 115. The imaging unit 116 has the same configuration as an imaging device typified by a normal digital camera, and optically reads an image within the imaging range of the table. The distance measuring unit 117 detects the depth, and includes an irradiating unit that irradiates infrared rays indicating a preset pattern and a sensor that detects reflected infrared rays from the object. Then, based on the image data obtained by the imaging unit 116 and the change of the distance data detected by the distance measuring unit 117 with respect to the time axis, the size and movement of the user's finger (for example, by the CPU 101 of the control device 100) (for example, The detection process of the operation (gesture) for tapping the table with the fingers is realized.

尚、画像と赤外線によるパターン照射/検出によって、ユーザのジェスチャを検出する技術は公知(例えば、米国マイクロソフト社のKINECT(商標))であるので、ここでは、その詳細については省略する。但し、ユーザのジェスチャを検出することができれば良く、その構成、原理は特に問わない。また、投影撮像装置110の筐体内に十分なスペースがあれば、制御装置100を構成する回路を投影撮像装置110に内蔵させることで、これらを一体化しても構わない。   Since a technique for detecting a user's gesture by pattern irradiation / detection using an image and infrared rays is publicly known (for example, KINTECT (trademark) of Microsoft Corporation in the United States), details thereof are omitted here. However, the configuration and the principle are not particularly limited as long as the user's gesture can be detected. Further, if there is a sufficient space in the housing of the projection imaging device 110, these may be integrated by incorporating the circuit constituting the control device 100 in the projection imaging device 110.

上記構成において、本装置の電源がONになると、CPU101はROM102に格納されたブートプログラムを実行し、外部記憶装置108に格納されたOS108aをRAM103にロードし実行する。そして、そのOSの制御下にて、外部記憶装置108から対面システムのアプリケーションプログラム108bをRAM103にロードして、実行させる。この結果、本システムが銀行業務の対面システムとして機能することになる。   In the above configuration, when the power of the apparatus is turned on, the CPU 101 executes the boot program stored in the ROM 102, loads the OS 108a stored in the external storage device 108 into the RAM 103, and executes it. Then, under the control of the OS, the application program 108b of the facing system is loaded from the external storage device 108 to the RAM 103 and executed. As a result, this system functions as a face-to-face system for banking business.

図3は図1に示すシステムの利用形態を示している。本実施形態では、図示のように、テラー(行員)401と顧客402がテーブル400を間に挟み、それぞれが椅子に座って対面して業務を行うような対面システムを想定している。また、テーブル400には、ディスプレイ120、入力デバイス130がテラー401が操作しやすい位置に配置されている。また、投影撮像装置110は、その天板113によって斜め方向から投影光がテーブル400に向けて照射することになるので、テラー401と顧客402が向かい合った際に、邪魔にならない位置に載置することが可能である。この結果、テーブル400の、テラー401と顧客402との間には十分なスペースが確保され、撮像部116及び距離測定部117の検出範囲410、投影部115による投影範囲411が確保される。   FIG. 3 shows a usage pattern of the system shown in FIG. In this embodiment, as shown in the figure, a face-to-face system is assumed in which a teller (customer) 401 and a customer 402 sandwich a table 400 between them and sit on a chair and face each other. In the table 400, the display 120 and the input device 130 are arranged at positions where the teller 401 can be easily operated. Further, since the projection imaging device 110 irradiates the projection light from the oblique direction toward the table 400 by the top plate 113, the projection imaging device 110 is placed at a position that does not get in the way when the teller 401 and the customer 402 face each other. It is possible. As a result, a sufficient space is secured between the teller 401 and the customer 402 in the table 400, and the detection range 410 of the imaging unit 116 and the distance measurement unit 117 and the projection range 411 by the projection unit 115 are secured.

尚、検出範囲410、投影範囲411が示す矩形は、シート画像等の画像の投影面であるテーブル400上にそれぞれの範囲が規定されていることを示すためであって、その境界線が表示されることを意図するものではない。また、制御装置100は、例えばテラー側のテーブル400の下に配置するものとする。   Note that the rectangles indicated by the detection range 410 and the projection range 411 are for indicating that the respective ranges are defined on the table 400 that is a projection surface of an image such as a sheet image, and the boundary line is displayed. It is not intended to be. In addition, the control device 100 is arranged below the table 400 on the teller side, for example.

次に、対面システムの基本処理について、図4を用いて説明する。この基本処理は、CPU101が外部記憶装置108に記憶されているアプリケーションプログラム108bを読み出し、RAM103上で実行することで実現される。
対面システムの処理内容を、特に、CPU101の処理手順として説明する。
Next, basic processing of the facing system will be described with reference to FIG. This basic processing is realized by the CPU 101 reading the application program 108 b stored in the external storage device 108 and executing it on the RAM 103.
The processing contents of the face-to-face system will be described as a processing procedure of the CPU 101 in particular.

本システムが稼働すると、テラー401と顧客402との間のテーブル400上(の投影範囲411)に、投影撮像装置110から各種のシート画像が投影表示される。そして、テラー401はその都度解説や説明を行い、顧客402はその投影内容とテラー401の説明を理解したことの意思を示していって、手続きを進めていく。かかる手続きをCPU101の処理で示せば、以下の通りである。CPU101は、外部記憶装置108から投影すべきシート画像の選択と選択したシート画像を投影部115に表示させる処理、並びに、テラー401及び顧客402の操作をジェスチャとして、撮像部116及び距離測定部117によって認識していく。そして、次に、表示すべきシート画像の選択等と処理を繰り返し、最終シート画像の表示で、テラー401と顧客402が合意したことを示すジェスチャを検出した際に、その処理を終了する。   When this system is operated, various sheet images are projected and displayed from the projection imaging apparatus 110 on the table 400 (the projection range 411) between the teller 401 and the customer 402. Then, the teller 401 gives explanations and explanations each time, and the customer 402 shows the intention of understanding the projection contents and the explanation of the teller 401, and proceeds with the procedure. If this procedure is shown by the processing of the CPU 101, it is as follows. The CPU 101 selects a sheet image to be projected from the external storage device 108, displays the selected sheet image on the projection unit 115, and operates the teller 401 and the customer 402 as gestures, and the imaging unit 116 and the distance measurement unit 117. Will be recognized. Then, the selection of the sheet image to be displayed and the like are repeated, and when the gesture indicating that the teller 401 and the customer 402 have agreed is detected in the display of the final sheet image, the processing is ended.

以下、更に詳しく説明する。図4は対面システムのアプリケーションプログラム108bを実行した際のCPU101の処理手順を示すフローチャートである。   This will be described in more detail below. FIG. 4 is a flowchart showing the processing procedure of the CPU 101 when the application program 108b of the face-to-face system is executed.

本アプリケーションが実行されると、まず、ステップS101にて、CPU101は、メニュー画面をディスプレイ120に表示し、テラー401に項目の1つを選択させる。表示する項目は、「住宅ローンの借り入れ手続」、「口座開設の手続」等の銀行にて対面で手続を行うものが含まれる。但し、項目の1つには「環境設定」が含まれるものとする。   When this application is executed, first, in step S101, the CPU 101 displays a menu screen on the display 120 and causes the teller 401 to select one of the items. The items to be displayed include items that are face-to-face procedures at banks such as “mortgage borrowing procedure” and “account opening procedure”. However, one of the items includes “environment setting”.

ステップS102にて、CPU101は、テラー401による入力デバイス130の操作による選択メニューにおける項目の選択の有無を判定する。選択がない場合(ステップS102でNO)、選択されるまで待機する。一方、選択がある場合(ステップS102でYES)、ステップS103にて、CPU101は、その選択した項目が「環境設定」であるか否かを判定する。   In step S <b> 102, the CPU 101 determines whether an item in the selection menu is selected by operating the input device 130 by the teller 401. If there is no selection (NO in step S102), the process waits until it is selected. On the other hand, if there is a selection (YES in step S102), in step S103, the CPU 101 determines whether or not the selected item is “environment setting”.

判定の結果、環境設定である場合(ステップS103でYES)、ステップS104にて、CPU101は、環境設定に関する処理を行う。この環境設定は、投影撮像装置110がテラー401から見て右側に設置するのか、左側に設置するのかを設定するためである。投影撮像装置110がテーブル400上に投影することになるシート画像は、テラー側、顧客側の向きがあり、その向きと座席についているテラー401、顧客402の位置関係の整合性を取るためである。設定が完了すると、CPU101は、その設定内容を外部記憶装置108の環境情報108dとして保存する。   If the result of determination is environment setting (YES in step S103), in step S104, the CPU 101 performs processing related to environment setting. This environment setting is for setting whether the projection imaging apparatus 110 is installed on the right side or the left side when viewed from the teller 401. This is because the sheet image projected by the projection imaging apparatus 110 on the table 400 has orientations of the teller side and the customer side, and the orientation and the positional relationship between the teller 401 and the customer 402 attached to the seat are taken. . When the setting is completed, the CPU 101 saves the setting contents as environment information 108 d of the external storage device 108.

尚、投影撮像装置110の配置位置を変更しない限り、この環境設定を行う必要はない。つまり、CPU101は、シート画像を投影部115に投影させる際に、この環境情報108dに記憶された情報に従って、必要に応じてシート画像の向きを180°回転させて表示させる。また、起動時の初期段階にて、CPU101は、環境情報108dに記憶された情報に従い、現在設定されたテラー、顧客側がいずれの方向に設定されているのかを示すテストメッセージを表示させ、環境設定の必要性をテラー401に報知しても良い。例えば、顧客402から見て正立して見える「ご相談を承ります」というメッセージを表示する。テラー401から見てそのメッセージが逆さまに見えれば、正しい環境設定がなされていると判断できる。   Note that this environment setting need not be performed unless the arrangement position of the projection imaging apparatus 110 is changed. That is, when the sheet image is projected on the projection unit 115, the CPU 101 displays the sheet image rotated by 180 ° as necessary according to the information stored in the environment information 108d. Also, at the initial stage of startup, the CPU 101 displays a test message indicating in which direction the currently set teller or customer is set according to the information stored in the environment information 108d, and sets the environment setting. May be notified to the teller 401. For example, a message “We accept consultation” which appears upright when viewed from the customer 402 is displayed. If the message looks upside down as seen from the teller 401, it can be determined that the correct environment setting has been made.

判定の結果、環境設定でない場合(ステップS103でNO)、つまり、テラー401は、顧客402の相談目的から、該当するメニュー項目を入力デバイス130を操作して選択することになる。CPU101は、この選択がなされたことを検出すると、ステップS105にて、CPU101は、外部記憶装置108のシートDB108cを参照して、選択した手続きのGUI構成情報を読み込む。そして、ステップS106にて、CPU101は、読み込んだGUI構成情報に基づいて、シート画像をテーブル400に投影し、その投影されたシート画像に対する操作(ジェスチャ)とに基づいて、そのシート画像の表示制御処理を実行する。また、この表示制御処理に伴って、テラー401と顧客402の双方のジェスチャ操作の認識処理とを行い、テラー401と顧客402との間のやりとりを支援しながら、手続の支援処理を実行する。尚、このジェスチャに伴うシート画像の表示制御においては、CPU101は、例えば、ジェスチャテーブル108eに登録されている内容に基づいて行う。このジェスチャテーブル108eの詳細については後述する。   As a result of the determination, if the environment is not set (NO in step S103), that is, the teller 401 selects the corresponding menu item by operating the input device 130 for the purpose of consultation of the customer 402. When the CPU 101 detects that this selection has been made, in step S105, the CPU 101 refers to the sheet DB 108c of the external storage device 108 and reads the GUI configuration information of the selected procedure. In step S106, the CPU 101 projects a sheet image on the table 400 based on the read GUI configuration information, and controls the display of the sheet image based on an operation (gesture) on the projected sheet image. Execute the process. Further, along with this display control process, the gesture operation recognition process of both the teller 401 and the customer 402 is performed, and the procedure support process is executed while supporting the exchange between the teller 401 and the customer 402. Note that, in the display control of the sheet image accompanying this gesture, the CPU 101 performs, for example, based on the contents registered in the gesture table 108e. Details of the gesture table 108e will be described later.

ここで、シートDB108cの構成について、図5を用いて説明する。   Here, the configuration of the sheet DB 108c will be described with reference to FIG.

シートDB108cは、図5に示すように、ステップS101にて表示するメニュー項目を単位として管理されている。そして、各項目には、それぞれにおける手続きの推移と利用するシート画像を記述したGUI構成情報が格納されている。本実施形態では、この内、「住宅ローンの申請」項目300を例にして説明するので、それに含まれるGUI構成情報301について説明する。このGUI構成情報301は、住宅ローンの借り入れ申請に係る手続きと、その際に利用するシート画像の表示形式を記述するGUIシート情報302を特定する情報が記述されている。   As shown in FIG. 5, the sheet DB 108c is managed in units of menu items displayed in step S101. In each item, GUI configuration information describing the transition of the procedure and the sheet image to be used is stored. In the present embodiment, the “application for mortgage” item 300 will be described as an example, and the GUI configuration information 301 included therein will be described. The GUI configuration information 301 describes information for specifying the GUI sheet information 302 that describes a procedure related to a mortgage borrowing application and a display format of a sheet image used at that time.

テラー401と顧客402との間の手続きとしては、例えば、(1)顧客登録、(2)商品説明、(3)ローンのシミュレーション、(4)書類読取、(5)今後の手続きの説明の、5段階がある。そして、図5のGUIシート情報302では、(1)〜(5)の各手続において投影するシート画像(GUI)の表示形態を記述するフォーム情報(「顧客登録フォーム」、「商品説明フォーム」、...)が管理される。また、フォーム情報には、テラー側、顧客側の方向に関する記述も含まれており、且つ、複数のフォームも入れ子式で記述可能としている。   The procedures between the teller 401 and the customer 402 include, for example, (1) customer registration, (2) product description, (3) loan simulation, (4) document reading, and (5) description of future procedures. There are 5 stages. In the GUI sheet information 302 in FIG. 5, form information (“customer registration form”, “product description form”, “form description form”, which describes the display form of the sheet image (GUI) to be projected in each procedure (1) to (5). ...) is managed. Further, the form information includes a description regarding the direction of the teller side and the customer side, and a plurality of forms can be described in a nested manner.

尚、図5では、「住宅ローンの申請」項目300に対して管理する情報の具体例を示しているが、必要な各種項目(例えば、「口座開設」項目350)毎に、必要な情報が適宜、シートDB108c上で管理されていることは言うまでもない。   FIG. 5 shows a specific example of information managed for the “application for mortgage” item 300. However, for each necessary item (for example, “account opening” item 350), necessary information is provided. Needless to say, the information is managed on the sheet DB 108c as appropriate.

本実施形態では、図3に示すような対面システムにおいて、操作画面に対するマルチタッチ操作によるピンチイン/ピンチアウト操作が、同一方向からの1人のユーザの2本の手によるものか、異なる方向からの2人のユーザのそれぞれの手によるものかを判定して、後者である場合は、ピンチイン/ピンチアウト操作の実行を禁止する(ピンチイン/ピンチアウト操作を無効にする)。   In the present embodiment, in the face-to-face system as shown in FIG. 3, whether the pinch-in / pinch-out operation by the multi-touch operation on the operation screen is performed by two hands of one user from the same direction or from different directions. It is determined whether each of the two users is using the hand, and if it is the latter, execution of the pinch-in / pinch-out operation is prohibited (pinch-in / pinch-out operation is invalidated).

具体的には、図6(a)に示すように、同一方向から進入した2本の手(テラー401であるAさんが自身の左手と右手)による操作画面500のピンチイン/ピンチアウト操作であると検出した場合には、その操作に応じた操作画面500の拡大・縮小操作を可能にする(許可する)。一方、図6(b)に示すように、異なる方向から進入した2本の手(テラー401であるAさんの左手と顧客402の右手)による操作画面500のピンチイン/ピンチアウト操作であると検出した場合には、その操作に応じた操作画面500の拡大・縮小操作を不可能にする(禁止する)。但し、このような場合においては、マルチタッチ操作を構成するテラー401のシングルタッチ操作と顧客402のシングルタッチ操作の一方を有効として、そのシングルタッチ操作による動作(例えば、ドラッグ動作)を許容するようにしても良い。   Specifically, as shown in FIG. 6 (a), it is a pinch-in / pinch-out operation on the operation screen 500 with two hands that have entered from the same direction (Teller 401 is Mr. A's own left hand and right hand). Is detected, the enlargement / reduction operation of the operation screen 500 according to the operation is enabled (allowed). On the other hand, as shown in FIG. 6B, it is detected that the operation is a pinch-in / pinch-out operation on the operation screen 500 with two hands entering from different directions (the left hand of Mr. A who is the teller 401 and the right hand of the customer 402). In such a case, the enlargement / reduction operation of the operation screen 500 corresponding to the operation is disabled (prohibited). However, in such a case, one of the single touch operation of the teller 401 and the single touch operation of the customer 402 constituting the multi-touch operation is validated, and an operation (for example, a drag operation) by the single touch operation is allowed. Anyway.

また、図7に示すように、同一方向から進入した2本の手によるマルチタッチ操作を検出した場合には、更に、その2本の手の形を判別して、それらが同じ向きの手(例えば、右手と右手)の組み合わせである場合は、2人のユーザのそれぞれによるシングルタッチ操作であると判定するようにしても良い。   In addition, as shown in FIG. 7, when a multi-touch operation with two hands entering from the same direction is detected, the shape of the two hands is further determined, and the hands with the same orientation ( For example, in the case of a combination of a right hand and a right hand), it may be determined that the operation is a single touch operation by two users.

更には、図8に示すように、同一方向から進入した2本の手によるマルチタッチ操作を検出した場合には、更に、その2本の手の形を判別して、それらが所定の位置関係にない場合は、2人のユーザのそれぞれによるシングルタッチ操作であると判定するようにしても良い。ここで、所定の位置関係とは、例えば、人間が正面を向いているときに、右手が右側、左手が左側と、本来、物理的に各手が存在する通常の正しい位置関係を意味する。換言すれば、手の甲が見えるように各手を顔の正面にもってきたときに、各手の親指が互いに相対する位置関係である。タッチパネルを操作するときは、一般的には、手の甲を上にして操作するものであり、両手を使う場合にしても、わざわざ手を交差させて、マルチタッチ操作を行うことは通常はあり得ない。そのため、2本の手の位置関係が、この所定の位置関係を満足しない場合は、1人の操作者の両手(2本の手)によるマルチタッチ操作でないと判定することにしている。   Furthermore, as shown in FIG. 8, when a multi-touch operation with two hands entering from the same direction is detected, the shape of the two hands is further determined and they are in a predetermined positional relationship. If not, it may be determined that the operation is a single touch operation by two users. Here, the predetermined positional relationship means, for example, a normal correct positional relationship in which each hand is physically present, with the right hand on the right side and the left hand on the left side when a human is facing the front. In other words, when each hand is brought to the front of the face so that the back of the hand can be seen, the thumbs of each hand are in a positional relationship relative to each other. When operating the touch panel, it is generally operated with the back of the hand up, and even when using both hands, it is usually not possible to perform multi-touch operations by crossing hands. . Therefore, when the positional relationship between the two hands does not satisfy the predetermined positional relationship, it is determined that the multi-touch operation is not performed with one operator's hands (two hands).

尚、このような制御を行うにあたり、ピンチイン/ピンチアウト操作の操作者がテラー401であるか顧客402であるかを判定するようにしても良い。図3に示すように、本実施形態では、テラー401と顧客402は、テーブル400を挟んで対向するように着座している。そして、検出範囲410が投影範囲411を包含する関係にもなっている。そのため、操作画面上のGUI部品を指示するタイミングよりも前のタイミングで、操作者の手が投影範囲411内に進入してくる方向を検出できる。環境情報108dからテラー側、顧客側がいずれの方向にあるのかは判明しているので、ピンチイン/ピンチアウト操作を行う操作者の手が、テラー401のものであるか顧客402のものであるかを判定できることになる。   In performing such control, it may be determined whether the operator of the pinch-in / pinch-out operation is the teller 401 or the customer 402. As shown in FIG. 3, in this embodiment, the teller 401 and the customer 402 are seated so as to face each other with the table 400 interposed therebetween. The detection range 410 includes the projection range 411. Therefore, the direction in which the operator's hand enters the projection range 411 can be detected at a timing before the timing at which the GUI component on the operation screen is designated. Since it is known from the environmental information 108d in which direction the teller side or the customer side is, whether the operator's hand performing the pinch-in / pinch-out operation is for the teller 401 or the customer 402 is determined. It can be judged.

また、ここでは、ピンチイン/ピンチアウト操作の操作者がテラー401であるか顧客402であるかの判定は、手の進入方向から判定するものとするが、これに限定されない。例えば、ピンチイン/ピンチアウト操作を含むタッチ操は、一般に、人差し指で操作するものであるので、人差し指を突き出した手の外形パターンと向きから判定するようにしても良い。   Here, the determination of whether the operator of the pinch-in / pinch-out operation is the teller 401 or the customer 402 is determined from the approach direction of the hand, but is not limited to this. For example, a touch operation including a pinch-in / pinch-out operation is generally performed with an index finger, and therefore, it may be determined from the outer shape pattern and orientation of the hand protruding the index finger.

次に、本実施形態の図6〜図8で説明したようなユーザの操作に基づく操作画面の表示制御処理について、図9を用いて説明する。この表示制御処理は、CPU101が外部記憶装置108に記憶されているアプリケーションプログラム108bを読み出し、RAM103上で実行することで実現される。尚、この表示制御処理は、図4のステップS106の表示制御処理の詳細構成となる。   Next, an operation screen display control process based on a user operation as described in FIGS. 6 to 8 of the present embodiment will be described with reference to FIG. This display control processing is realized by the CPU 101 reading the application program 108 b stored in the external storage device 108 and executing it on the RAM 103. This display control process has the detailed configuration of the display control process in step S106 of FIG.

まず、ステップS201にて、CPU101は、GUI構成情報301に基づく操作画面が投影されている状態で、距離測定部117により検出範囲410内への手の挿入(進入)を検出する。ステップS202にて、CPU101は、タッチ操作の有無を検出して、タッチ操作を受け付けたか否かを判定する。ここでの判定は、検出範囲410内での複数個所のタッチ操作を検出する。複数個所のタッチ操作を検出することで、後述するステップS207以降の処理で、その複数個所のタッチ操作が、テラー401あるいは顧客402の単独のマルチタッチ操作、あるいは先に検出したタッチ操作の操作元のシングルタッチ操作のどちらであるかを判定することができる。   First, in step S <b> 201, the CPU 101 detects insertion (entrance) of a hand into the detection range 410 by the distance measurement unit 117 in a state where an operation screen based on the GUI configuration information 301 is projected. In step S202, CPU 101 detects the presence or absence of a touch operation and determines whether or not a touch operation has been accepted. In this determination, touch operations at a plurality of locations within the detection range 410 are detected. By detecting a touch operation at a plurality of locations, the touch operation at the plurality of locations is the single multi-touch operation of the teller 401 or the customer 402 or the operation source of the touch operation detected earlier in the processing after step S207 described later. It can be determined which of the single touch operations.

判定の結果、タッチ操作を受け付けていない場合(ステップS202でNO)、タッチ操作を受け付けるまで待機する。一方、タッチ操作を受け付けた場合(ステップS202でYES)、ステップS203にて、CPU101は、受け付けたタッチ操作を行う手の挿入元(テラー401側あるいは顧客402側、あるいはその両方)を特定する。この特定した挿入元を示す挿入元情報(テラー方向あるいは顧客方向、あるいはその両方向)は、手情報管理テーブル1300(図13)に手の挿入元1301として格納する。   If the result of determination is that a touch operation has not been accepted (NO in step S202), the process waits until a touch operation is accepted. On the other hand, when a touch operation is received (YES in step S202), in step S203, the CPU 101 specifies an insertion source (the teller 401 side or the customer 402 side, or both) of the hand performing the received touch operation. The insertion source information (teller direction or customer direction or both directions) indicating the specified insertion source is stored as the hand insertion source 1301 in the hand information management table 1300 (FIG. 13).

ステップS204にて、CPU101は、挿入元を特定した手の形を認識する。ステップS205にて、CPU101は、認識した手のこの認識した手の形からその種類(右手あるいは左手)を特定する。この特定した種類を示す種類情報(右あるいは左)は、先に特定した手の挿入元1301と対応付けて、手情報管理テーブル1300(図13)に手の種類1302として追加して格納する。尚、この手の形の認識とその向きの特定は、例えば、手の形と向きを判定するための基準パターンを利用するパターンマッチング技術を用いることで実現することができる。   In step S204, the CPU 101 recognizes the shape of the hand specifying the insertion source. In step S205, the CPU 101 specifies the type (right hand or left hand) from the recognized hand shape of the recognized hand. The type information (right or left) indicating the specified type is stored in association with the previously specified hand insertion source 1301 as a hand type 1302 in the hand information management table 1300 (FIG. 13). The recognition of the hand shape and the specification of the orientation thereof can be realized by using, for example, a pattern matching technique that uses a reference pattern for determining the shape and orientation of the hand.

ステップS206にて、CPU101は、特定した手の指先によるタッチ操作のタッチ位置を示す座標を特定する。タッチ操作のタッチ位置(操作画面に対する接触点)を示す座標は、例えば、検出範囲410をXY座標面として定義しておき、そのXY座標面で規定される座標情報を取得する。例えば、2つのタッチ位置を検出した場合には、2つの座標情報(X1,Y1)と(X2,Y2)を取得して、先に特定した手の挿入元1301と手の種類1302と対応付けて、RAM103上に確保される手情報管理テーブル1300(図13)に接触点1303として格納する。   In step S206, the CPU 101 specifies coordinates indicating the touch position of the touch operation with the fingertip of the specified hand. For the coordinates indicating the touch position of the touch operation (contact point with respect to the operation screen), for example, the detection range 410 is defined as an XY coordinate plane, and coordinate information defined on the XY coordinate plane is acquired. For example, when two touch positions are detected, two pieces of coordinate information (X1, Y1) and (X2, Y2) are acquired and associated with the previously specified hand insertion source 1301 and hand type 1302. Then, it is stored as the contact point 1303 in the hand information management table 1300 (FIG. 13) secured on the RAM 103.

まず、ステップS207にて、CPU101は、距離測定部117からの測定結果、撮像部116の撮像画像、及び手情報管理テーブル1300で管理されている情報に基づいて、挿入された手が1本あるいは2本であるかを判定する。   First, in step S <b> 207, the CPU 101 determines that one hand has been inserted based on the measurement result from the distance measurement unit 117, the captured image of the imaging unit 116, and information managed in the hand information management table 1300. Determine whether there are two.

尚、ステップS207の判定は、例えば、操作画面を表示してから所定時間範囲の間に実行する。つまり、距離測定部117と撮像部116は、操作画面が投影される投影面全体に対する測定と撮像を継続的に実行することで、投影面に進入してくる対象物(例えば、操作者の手)の移動の軌跡や挙動を把握することが可能となる。ここで、手等の対象物の進行(進入)方向や、動きの検出そのものの原理は、上述のように公知であるため、ここではその詳細については省略する。   Note that the determination in step S207 is executed during a predetermined time range after the operation screen is displayed, for example. In other words, the distance measuring unit 117 and the imaging unit 116 continuously perform measurement and imaging on the entire projection surface on which the operation screen is projected, so that an object entering the projection surface (for example, an operator's hand). ) Movement trajectory and behavior can be grasped. Here, since the principle of the advancing (approaching) direction of an object such as a hand and the detection of motion itself is known as described above, the details thereof are omitted here.

判定の結果、挿入された手が1本である場合、ステップS212にて、CPU101は、その挿入された手によるタッチ操作の対象のGUI部品を特定する。この特定は、手情報管理テーブル1300で管理されている情報によって特定される挿入された手によるタッチ操作のタッチ位置の座標情報が、GUI構成情報301に基づく操作画面内に配置されるGUI部品が占める領域に対応する座標範囲情報内にあるか否かで、タッチ操作の対象のGUI部品を特定する。   If the number of inserted hands is one as a result of the determination, in step S212, the CPU 101 identifies the GUI component that is the target of the touch operation with the inserted hand. For this specification, the coordinate information of the touch position of the touch operation by the inserted hand specified by the information managed in the hand information management table 1300 is the GUI component arranged in the operation screen based on the GUI configuration information 301. The GUI component to be touched is specified based on whether or not the coordinate range information corresponds to the occupied area.

ステップS213にて、特定したGUI部品が既に操作対象となっているか否かを判定する。判定の結果、既に操作対象となっている場合(ステップS213でYES)、例えば、他のタッチ操作によって既にそのGUI部品に対する操作が完了している場合は、処理対象のタッチ操作による操作を受け付けずに、ステップS215へ進む。一方、まだ、操作対象となっていない場合(ステップS213でNO)、ステップS214にて、CPU101は、挿入された手によって行われるタッチ操作はシングルタッチ操作であると判定して、シングルタッチ操作による処理(シングルタッチ操作処理)を実行する。但し、挿入された手が1本の場合でも、複数の指(例えば、親指と人差し指)を使用してマルチタッチ操作を行うことが可能である。そのため、ステップS207において挿入された手の本数を判定した後に行われたジェスチャ操作がマルチタッチ操作であると検出した場合には、そのまま、マルチタッチ操作を受け付けて、それに対応する動作(例えば、ピンチイン/ピンチアウト)を行うようにしても良い。   In step S213, it is determined whether or not the specified GUI component is already an operation target. As a result of the determination, if it is already an operation target (YES in step S213), for example, if an operation on the GUI component has already been completed by another touch operation, the operation by the touch operation to be processed is not accepted. Then, the process proceeds to step S215. On the other hand, if it is not yet an operation target (NO in step S213), in step S214, the CPU 101 determines that the touch operation performed by the inserted hand is a single touch operation, and the single touch operation is performed. Processing (single touch operation processing) is executed. However, even when the inserted hand is one, it is possible to perform a multi-touch operation using a plurality of fingers (for example, thumb and index finger). Therefore, when it is detected that the gesture operation performed after determining the number of inserted hands in step S207 is a multi-touch operation, the multi-touch operation is accepted as it is, and a corresponding operation (for example, pinch-in) is performed. / Pinch out) may be performed.

一方、判定の結果、挿入された手が2本である場合、ステップS208にて、CPU101は、距離測定部117からの測定結果、撮像部116の撮像画像、及び手情報管理テーブル1300で管理されている情報に基づいて、更に、その挿入された2本の手の進入方向が同一方向であるか否かを判定する。この判定は、特に、手情報管理テーブル1300で管理されている手の挿入元1301を参照することで、挿入された2本の手の進入方向が同一方向であるか否かを判定することができる。   On the other hand, if the number of inserted hands is two as a result of the determination, in step S208, the CPU 101 manages the measurement result from the distance measurement unit 117, the captured image of the imaging unit 116, and the hand information management table 1300. Further, it is determined whether or not the directions of approach of the two inserted hands are the same direction based on the received information. In particular, this determination can be made by referring to the hand insertion source 1301 managed in the hand information management table 1300 to determine whether or not the inserted directions of the two hands are the same direction. it can.

判定の結果、同一方向でない場合(ステップS208でNO)、ステップS212以降の処理を実行する。一方、判定の結果、同一方向である場合(ステップS208でYES)、ステップS209にて、CPU101は、その挿入された2本の手の向きの組み合わせが異なるか否かを判定する。尚、この向きの判定は、特に、手情報管理テーブル1300で管理されている手の種類1302を参照することで、挿入された2本の手の向きの組み合わせが異なるか否かを判定することができる。   As a result of the determination, if they are not in the same direction (NO in step S208), the processes after step S212 are executed. On the other hand, if the result of determination is that the directions are the same (YES in step S208), in step S209, the CPU 101 determines whether or not the combinations of orientations of the two inserted hands are different. Note that this orientation determination particularly determines whether or not the combinations of orientations of the two inserted hands are different by referring to the hand type 1302 managed in the hand information management table 1300. Can do.

判定の結果、挿入された2本の手の向きの組み合わせが同一である場合(ステップS209でNO)、例えば、図7で示したように、その挿入された2本の手が同じ向きの手(右手同士)である場合は、ステップS212以降の処理を実行する。一方、挿入された2本の手の向きの組み合わせが異なる場合(ステップS209でYES)、つまり、右手と左手の組み合わせである場合は、ステップS210にて、CPU101は、その挿入された2本の手の位置関係が正しいか否かを判定する。尚、2本の手の位置関係が正しいか否かの判定は、特に、挿入された2本の手それぞれに対する、手情報管理テーブル1300で管理されている接触点1303が示す座標情報を参照することで、その挿入された2本の手の位置関係が上述の図8で説明したような所定の位置関係であるか否かを判定することで行う。   As a result of the determination, if the combinations of orientations of the two inserted hands are the same (NO in step S209), for example, as shown in FIG. 7, the inserted two hands are in the same orientation. In the case of (right hands), the processing after step S212 is executed. On the other hand, if the combinations of orientations of the two inserted hands are different (YES in step S209), that is, if the combination is a right hand and a left hand, in step S210, the CPU 101 determines that the two inserted hands It is determined whether or not the hand positional relationship is correct. The determination as to whether the positional relationship between the two hands is correct refers to the coordinate information indicated by the contact point 1303 managed by the hand information management table 1300 for each of the two inserted hands. Thus, it is performed by determining whether or not the positional relationship between the two inserted hands is the predetermined positional relationship as described above with reference to FIG.

より具体的には、接触点1303のX座標の関係によって、手の位置関係が正しいか否かを判定する。本実施形態では、例えば、顧客方向から2本の手が挿入され、かつ、手の組み合わせが異なる場合であって、その2本の手の一方の手に対応する「手の種類1302」が「右」の接触点1303のX座標が、他方の手に対応する「手の種類1302」が「左」の接触点1303のX座標より小さい場合に、手の位置関係は正しくないと判定する。また、例えば、2本の手の「手の挿入元1301」がともに「テラー方向」であり、一方の手に対応する「手の種類1302」が「右」の接触点1303のX座標が、他方の手に対応する「手の種類1302」が「左」の接触点1303のX座標より小さい場合は、手の位置関係は正しいと判定する。   More specifically, it is determined whether the positional relationship of the hand is correct based on the relationship of the X coordinate of the contact point 1303. In the present embodiment, for example, when two hands are inserted from the customer direction and the combination of the hands is different, the “hand type 1302” corresponding to one hand of the two hands is “ If the X coordinate of the “right” contact point 1303 is smaller than the X coordinate of the “left” contact point 1303 of the “hand type 1302” corresponding to the other hand, it is determined that the positional relationship of the hand is not correct. Also, for example, the X coordinate of the contact point 1303 where the “hand insertion source 1301” of two hands is “Teller direction” and the “hand type 1302” corresponding to one hand is “right” is If the “hand type 1302” corresponding to the other hand is smaller than the X coordinate of the “left” contact point 1303, it is determined that the positional relationship of the hand is correct.

判定の結果、挿入された2本の手の位置関係が正しくない場合(ステップS201でNO)、ステップS212以降の処理を実行する。一方、挿入された2本の手の位置関係が正しい場合(ステップS210でYES)、ステップS211にて、CPU101は、挿入された2本の手による操作は、同一ユーザによるマルチタッチ操作であると判定して、マルチタッチ操作による処理(マルチタッチ操作処理)を実行する。   As a result of the determination, if the positional relationship between the inserted two hands is not correct (NO in step S201), the processing from step S212 is executed. On the other hand, when the positional relationship between the two inserted hands is correct (YES in step S210), in step S211, the CPU 101 determines that the operation with the two inserted hands is a multi-touch operation by the same user. Determination is made, and processing by multi-touch operation (multi-touch operation processing) is executed.

そして、ステップS214でのシングルタッチ操作処理、あるいはステップS211でのマルチタッチ操作処理の実行後、ステップS215にて、CPU101は、終了指示を受け付けたか否かを判定する。この判定は、例えば、操作画面上に用意されている終了ボタン等のボタンコントロール操作(タッチ操作)の有無に基づいて行う。   Then, after executing the single touch operation process in step S214 or the multi-touch operation process in step S211, in step S215, the CPU 101 determines whether an end instruction has been accepted. This determination is performed based on, for example, the presence or absence of a button control operation (touch operation) such as an end button prepared on the operation screen.

判定の結果、終了指示を受け付けていない場合(ステップS215でNO)、ステップS201に戻る。一方、終了指示を受け付けた場合(ステップS215でYES)、処理を終了する。   If the result of determination is that an end instruction has not been received (NO in step S215), processing returns to step S201. On the other hand, if an end instruction is accepted (YES in step S215), the process ends.

以上の処理によって、判定された操作元(操作内容)に基づいて、CPU101は、ジェスチャテーブル108eを参照して、対応する操作画面の表示制御を実行することになる。図10は、ジェスチャテーブル108eの一例であり、図6〜図8で示した操作例と表示制御例を実現するものである。   Through the above processing, based on the determined operation source (operation content), the CPU 101 refers to the gesture table 108e and executes display control of the corresponding operation screen. FIG. 10 shows an example of the gesture table 108e, which realizes the operation examples and display control examples shown in FIGS.

つまり、図10のジェスチャテーブル108eでは、以下のような操作画面に対する操作を制御するためのものとなっている。   That is, the gesture table 108e of FIG. 10 is for controlling operations on the following operation screen.

(1)シングルタッチ操作と判定した操作元が1本の手によるものである場合には、そのタッチ操作に応じた操作画面に対するドラッグ操作の実行
(2)シングルタッチ操作と判定した操作元が2本の手それぞれによるものである場合には、先に検出した手のユーザのタッチ操作に応じた操作画面に対するドラック操作の実行
(3)マルチタッチ操作と判定した操作元が同一ユーザの2本の手によるものである場合には、そのタッチ操作に応じた操作画面に対するピンチイン/ピンチアウト操作の実行
(4)マルチタッチ操作と判定した操作元が別ユーザの2本の手によるものである場合には、そのタッチ操作に応じた操作画面に対する操作の禁止
(1) When the operation source determined to be a single touch operation is by one hand, the drag operation is performed on the operation screen according to the touch operation. (2) The operation source determined to be a single touch operation is 2 In the case of each hand of the book, execution of the drag operation on the operation screen corresponding to the user's touch operation of the previously detected hand (3) The operation source determined to be multi-touch operation is two of the same user If it is by hand, execute a pinch-in / pinch-out operation on the operation screen corresponding to the touch operation. (4) When the operation source determined to be a multi-touch operation is by another user's two hands Prohibits operations on the operation screen according to the touch operation.

尚、図10に示すジェスチャテーブル108eは一例であり、用途や目的に応じて、ジェスチャ操作(シングル/マルチタッチ操作)に伴う操作画面に対する操作や表示制御のための設定を適宜定義することができる。例えば、図10では、シングルタッチ操作の操作元が2人の操作者の手それぞれによるものである場合には、先に検出した手のユーザのタッチ操作に応じた操作画面に対するドラック操作を実行するようにしているが、この場合も、そのシングルタッチ操作の実行を禁止するようにしても良い。このように、制御装置100は、投影面上に投影する画像に対する操作を検出することで、その操作を受け付けて、画像の表示を制御する表示制御装置としても機能する。   Note that the gesture table 108e illustrated in FIG. 10 is an example, and settings for operation and display control on the operation screen associated with the gesture operation (single / multi-touch operation) can be appropriately defined according to the use and purpose. . For example, in FIG. 10, when the operation source of the single touch operation is based on the hands of two operators, a drag operation is performed on the operation screen according to the touch operation of the user's previously detected hand. In this case, however, the execution of the single touch operation may be prohibited. As described above, the control device 100 also functions as a display control device that detects an operation on an image projected on the projection plane, accepts the operation, and controls display of the image.

また、上記実施形態では、ジェスチャ操作を行う操作者の手を操作画面の操作を行う操作元として、その操作画面への進入方向を判定するようにしているが、これに限定されない。例えば、操作元の操作画面への進入方向は、操作元である手に繋がる腕の方向に基づいて、操作画面への進入方向を判定するようにしても良い。また、操作元は、手や腕に限定されず、手に持つスタイラスやペン等の指示具であっても良い。あるいは、手等にマーカを施し、そのマーカの挙動を追跡することで、操作元の操作画面への進入方向を判定するようにしても良い。   Moreover, in the said embodiment, although the operator's hand who performs gesture operation is made into the operation origin which performs operation of an operation screen, the approach direction to the operation screen is determined, but it is not limited to this. For example, the approach direction to the operation screen of the operation source may be determined based on the direction of the arm connected to the hand that is the operation source. The operation source is not limited to the hand or arm, and may be an indicator such as a stylus or a pen held in the hand. Or you may make it determine the approach direction to the operation screen of the operation origin by giving a marker to a hand etc. and tracking the behavior of the marker.

また、図9の処理では、操作元の数(手の数)を判定してから、その後に行われるマルチタッチ操作に対応する動作を制御するようにしているが、その処理順序は、これに限定されない。マルチタッチ操作を検出してから、そのマルチタッチ操作の操作元とその数を判定した上で、そのマルチタッチ操作に対応する動作を制御するようにしているが、その処理順序はこれに限定されない。例えば、操作元の数(手の数)を判定しておき、その後に、マルチタッチ操作を検出した場合に、そのマルチタッチ操作に対応する動作を制御するようにしても良い。   In the process of FIG. 9, the number of operation sources (number of hands) is determined, and then the operation corresponding to the multi-touch operation performed thereafter is controlled. It is not limited. After detecting the multi-touch operation, the operation source and the number of the multi-touch operations are determined and then the operation corresponding to the multi-touch operation is controlled. However, the processing order is not limited to this. . For example, the number of operation sources (number of hands) may be determined, and when a multi-touch operation is detected thereafter, an operation corresponding to the multi-touch operation may be controlled.

上記実施形態では、検出範囲410に挿入される、検出対象の対象物が2本の手である場合を例に挙げて説明しているが、この対象物は、2本に限定されず、3本以上の複数の対象物についても、同様に、適用することができる。つまり、情報管理テーブル1300において、検出範囲410で検出した複数の対象物それぞれについての各種情報を管理しておくとともに、その対象物の数に応じて想定される対象物による操作の操作元の進入方向、組み合わせ、及び位置関係を適宜判定するようすれば良い。   In the above embodiment, the case where the detection target object inserted into the detection range 410 is two hands has been described as an example. However, the target object is not limited to two, and 3 The present invention can be similarly applied to a plurality of target objects. That is, in the information management table 1300, various information about each of the plurality of objects detected in the detection range 410 is managed, and the approach direction of the operation source of the operation by the object assumed according to the number of the objects, What is necessary is just to determine a combination and positional relationship suitably.

以上説明したように、本実施形態によれば、複数のユーザで操作画面(操作対象画像)が操作され得る環境においても、その操作状態に応じて、より適切な操作及び操作画面の表示制御を実行することができる。   As described above, according to the present embodiment, even in an environment where an operation screen (operation target image) can be operated by a plurality of users, more appropriate operation and display control of the operation screen are performed according to the operation state. Can be executed.

尚、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   Note that the present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus execute the program. It can also be realized by a process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:制御装置、101:CPU、102:ROM、103:RAM、104:ネットワークI/F、105:I/F、106:ビデオコントローラ、107:ストレージコントローラ、108:外部記憶装置、110:投影撮像装置、115:投影部、116:撮像部、117:距離測定部   100: control device, 101: CPU, 102: ROM, 103: RAM, 104: network I / F, 105: I / F, 106: video controller, 107: storage controller, 108: external storage device, 110: projection imaging Apparatus: 115: projection unit, 116: imaging unit, 117: distance measurement unit

上記の目的を達成するための本発明による情報処理装置は以下の構成を備える。即ち、
表示面に表示される画像に対するジェスチャ操作を検出して、そのジェスチャ操作に基づく動作を制御する情報処理装置であって、
記表示面上に進入する対象物を検出する検出手段と、
前記検出手段で検出した対象物の数とその進入方向を判定する判定手段と、
前記判定手段で判定した対象物の数とその進入方向に応じて、前記対象物によるジェスチャ操作の動作を制御する制御手段と
を備える。
In order to achieve the above object, an information processing apparatus according to the present invention comprises the following arrangement. That is,
An information processing apparatus that detects a gesture operation on an image displayed on a display surface and controls an operation based on the gesture operation,
Detecting means for detecting an object entering before Symbol display plane,
Determination means for determining the number of objects detected by the detection means and the approach direction thereof;
Control means for controlling the operation of the gesture operation by the object according to the number of objects determined by the determining means and the approach direction thereof.

Claims (14)

投影部から投影される画像に対するジェスチャ操作を検出して、そのジェスチャ操作に基づく動作を制御する情報処理装置であって、
前記投影部から画像が投影される投影面上に進入してくる対象物を検出する検出手段と、
前記検出手段で検出した対象物の数とその進入方向を判定する判定手段と、
前記判定手段で判定した対象物の数とその進入方向に応じて、前記対象物によるジェスチャ操作の動作を制御する制御手段と
を備えることを特徴とする情報処理装置。
An information processing apparatus that detects a gesture operation on an image projected from a projection unit and controls an operation based on the gesture operation,
Detecting means for detecting an object entering the projection surface on which an image is projected from the projection unit;
Determination means for determining the number of objects detected by the detection means and the approach direction thereof;
An information processing apparatus comprising: control means for controlling the operation of a gesture operation by the object according to the number of objects determined by the determining means and the approach direction thereof.
前記制御手段は、前記判定手段の判定の結果、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向でない場合には、該複数の対象物によって行われるタッチ操作は、該複数の対象物の少なくともいずれかによるシングルタッチ操作として、その動作を制御する
ことを特徴とする請求項1に記載の情報処理装置。
When the number of the objects is plural and the approach directions of the plural objects are not the same direction as a result of the determination by the determining means, the control means performs a touch operation performed by the plural objects. The information processing apparatus according to claim 1, wherein the operation is controlled as a single touch operation by at least one of the plurality of objects.
前記判定手段は、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向である場合、更に、前記複数の対象物の向きの組み合わせを判定し、
前記制御手段は、前記判定手段の判定の結果、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ該複数の対象物の向きの組み合わせが同一である場合には、該複数の対象物によって行われるタッチ操作は、該複数の対象物の少なくともいずれかによるシングルタッチ操作として、その動作を制御する
ことを特徴とする請求項1または2に記載の情報処理装置。
The determination means determines the combination of the directions of the plurality of objects when the number of the objects is plural and the approach directions of the plural objects are the same direction,
As a result of the determination by the determination means, the control means has a plurality of the objects, the entry directions of the objects are the same, and the combinations of the directions of the objects are the same. In some cases, the touch operation performed by the plurality of objects is controlled as a single touch operation by at least one of the plurality of objects. Information processing device.
前記判定手段は、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ前記複数の対象物の向きの組み合わせが異なる場合には、更に、前記複数の対象物の位置関係を判定し、
前記制御手段は、前記判定手段の判定の結果、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ該複数の対象物の向きの組み合わせが異なり、かつ該複数の対象物の位置関係が所定の位置関係にない場合には、該複数の対象物によって行われるタッチ操作は、該複数の対象物の少なくともいずれかによるシングルタッチ操作として、その動作を制御する
ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
In the case where the number of the objects is plural, the approach directions of the plural objects are the same direction, and the combinations of the directions of the plural objects are different, the determination unit further includes the plural objects. Determine the positional relationship of the object,
As a result of the determination by the determination unit, the control unit has a plurality of the objects, and the entry directions of the plurality of objects are the same direction, and the combinations of the directions of the plurality of objects are different. If the positional relationship between the plurality of objects is not a predetermined positional relationship, the touch operation performed by the plurality of objects is performed as a single touch operation by at least one of the plurality of objects. The information processing apparatus according to claim 1, wherein the information processing apparatus is controlled.
前記判定手段は、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ前記複数の対象物の向きの組み合わせが異なる場合には、更に、前記複数の対象物の位置関係を判定し、
前記制御手段は、前記判定手段の判定の結果、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ該複数の対象物の向きの組み合わせが異なり、かつ該複数の対象物の位置関係が所定の位置関係にある場合には、該複数の対象物によって行われるタッチ操作は、該複数の対象物によるマルチタッチ操作として、その動作を制御する
ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
In the case where the number of the objects is plural, the approach directions of the plural objects are the same direction, and the combinations of the directions of the plural objects are different, the determination unit further includes the plural objects. Determine the positional relationship of the object,
As a result of the determination by the determination unit, the control unit has a plurality of the objects, and the entry directions of the plurality of objects are the same direction, and the combinations of the directions of the plurality of objects are different. When the positional relationship between the plurality of objects is a predetermined positional relationship, a touch operation performed by the plurality of objects is controlled as a multi-touch operation by the plurality of objects. The information processing apparatus according to any one of claims 1 to 3, wherein the information processing apparatus is characterized in that:
投影部から投影される画像に対するジェスチャ操作を検出して、そのジェスチャ操作に基づく動作を制御する情報処理装置であって、
前記投影部から画像が投影される投影面上での対象物によるマルチタッチ操作を検出した場合、その対象物の数とその進入方向を判定する判定手段と、
前記判定手段で判定した対象物の数とその進入方向に応じて、前記対象物によるマルチタッチ操作の動作を制御する制御手段と
を備えることを特徴とする情報処理装置。
An information processing apparatus that detects a gesture operation on an image projected from a projection unit and controls an operation based on the gesture operation,
When detecting a multi-touch operation by an object on a projection surface on which an image is projected from the projection unit, a determination unit that determines the number of objects and an approach direction thereof,
An information processing apparatus comprising: control means for controlling the operation of a multi-touch operation by the object according to the number of objects determined by the determining means and the approach direction thereof.
前記制御手段は、前記判定手段の判定の結果、前記マルチタッチ操作が複数の対象物によるものであり、かつ前記複数の対象物それぞれのその進入方向が同一方向でない場合には、前記マルチタッチ操作を、該複数の対象物の少なくともいずれかによるシングルタッチ操作として、その動作を制御する
ことを特徴とする請求項6に記載の情報処理装置。
If the multi-touch operation is performed by a plurality of objects and the approach directions of the plurality of objects are not the same direction as a result of the determination by the determination unit, the control unit performs the multi-touch operation. The information processing apparatus according to claim 6, wherein the operation is controlled as a single touch operation by at least one of the plurality of objects.
前記判定手段は、前記マルチタッチ操作が複数の対象物によるものであり、かつ前記複数の対象物それぞれのその進入方向が同一方向である場合、更に、前記複数の対象物の向きの組み合わせを判定し、
前記制御手段は、前記判定手段の判定の結果、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ該複数の対象物の向きの組み合わせが同一である場合には、前記マルチタッチ操作を、該複数の対象物の少なくともいずれかによるシングルタッチ操作として、その動作を制御する
ことを特徴とする請求項6または7に記載の情報処理装置。
The determination means further determines a combination of directions of the plurality of objects when the multi-touch operation is performed by a plurality of objects and the approach directions of the plurality of objects are the same direction. And
As a result of the determination by the determination means, the control means has a plurality of the objects, the entry directions of the objects are the same, and the combinations of the directions of the objects are the same. 8. The information processing apparatus according to claim 6, wherein in some cases, the multi-touch operation is controlled as a single touch operation by at least one of the plurality of objects.
前記判定手段は、前記マルチタッチ操作が複数の対象物によるものであり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ前記複数の対象物の向きの組み合わせが異なる場合には、更に、前記複数の対象物の位置関係を判定し、
前記制御手段は、前記判定手段の判定の結果、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ該複数の対象物の向きの組み合わせが異なり、かつ該複数の対象物の位置関係が所定の位置関係にない場合には、前記マルチタッチ操作を、該複数の対象物の少なくともいずれかによるシングルタッチ操作として、その動作を制御する
ことを特徴とする請求項6乃至8のいずれか1項に記載の情報処理装置。
In the case where the multi-touch operation is performed by a plurality of objects, the approach directions of the plurality of objects are the same direction, and the combinations of the directions of the plurality of objects are different. And determining a positional relationship between the plurality of objects,
As a result of the determination by the determination unit, the control unit has a plurality of the objects, and the entry directions of the plurality of objects are the same direction, and the combinations of the directions of the plurality of objects are different. When the positional relationship between the plurality of objects is not a predetermined positional relationship, the multi-touch operation is controlled as a single touch operation by at least one of the plurality of objects. The information processing apparatus according to any one of claims 6 to 8.
前記判定手段は、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ前記複数の対象物の向きの組み合わせが異なる場合には、更に、前記複数の対象物の位置関係を判定し、
前記制御手段は、前記判定手段の判定の結果、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ該複数の対象物の向きの組み合わせが異なり、かつ該複数の対象物の位置関係が所定の位置関係にある場合には、前記マルチタッチ操作を、該複数の対象物によるマルチタッチ操作として、その動作を制御する
ことを特徴とする請求項6乃至8のいずれか1項に記載の情報処理装置。
In the case where the number of the objects is plural, the approach directions of the plural objects are the same direction, and the combinations of the directions of the plural objects are different, the determination unit further includes the plural objects. Determine the positional relationship of the object,
As a result of the determination by the determination unit, the control unit has a plurality of the objects, and the entry directions of the plurality of objects are the same direction, and the combinations of the directions of the plurality of objects are different. When the positional relationship between the plurality of objects is a predetermined positional relationship, the multi-touch operation is controlled as the multi-touch operation by the plurality of objects. The information processing apparatus according to any one of 1 to 8.
前記対象物は、前記ジェスチャ操作を行う操作者の手である
ことを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the object is a hand of an operator who performs the gesture operation.
投影部から投影される画像に対するジェスチャ操作を検出して、そのジェスチャ操作に基づく動作を制御する情報処理装置の制御方法であって、
前記投影部から画像が投影される投影面上に進入してくる対象物を検出する検出工程と、
前記検出工程で検出した対象物の数とその進入方向を判定する判定工程と、
前記判定工程で判定した対象物の数とその進入方向に応じて、前記対象物によるジェスチャ操作の動作を制御する制御工程と
を備えることを特徴とする情報処理装置の制御方法。
A method for controlling an information processing apparatus that detects a gesture operation on an image projected from a projection unit and controls an operation based on the gesture operation,
A detection step of detecting an object entering the projection surface on which an image is projected from the projection unit;
A determination step of determining the number of objects detected in the detection step and its approach direction;
A control method for controlling an information processing apparatus, comprising: a control step of controlling a gesture operation performed by the target object according to the number of target objects determined in the determination step and an approach direction thereof.
投影部から投影される画像に対するジェスチャ操作を検出して、そのジェスチャ操作に基づく動作を制御する情報処理装置の制御方法であって、
前記投影部から画像が投影される投影面上での対象物によるマルチタッチ操作を検出した場合、その対象物の数とその進入方向を判定する判定工程と、
前記判定工程で判定した対象物の数とその進入方向に応じて、前記対象物によるマルチタッチ操作の動作を制御する制御工程と
を備えることを特徴とする情報処理装置の制御方法。
A method for controlling an information processing apparatus that detects a gesture operation on an image projected from a projection unit and controls an operation based on the gesture operation,
When a multi-touch operation by an object on the projection surface on which an image is projected from the projection unit is detected, a determination step of determining the number of the objects and an approach direction thereof,
A control method for controlling an information processing apparatus, comprising: a control step of controlling an operation of a multi-touch operation by the object according to the number of objects determined in the determination step and an approach direction thereof.
コンピュータを、請求項1乃至11のいずれか1項に記載の情報処理装置の各手段として機能させるための、または請求項11または12に記載の制御方法をコンピュータに実行させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus of any one of Claims 1 thru | or 11, or making a computer perform the control method of Claim 11 or 12.
JP2014263283A 2014-12-25 2014-12-25 Information processing apparatus, control method therefor, and program Active JP6166250B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014263283A JP6166250B2 (en) 2014-12-25 2014-12-25 Information processing apparatus, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014263283A JP6166250B2 (en) 2014-12-25 2014-12-25 Information processing apparatus, control method therefor, and program

Publications (2)

Publication Number Publication Date
JP2016122410A true JP2016122410A (en) 2016-07-07
JP6166250B2 JP6166250B2 (en) 2017-07-19

Family

ID=56329018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014263283A Active JP6166250B2 (en) 2014-12-25 2014-12-25 Information processing apparatus, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP6166250B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003304A1 (en) * 2017-06-27 2019-01-03 マクセル株式会社 Projection image display system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007089732A (en) * 2005-09-28 2007-04-12 Aruze Corp Input device
JP2012181612A (en) * 2011-02-28 2012-09-20 Fujitsu Ltd Touch panel device, operation determination method and operation determination program
JP2014016803A (en) * 2012-07-09 2014-01-30 Konica Minolta Inc Operation display device and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007089732A (en) * 2005-09-28 2007-04-12 Aruze Corp Input device
JP2012181612A (en) * 2011-02-28 2012-09-20 Fujitsu Ltd Touch panel device, operation determination method and operation determination program
JP2014016803A (en) * 2012-07-09 2014-01-30 Konica Minolta Inc Operation display device and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003304A1 (en) * 2017-06-27 2019-01-03 マクセル株式会社 Projection image display system

Also Published As

Publication number Publication date
JP6166250B2 (en) 2017-07-19

Similar Documents

Publication Publication Date Title
US9146672B2 (en) Multidirectional swipe key for virtual keyboard
CA2738185C (en) Touch-input with crossing-based widget manipulation
US8884907B2 (en) Multi-touch manipulation of application objects
KR101872533B1 (en) Three-state touch input system
ES2663546T3 (en) Interpretation of ambiguous inputs on a touch screen
US20090231281A1 (en) Multi-touch virtual keyboard
US20140306897A1 (en) Virtual keyboard swipe gestures for cursor movement
US20110007029A1 (en) System and method for multi-touch interactions with a touch sensitive screen
US10540132B2 (en) Remote device control via transparent display
US20100265178A1 (en) Camera-based multi-touch mouse
CN101869484B (en) Medical diagnosis device having touch screen and control method thereof
WO2022055755A2 (en) User input interfaces
TW201403386A (en) Eye controlling method and system
US20140282228A1 (en) Dynamically Enable, Variable Border Area for Touch Solution with a Bezel
CN108885556B (en) Controlling digital input
JP5882270B2 (en) Information processing apparatus and program
JP6166250B2 (en) Information processing apparatus, control method therefor, and program
JP6213613B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP6495651B2 (en) Information processing apparatus, control method therefor, program, and computer-readable storage medium
Liang et al. BrushLens: Hardware Interaction Proxies for Accessible Touchscreen Interface Actuation
JP6327834B2 (en) Operation display device, operation display method and program
KR20140086805A (en) Electronic apparatus, method for controlling the same and computer-readable recording medium
Athira Touchless technology
Nakamura et al. Distinction system of left and right hands placed on a keyboard of laptop computers
WO2023026567A1 (en) Information processing device, information processing method, and computer program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170622

R150 Certificate of patent or registration of utility model

Ref document number: 6166250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250