JP2016122410A - Information processing apparatus, control method of the same, and program - Google Patents
Information processing apparatus, control method of the same, and program Download PDFInfo
- Publication number
- JP2016122410A JP2016122410A JP2014263283A JP2014263283A JP2016122410A JP 2016122410 A JP2016122410 A JP 2016122410A JP 2014263283 A JP2014263283 A JP 2014263283A JP 2014263283 A JP2014263283 A JP 2014263283A JP 2016122410 A JP2016122410 A JP 2016122410A
- Authority
- JP
- Japan
- Prior art keywords
- objects
- touch operation
- directions
- information processing
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、投影部から投影される画像に対するジェスチャ操作を検出して、そのジェスチャ操作に基づく動作を制御する情報処理技術に関するものである。 The present invention relates to an information processing technique for detecting a gesture operation on an image projected from a projection unit and controlling an operation based on the gesture operation.
銀行にてローン等の契約を行う場合、行員(以下、「テラー」という)は顧客と対面形式にて商品説明や、契約書作成に必要な事項の説明を行うことが義務づけられている。そして、顧客はテラーより説明を受けたことを示すため、所定の欄に記名、捺印等を行うのが一般的である。また、係る業務を、半ば電子的に行うシステムも提案されている(特許文献1)。 When making a loan contract at a bank, a bank employee (hereinafter referred to as “Teller”) is obliged to explain the items necessary for creating a contract or a product explanation in a face-to-face manner with a customer. Then, in order to indicate that the customer has received an explanation from the teller, it is common to put a name, a seal, etc. in a predetermined column. In addition, a system that performs such work semi-electronically has also been proposed (Patent Document 1).
また、タブレット等の端末を使用して、手続に関する操作を容易にしたり、必要な書類の記入を簡素化したりするものもある。また、プロジェクタによって手続に関する操作画面を机上に投影し、その操作画面に対する手指等によるジェスチャをカメラで検出することで、手続に関する情報の入力や案内を行う技術が存在する(特許文献2)。 There are also devices that use a terminal such as a tablet to facilitate operations related to procedures and simplify the entry of necessary documents. In addition, there is a technique for projecting information related to a procedure and projecting information by projecting an operation screen related to the procedure on a desk using a projector and detecting a gesture with a finger or the like on the operation screen with a camera (Patent Document 2).
特許文献2で示されるようなシステムでは、机上に投影される操作画面に対する、タブレットやスマートフォンのようなタッチパネルを有するデバイスにおけるタッチ操作を、ジェスチャを検出するカメラを利用することで実現可能にしている。このタッチ操作には、1点のタッチによるシングルタッチ、2点のタッチによるマルチタッチ操作がある。マルチタッチ操作の一例には、図11に示すように、1人のユーザ(Aさん)の右手と左手それぞれの人差し指(あるいは一方の手に親指と人差し指)によって、操作画面500を拡縮するピンチアウト/ピンチイン操作がある。
In a system such as that disclosed in Patent Document 2, a touch operation on a device having a touch panel such as a tablet or a smartphone with respect to an operation screen projected on a desk can be realized by using a camera that detects a gesture. . This touch operation includes a single touch by one point touch and a multi-touch operation by two point touch. As an example of the multi-touch operation, as shown in FIG. 11, a pinch out that expands / contracts the
しかしながら、このようなマルチタッチ操作を受け付けることが可能な操作画面を、テラーと顧客とが対面して各種手続を行うような業務で利用する場合には、テラーと顧客とが同時に操作画面を操作し得る環境にある。つまり、複数人で操作画面のタッチ操作を行う可能性が生じる。そして、図12に示すように、複数人が操作画面500を操作し得る状況では、1人のユーザ(Aさん)によるマルチタッチ操作と、複数人のユーザ(AさんとBさん)それぞれによるシングルタッチ操作が発生し得るが、従来のシステムでは、どちらの操作もマルチタッチ操作として認識してしまい、両者を区別することができない。そのため、その操作内容によって、ユーザが意図する動作が実現されず、利便性や操作性が欠けているところがある。
However, when such an operation screen that can accept multi-touch operations is used in operations where the teller and the customer face each other and perform various procedures, the teller and the customer operate the operation screen at the same time. It is in an environment that can. That is, there is a possibility that a plurality of people perform touch operations on the operation screen. Then, as shown in FIG. 12, in a situation where a plurality of people can operate the
本願は上記の課題を鑑みてなされたものであり、操作画面に対する操作性を向上することができる技術を提供することを目的とする。 The present application has been made in view of the above-described problems, and an object thereof is to provide a technique capable of improving operability with respect to an operation screen.
上記の目的を達成するための本発明による情報処理装置は以下の構成を備える。即ち、
投影部から投影される画像に対するジェスチャ操作を検出して、そのジェスチャ操作に基づく動作を制御する情報処理装置であって、
前記投影部から画像が投影される投影面上に進入してくる対象物を検出する検出手段と、
前記検出手段で検出した対象物の数とその進入方向を判定する判定手段と、
前記判定手段で判定した対象物の数とその進入方向に応じて、前記対象物によるジェスチャ操作の動作を制御する制御手段と
を備える。
In order to achieve the above object, an information processing apparatus according to the present invention comprises the following arrangement. That is,
An information processing apparatus that detects a gesture operation on an image projected from a projection unit and controls an operation based on the gesture operation,
Detecting means for detecting an object entering the projection surface on which an image is projected from the projection unit;
Determination means for determining the number of objects detected by the detection means and the approach direction thereof;
Control means for controlling the operation of the gesture operation by the object according to the number of objects determined by the determining means and the approach direction thereof.
本発明によれば、操作画面に対する操作性を向上することができる技術を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which can improve the operativity with respect to an operation screen can be provided.
以下、本発明の実施の形態について図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
本実施形態におけるシステムは、銀行で利用される例を説明する。また、以下の説明では、銀行側の者(行員)をテラーとし、顧客と区別して説明する。尚、銀行を例にしたのは、これは業務を具現化することで理解を容易にするためであって、生命保険会社等、対面にて商品の売買や契約を行う類であれば利用可能であり、これに限定されない。あくまで例であることに注意されたい。 An example in which the system in the present embodiment is used in a bank will be described. Moreover, in the following description, a banker (banker) is assumed to be a teller and is described separately from a customer. The bank was used as an example in order to facilitate understanding by embodying the business, and it can be used if it is a life insurance company, etc. that sells or contracts products in person. However, the present invention is not limited to this. Note that this is an example only.
図1は本実施形態におけるシステムの外観構成図であり、図2はそのブロック構成図である。本システムは、情報処理装置として、システム全体の制御を司る制御装置100を有する。そして、この制御装置100には、投影撮像装置110をはじめ、ユーザとの間のユーザインターフェースとして機能するディスプレイ120、入力デバイス(キーボードやマウス等)130が接続されている。また、制御装置100は、業務に係る基幹ネットワーク(不図示)とも接続される。
FIG. 1 is an external configuration diagram of a system in the present embodiment, and FIG. 2 is a block configuration diagram thereof. This system includes a
制御装置100は、通常のPC(パーソナルコンピュータ)等と同様のハードウェア構成を備える。制御装置100は、プログラムに従って処理を行うCPU101、ブートプログラムやBIOS等を記憶するROM102、CPU101が実行するOSやアプリケーションを格納するため、並びにCPU101がワークエリアとして利用するRAM103を有する。また、制御装置100は、投影撮像装置110と通信するためのI/F部105、CPU101の指示に従って描画処理やビデオ信号の出力処理等を行うビデオコントローラ106を有する。更に、制御装置100は、ハードディスク(HDD)に代表される外部記憶装置108に対する読み書きを行うストレージコントローラ107、基幹ネットワーク(特に、ネットワークプリンタ)と通信するためのネットワークI/F104を有する。外部記憶装置108には、オペレーティングシステム(OS)108a、対面システムとして機能させるためのアプリケーションプログラム108bをはじめ、シートデータベース(シートDB)108c、環境情報108d及びジェスチャテーブル(ジェスチャTL)108eが格納されている。尚、シートDB108c及びジェスチャTL108eの詳細については後述する。
The
投影撮像装置110は、その筐体内に、制御装置100と通信するためのI/F部118、投影部115、撮像部116、距離測定部117を収容している。投影撮像装置110には、投影部115から出射した投影光を通過させるための開口部111が設けられている。更に、撮像部116並びに距離測定部117に共有され、外部からの光(赤外線を含む)を入射するための開口部112も設けられている。
The
投影部115は、制御装置100から要求された画像を表す投影光を開口部112を介して天板113に向け、且つ、若干斜め方向に出射する。天板113の下面側にはミラーが設けられており、投影部115からの投影光を反射する。この結果、図1における投影撮像装置110の設置位置より手前側の領域(実際には、テーブルの上面)が投影スクリーンとして、その画像を表示することになる。尚、出射する方向を斜めにするのではなく、天板113を傾けても構わない。
The
また、撮像部116並びに距離測定部117は、天板113のミラーを介して、投影部115によるテーブル上の投影領域よりも広い範囲を撮像範囲、又は、測距範囲として設定されている。撮像部116は通常のデジタルカメラに代表される撮像装置と同じ構成であり、テーブルの撮影範囲内の画像を光学的に読み取るものである。距離測定部117は、奥行きを検出するものであり、予め設定されたパターンを示す赤外線を照射する照射部と、その対象物から反射赤外線を検出するセンサで構成される。そして、撮像部116で得らえた画像データと、距離測定部117より検出された距離データの時間軸に対する変化に基づき、制御装置100のCPU101による処理によって、ユーザの手指の大きさや動き(例えば、移動方向や、手指が指し示す向き等)、手指でテーブルをタップする操作(ジェスチャ)の検出処理が実現する。
In addition, the
尚、画像と赤外線によるパターン照射/検出によって、ユーザのジェスチャを検出する技術は公知(例えば、米国マイクロソフト社のKINECT(商標))であるので、ここでは、その詳細については省略する。但し、ユーザのジェスチャを検出することができれば良く、その構成、原理は特に問わない。また、投影撮像装置110の筐体内に十分なスペースがあれば、制御装置100を構成する回路を投影撮像装置110に内蔵させることで、これらを一体化しても構わない。
Since a technique for detecting a user's gesture by pattern irradiation / detection using an image and infrared rays is publicly known (for example, KINTECT (trademark) of Microsoft Corporation in the United States), details thereof are omitted here. However, the configuration and the principle are not particularly limited as long as the user's gesture can be detected. Further, if there is a sufficient space in the housing of the
上記構成において、本装置の電源がONになると、CPU101はROM102に格納されたブートプログラムを実行し、外部記憶装置108に格納されたOS108aをRAM103にロードし実行する。そして、そのOSの制御下にて、外部記憶装置108から対面システムのアプリケーションプログラム108bをRAM103にロードして、実行させる。この結果、本システムが銀行業務の対面システムとして機能することになる。
In the above configuration, when the power of the apparatus is turned on, the
図3は図1に示すシステムの利用形態を示している。本実施形態では、図示のように、テラー(行員)401と顧客402がテーブル400を間に挟み、それぞれが椅子に座って対面して業務を行うような対面システムを想定している。また、テーブル400には、ディスプレイ120、入力デバイス130がテラー401が操作しやすい位置に配置されている。また、投影撮像装置110は、その天板113によって斜め方向から投影光がテーブル400に向けて照射することになるので、テラー401と顧客402が向かい合った際に、邪魔にならない位置に載置することが可能である。この結果、テーブル400の、テラー401と顧客402との間には十分なスペースが確保され、撮像部116及び距離測定部117の検出範囲410、投影部115による投影範囲411が確保される。
FIG. 3 shows a usage pattern of the system shown in FIG. In this embodiment, as shown in the figure, a face-to-face system is assumed in which a teller (customer) 401 and a
尚、検出範囲410、投影範囲411が示す矩形は、シート画像等の画像の投影面であるテーブル400上にそれぞれの範囲が規定されていることを示すためであって、その境界線が表示されることを意図するものではない。また、制御装置100は、例えばテラー側のテーブル400の下に配置するものとする。
Note that the rectangles indicated by the
次に、対面システムの基本処理について、図4を用いて説明する。この基本処理は、CPU101が外部記憶装置108に記憶されているアプリケーションプログラム108bを読み出し、RAM103上で実行することで実現される。
対面システムの処理内容を、特に、CPU101の処理手順として説明する。
Next, basic processing of the facing system will be described with reference to FIG. This basic processing is realized by the
The processing contents of the face-to-face system will be described as a processing procedure of the
本システムが稼働すると、テラー401と顧客402との間のテーブル400上(の投影範囲411)に、投影撮像装置110から各種のシート画像が投影表示される。そして、テラー401はその都度解説や説明を行い、顧客402はその投影内容とテラー401の説明を理解したことの意思を示していって、手続きを進めていく。かかる手続きをCPU101の処理で示せば、以下の通りである。CPU101は、外部記憶装置108から投影すべきシート画像の選択と選択したシート画像を投影部115に表示させる処理、並びに、テラー401及び顧客402の操作をジェスチャとして、撮像部116及び距離測定部117によって認識していく。そして、次に、表示すべきシート画像の選択等と処理を繰り返し、最終シート画像の表示で、テラー401と顧客402が合意したことを示すジェスチャを検出した際に、その処理を終了する。
When this system is operated, various sheet images are projected and displayed from the
以下、更に詳しく説明する。図4は対面システムのアプリケーションプログラム108bを実行した際のCPU101の処理手順を示すフローチャートである。
This will be described in more detail below. FIG. 4 is a flowchart showing the processing procedure of the
本アプリケーションが実行されると、まず、ステップS101にて、CPU101は、メニュー画面をディスプレイ120に表示し、テラー401に項目の1つを選択させる。表示する項目は、「住宅ローンの借り入れ手続」、「口座開設の手続」等の銀行にて対面で手続を行うものが含まれる。但し、項目の1つには「環境設定」が含まれるものとする。
When this application is executed, first, in step S101, the
ステップS102にて、CPU101は、テラー401による入力デバイス130の操作による選択メニューにおける項目の選択の有無を判定する。選択がない場合(ステップS102でNO)、選択されるまで待機する。一方、選択がある場合(ステップS102でYES)、ステップS103にて、CPU101は、その選択した項目が「環境設定」であるか否かを判定する。
In step S <b> 102, the
判定の結果、環境設定である場合(ステップS103でYES)、ステップS104にて、CPU101は、環境設定に関する処理を行う。この環境設定は、投影撮像装置110がテラー401から見て右側に設置するのか、左側に設置するのかを設定するためである。投影撮像装置110がテーブル400上に投影することになるシート画像は、テラー側、顧客側の向きがあり、その向きと座席についているテラー401、顧客402の位置関係の整合性を取るためである。設定が完了すると、CPU101は、その設定内容を外部記憶装置108の環境情報108dとして保存する。
If the result of determination is environment setting (YES in step S103), in step S104, the
尚、投影撮像装置110の配置位置を変更しない限り、この環境設定を行う必要はない。つまり、CPU101は、シート画像を投影部115に投影させる際に、この環境情報108dに記憶された情報に従って、必要に応じてシート画像の向きを180°回転させて表示させる。また、起動時の初期段階にて、CPU101は、環境情報108dに記憶された情報に従い、現在設定されたテラー、顧客側がいずれの方向に設定されているのかを示すテストメッセージを表示させ、環境設定の必要性をテラー401に報知しても良い。例えば、顧客402から見て正立して見える「ご相談を承ります」というメッセージを表示する。テラー401から見てそのメッセージが逆さまに見えれば、正しい環境設定がなされていると判断できる。
Note that this environment setting need not be performed unless the arrangement position of the
判定の結果、環境設定でない場合(ステップS103でNO)、つまり、テラー401は、顧客402の相談目的から、該当するメニュー項目を入力デバイス130を操作して選択することになる。CPU101は、この選択がなされたことを検出すると、ステップS105にて、CPU101は、外部記憶装置108のシートDB108cを参照して、選択した手続きのGUI構成情報を読み込む。そして、ステップS106にて、CPU101は、読み込んだGUI構成情報に基づいて、シート画像をテーブル400に投影し、その投影されたシート画像に対する操作(ジェスチャ)とに基づいて、そのシート画像の表示制御処理を実行する。また、この表示制御処理に伴って、テラー401と顧客402の双方のジェスチャ操作の認識処理とを行い、テラー401と顧客402との間のやりとりを支援しながら、手続の支援処理を実行する。尚、このジェスチャに伴うシート画像の表示制御においては、CPU101は、例えば、ジェスチャテーブル108eに登録されている内容に基づいて行う。このジェスチャテーブル108eの詳細については後述する。
As a result of the determination, if the environment is not set (NO in step S103), that is, the
ここで、シートDB108cの構成について、図5を用いて説明する。
Here, the configuration of the
シートDB108cは、図5に示すように、ステップS101にて表示するメニュー項目を単位として管理されている。そして、各項目には、それぞれにおける手続きの推移と利用するシート画像を記述したGUI構成情報が格納されている。本実施形態では、この内、「住宅ローンの申請」項目300を例にして説明するので、それに含まれるGUI構成情報301について説明する。このGUI構成情報301は、住宅ローンの借り入れ申請に係る手続きと、その際に利用するシート画像の表示形式を記述するGUIシート情報302を特定する情報が記述されている。
As shown in FIG. 5, the
テラー401と顧客402との間の手続きとしては、例えば、(1)顧客登録、(2)商品説明、(3)ローンのシミュレーション、(4)書類読取、(5)今後の手続きの説明の、5段階がある。そして、図5のGUIシート情報302では、(1)〜(5)の各手続において投影するシート画像(GUI)の表示形態を記述するフォーム情報(「顧客登録フォーム」、「商品説明フォーム」、...)が管理される。また、フォーム情報には、テラー側、顧客側の方向に関する記述も含まれており、且つ、複数のフォームも入れ子式で記述可能としている。
The procedures between the
尚、図5では、「住宅ローンの申請」項目300に対して管理する情報の具体例を示しているが、必要な各種項目(例えば、「口座開設」項目350)毎に、必要な情報が適宜、シートDB108c上で管理されていることは言うまでもない。
FIG. 5 shows a specific example of information managed for the “application for mortgage”
本実施形態では、図3に示すような対面システムにおいて、操作画面に対するマルチタッチ操作によるピンチイン/ピンチアウト操作が、同一方向からの1人のユーザの2本の手によるものか、異なる方向からの2人のユーザのそれぞれの手によるものかを判定して、後者である場合は、ピンチイン/ピンチアウト操作の実行を禁止する(ピンチイン/ピンチアウト操作を無効にする)。 In the present embodiment, in the face-to-face system as shown in FIG. 3, whether the pinch-in / pinch-out operation by the multi-touch operation on the operation screen is performed by two hands of one user from the same direction or from different directions. It is determined whether each of the two users is using the hand, and if it is the latter, execution of the pinch-in / pinch-out operation is prohibited (pinch-in / pinch-out operation is invalidated).
具体的には、図6(a)に示すように、同一方向から進入した2本の手(テラー401であるAさんが自身の左手と右手)による操作画面500のピンチイン/ピンチアウト操作であると検出した場合には、その操作に応じた操作画面500の拡大・縮小操作を可能にする(許可する)。一方、図6(b)に示すように、異なる方向から進入した2本の手(テラー401であるAさんの左手と顧客402の右手)による操作画面500のピンチイン/ピンチアウト操作であると検出した場合には、その操作に応じた操作画面500の拡大・縮小操作を不可能にする(禁止する)。但し、このような場合においては、マルチタッチ操作を構成するテラー401のシングルタッチ操作と顧客402のシングルタッチ操作の一方を有効として、そのシングルタッチ操作による動作(例えば、ドラッグ動作)を許容するようにしても良い。
Specifically, as shown in FIG. 6 (a), it is a pinch-in / pinch-out operation on the
また、図7に示すように、同一方向から進入した2本の手によるマルチタッチ操作を検出した場合には、更に、その2本の手の形を判別して、それらが同じ向きの手(例えば、右手と右手)の組み合わせである場合は、2人のユーザのそれぞれによるシングルタッチ操作であると判定するようにしても良い。 In addition, as shown in FIG. 7, when a multi-touch operation with two hands entering from the same direction is detected, the shape of the two hands is further determined, and the hands with the same orientation ( For example, in the case of a combination of a right hand and a right hand), it may be determined that the operation is a single touch operation by two users.
更には、図8に示すように、同一方向から進入した2本の手によるマルチタッチ操作を検出した場合には、更に、その2本の手の形を判別して、それらが所定の位置関係にない場合は、2人のユーザのそれぞれによるシングルタッチ操作であると判定するようにしても良い。ここで、所定の位置関係とは、例えば、人間が正面を向いているときに、右手が右側、左手が左側と、本来、物理的に各手が存在する通常の正しい位置関係を意味する。換言すれば、手の甲が見えるように各手を顔の正面にもってきたときに、各手の親指が互いに相対する位置関係である。タッチパネルを操作するときは、一般的には、手の甲を上にして操作するものであり、両手を使う場合にしても、わざわざ手を交差させて、マルチタッチ操作を行うことは通常はあり得ない。そのため、2本の手の位置関係が、この所定の位置関係を満足しない場合は、1人の操作者の両手(2本の手)によるマルチタッチ操作でないと判定することにしている。 Furthermore, as shown in FIG. 8, when a multi-touch operation with two hands entering from the same direction is detected, the shape of the two hands is further determined and they are in a predetermined positional relationship. If not, it may be determined that the operation is a single touch operation by two users. Here, the predetermined positional relationship means, for example, a normal correct positional relationship in which each hand is physically present, with the right hand on the right side and the left hand on the left side when a human is facing the front. In other words, when each hand is brought to the front of the face so that the back of the hand can be seen, the thumbs of each hand are in a positional relationship relative to each other. When operating the touch panel, it is generally operated with the back of the hand up, and even when using both hands, it is usually not possible to perform multi-touch operations by crossing hands. . Therefore, when the positional relationship between the two hands does not satisfy the predetermined positional relationship, it is determined that the multi-touch operation is not performed with one operator's hands (two hands).
尚、このような制御を行うにあたり、ピンチイン/ピンチアウト操作の操作者がテラー401であるか顧客402であるかを判定するようにしても良い。図3に示すように、本実施形態では、テラー401と顧客402は、テーブル400を挟んで対向するように着座している。そして、検出範囲410が投影範囲411を包含する関係にもなっている。そのため、操作画面上のGUI部品を指示するタイミングよりも前のタイミングで、操作者の手が投影範囲411内に進入してくる方向を検出できる。環境情報108dからテラー側、顧客側がいずれの方向にあるのかは判明しているので、ピンチイン/ピンチアウト操作を行う操作者の手が、テラー401のものであるか顧客402のものであるかを判定できることになる。
In performing such control, it may be determined whether the operator of the pinch-in / pinch-out operation is the
また、ここでは、ピンチイン/ピンチアウト操作の操作者がテラー401であるか顧客402であるかの判定は、手の進入方向から判定するものとするが、これに限定されない。例えば、ピンチイン/ピンチアウト操作を含むタッチ操は、一般に、人差し指で操作するものであるので、人差し指を突き出した手の外形パターンと向きから判定するようにしても良い。
Here, the determination of whether the operator of the pinch-in / pinch-out operation is the
次に、本実施形態の図6〜図8で説明したようなユーザの操作に基づく操作画面の表示制御処理について、図9を用いて説明する。この表示制御処理は、CPU101が外部記憶装置108に記憶されているアプリケーションプログラム108bを読み出し、RAM103上で実行することで実現される。尚、この表示制御処理は、図4のステップS106の表示制御処理の詳細構成となる。
Next, an operation screen display control process based on a user operation as described in FIGS. 6 to 8 of the present embodiment will be described with reference to FIG. This display control processing is realized by the
まず、ステップS201にて、CPU101は、GUI構成情報301に基づく操作画面が投影されている状態で、距離測定部117により検出範囲410内への手の挿入(進入)を検出する。ステップS202にて、CPU101は、タッチ操作の有無を検出して、タッチ操作を受け付けたか否かを判定する。ここでの判定は、検出範囲410内での複数個所のタッチ操作を検出する。複数個所のタッチ操作を検出することで、後述するステップS207以降の処理で、その複数個所のタッチ操作が、テラー401あるいは顧客402の単独のマルチタッチ操作、あるいは先に検出したタッチ操作の操作元のシングルタッチ操作のどちらであるかを判定することができる。
First, in step S <b> 201, the
判定の結果、タッチ操作を受け付けていない場合(ステップS202でNO)、タッチ操作を受け付けるまで待機する。一方、タッチ操作を受け付けた場合(ステップS202でYES)、ステップS203にて、CPU101は、受け付けたタッチ操作を行う手の挿入元(テラー401側あるいは顧客402側、あるいはその両方)を特定する。この特定した挿入元を示す挿入元情報(テラー方向あるいは顧客方向、あるいはその両方向)は、手情報管理テーブル1300(図13)に手の挿入元1301として格納する。
If the result of determination is that a touch operation has not been accepted (NO in step S202), the process waits until a touch operation is accepted. On the other hand, when a touch operation is received (YES in step S202), in step S203, the
ステップS204にて、CPU101は、挿入元を特定した手の形を認識する。ステップS205にて、CPU101は、認識した手のこの認識した手の形からその種類(右手あるいは左手)を特定する。この特定した種類を示す種類情報(右あるいは左)は、先に特定した手の挿入元1301と対応付けて、手情報管理テーブル1300(図13)に手の種類1302として追加して格納する。尚、この手の形の認識とその向きの特定は、例えば、手の形と向きを判定するための基準パターンを利用するパターンマッチング技術を用いることで実現することができる。
In step S204, the
ステップS206にて、CPU101は、特定した手の指先によるタッチ操作のタッチ位置を示す座標を特定する。タッチ操作のタッチ位置(操作画面に対する接触点)を示す座標は、例えば、検出範囲410をXY座標面として定義しておき、そのXY座標面で規定される座標情報を取得する。例えば、2つのタッチ位置を検出した場合には、2つの座標情報(X1,Y1)と(X2,Y2)を取得して、先に特定した手の挿入元1301と手の種類1302と対応付けて、RAM103上に確保される手情報管理テーブル1300(図13)に接触点1303として格納する。
In step S206, the
まず、ステップS207にて、CPU101は、距離測定部117からの測定結果、撮像部116の撮像画像、及び手情報管理テーブル1300で管理されている情報に基づいて、挿入された手が1本あるいは2本であるかを判定する。
First, in step S <b> 207, the
尚、ステップS207の判定は、例えば、操作画面を表示してから所定時間範囲の間に実行する。つまり、距離測定部117と撮像部116は、操作画面が投影される投影面全体に対する測定と撮像を継続的に実行することで、投影面に進入してくる対象物(例えば、操作者の手)の移動の軌跡や挙動を把握することが可能となる。ここで、手等の対象物の進行(進入)方向や、動きの検出そのものの原理は、上述のように公知であるため、ここではその詳細については省略する。
Note that the determination in step S207 is executed during a predetermined time range after the operation screen is displayed, for example. In other words, the
判定の結果、挿入された手が1本である場合、ステップS212にて、CPU101は、その挿入された手によるタッチ操作の対象のGUI部品を特定する。この特定は、手情報管理テーブル1300で管理されている情報によって特定される挿入された手によるタッチ操作のタッチ位置の座標情報が、GUI構成情報301に基づく操作画面内に配置されるGUI部品が占める領域に対応する座標範囲情報内にあるか否かで、タッチ操作の対象のGUI部品を特定する。
If the number of inserted hands is one as a result of the determination, in step S212, the
ステップS213にて、特定したGUI部品が既に操作対象となっているか否かを判定する。判定の結果、既に操作対象となっている場合(ステップS213でYES)、例えば、他のタッチ操作によって既にそのGUI部品に対する操作が完了している場合は、処理対象のタッチ操作による操作を受け付けずに、ステップS215へ進む。一方、まだ、操作対象となっていない場合(ステップS213でNO)、ステップS214にて、CPU101は、挿入された手によって行われるタッチ操作はシングルタッチ操作であると判定して、シングルタッチ操作による処理(シングルタッチ操作処理)を実行する。但し、挿入された手が1本の場合でも、複数の指(例えば、親指と人差し指)を使用してマルチタッチ操作を行うことが可能である。そのため、ステップS207において挿入された手の本数を判定した後に行われたジェスチャ操作がマルチタッチ操作であると検出した場合には、そのまま、マルチタッチ操作を受け付けて、それに対応する動作(例えば、ピンチイン/ピンチアウト)を行うようにしても良い。
In step S213, it is determined whether or not the specified GUI component is already an operation target. As a result of the determination, if it is already an operation target (YES in step S213), for example, if an operation on the GUI component has already been completed by another touch operation, the operation by the touch operation to be processed is not accepted. Then, the process proceeds to step S215. On the other hand, if it is not yet an operation target (NO in step S213), in step S214, the
一方、判定の結果、挿入された手が2本である場合、ステップS208にて、CPU101は、距離測定部117からの測定結果、撮像部116の撮像画像、及び手情報管理テーブル1300で管理されている情報に基づいて、更に、その挿入された2本の手の進入方向が同一方向であるか否かを判定する。この判定は、特に、手情報管理テーブル1300で管理されている手の挿入元1301を参照することで、挿入された2本の手の進入方向が同一方向であるか否かを判定することができる。
On the other hand, if the number of inserted hands is two as a result of the determination, in step S208, the
判定の結果、同一方向でない場合(ステップS208でNO)、ステップS212以降の処理を実行する。一方、判定の結果、同一方向である場合(ステップS208でYES)、ステップS209にて、CPU101は、その挿入された2本の手の向きの組み合わせが異なるか否かを判定する。尚、この向きの判定は、特に、手情報管理テーブル1300で管理されている手の種類1302を参照することで、挿入された2本の手の向きの組み合わせが異なるか否かを判定することができる。
As a result of the determination, if they are not in the same direction (NO in step S208), the processes after step S212 are executed. On the other hand, if the result of determination is that the directions are the same (YES in step S208), in step S209, the
判定の結果、挿入された2本の手の向きの組み合わせが同一である場合(ステップS209でNO)、例えば、図7で示したように、その挿入された2本の手が同じ向きの手(右手同士)である場合は、ステップS212以降の処理を実行する。一方、挿入された2本の手の向きの組み合わせが異なる場合(ステップS209でYES)、つまり、右手と左手の組み合わせである場合は、ステップS210にて、CPU101は、その挿入された2本の手の位置関係が正しいか否かを判定する。尚、2本の手の位置関係が正しいか否かの判定は、特に、挿入された2本の手それぞれに対する、手情報管理テーブル1300で管理されている接触点1303が示す座標情報を参照することで、その挿入された2本の手の位置関係が上述の図8で説明したような所定の位置関係であるか否かを判定することで行う。
As a result of the determination, if the combinations of orientations of the two inserted hands are the same (NO in step S209), for example, as shown in FIG. 7, the inserted two hands are in the same orientation. In the case of (right hands), the processing after step S212 is executed. On the other hand, if the combinations of orientations of the two inserted hands are different (YES in step S209), that is, if the combination is a right hand and a left hand, in step S210, the
より具体的には、接触点1303のX座標の関係によって、手の位置関係が正しいか否かを判定する。本実施形態では、例えば、顧客方向から2本の手が挿入され、かつ、手の組み合わせが異なる場合であって、その2本の手の一方の手に対応する「手の種類1302」が「右」の接触点1303のX座標が、他方の手に対応する「手の種類1302」が「左」の接触点1303のX座標より小さい場合に、手の位置関係は正しくないと判定する。また、例えば、2本の手の「手の挿入元1301」がともに「テラー方向」であり、一方の手に対応する「手の種類1302」が「右」の接触点1303のX座標が、他方の手に対応する「手の種類1302」が「左」の接触点1303のX座標より小さい場合は、手の位置関係は正しいと判定する。
More specifically, it is determined whether the positional relationship of the hand is correct based on the relationship of the X coordinate of the
判定の結果、挿入された2本の手の位置関係が正しくない場合(ステップS201でNO)、ステップS212以降の処理を実行する。一方、挿入された2本の手の位置関係が正しい場合(ステップS210でYES)、ステップS211にて、CPU101は、挿入された2本の手による操作は、同一ユーザによるマルチタッチ操作であると判定して、マルチタッチ操作による処理(マルチタッチ操作処理)を実行する。
As a result of the determination, if the positional relationship between the inserted two hands is not correct (NO in step S201), the processing from step S212 is executed. On the other hand, when the positional relationship between the two inserted hands is correct (YES in step S210), in step S211, the
そして、ステップS214でのシングルタッチ操作処理、あるいはステップS211でのマルチタッチ操作処理の実行後、ステップS215にて、CPU101は、終了指示を受け付けたか否かを判定する。この判定は、例えば、操作画面上に用意されている終了ボタン等のボタンコントロール操作(タッチ操作)の有無に基づいて行う。
Then, after executing the single touch operation process in step S214 or the multi-touch operation process in step S211, in step S215, the
判定の結果、終了指示を受け付けていない場合(ステップS215でNO)、ステップS201に戻る。一方、終了指示を受け付けた場合(ステップS215でYES)、処理を終了する。 If the result of determination is that an end instruction has not been received (NO in step S215), processing returns to step S201. On the other hand, if an end instruction is accepted (YES in step S215), the process ends.
以上の処理によって、判定された操作元(操作内容)に基づいて、CPU101は、ジェスチャテーブル108eを参照して、対応する操作画面の表示制御を実行することになる。図10は、ジェスチャテーブル108eの一例であり、図6〜図8で示した操作例と表示制御例を実現するものである。
Through the above processing, based on the determined operation source (operation content), the
つまり、図10のジェスチャテーブル108eでは、以下のような操作画面に対する操作を制御するためのものとなっている。 That is, the gesture table 108e of FIG. 10 is for controlling operations on the following operation screen.
(1)シングルタッチ操作と判定した操作元が1本の手によるものである場合には、そのタッチ操作に応じた操作画面に対するドラッグ操作の実行
(2)シングルタッチ操作と判定した操作元が2本の手それぞれによるものである場合には、先に検出した手のユーザのタッチ操作に応じた操作画面に対するドラック操作の実行
(3)マルチタッチ操作と判定した操作元が同一ユーザの2本の手によるものである場合には、そのタッチ操作に応じた操作画面に対するピンチイン/ピンチアウト操作の実行
(4)マルチタッチ操作と判定した操作元が別ユーザの2本の手によるものである場合には、そのタッチ操作に応じた操作画面に対する操作の禁止
(1) When the operation source determined to be a single touch operation is by one hand, the drag operation is performed on the operation screen according to the touch operation. (2) The operation source determined to be a single touch operation is 2 In the case of each hand of the book, execution of the drag operation on the operation screen corresponding to the user's touch operation of the previously detected hand (3) The operation source determined to be multi-touch operation is two of the same user If it is by hand, execute a pinch-in / pinch-out operation on the operation screen corresponding to the touch operation. (4) When the operation source determined to be a multi-touch operation is by another user's two hands Prohibits operations on the operation screen according to the touch operation.
尚、図10に示すジェスチャテーブル108eは一例であり、用途や目的に応じて、ジェスチャ操作(シングル/マルチタッチ操作)に伴う操作画面に対する操作や表示制御のための設定を適宜定義することができる。例えば、図10では、シングルタッチ操作の操作元が2人の操作者の手それぞれによるものである場合には、先に検出した手のユーザのタッチ操作に応じた操作画面に対するドラック操作を実行するようにしているが、この場合も、そのシングルタッチ操作の実行を禁止するようにしても良い。このように、制御装置100は、投影面上に投影する画像に対する操作を検出することで、その操作を受け付けて、画像の表示を制御する表示制御装置としても機能する。
Note that the gesture table 108e illustrated in FIG. 10 is an example, and settings for operation and display control on the operation screen associated with the gesture operation (single / multi-touch operation) can be appropriately defined according to the use and purpose. . For example, in FIG. 10, when the operation source of the single touch operation is based on the hands of two operators, a drag operation is performed on the operation screen according to the touch operation of the user's previously detected hand. In this case, however, the execution of the single touch operation may be prohibited. As described above, the
また、上記実施形態では、ジェスチャ操作を行う操作者の手を操作画面の操作を行う操作元として、その操作画面への進入方向を判定するようにしているが、これに限定されない。例えば、操作元の操作画面への進入方向は、操作元である手に繋がる腕の方向に基づいて、操作画面への進入方向を判定するようにしても良い。また、操作元は、手や腕に限定されず、手に持つスタイラスやペン等の指示具であっても良い。あるいは、手等にマーカを施し、そのマーカの挙動を追跡することで、操作元の操作画面への進入方向を判定するようにしても良い。 Moreover, in the said embodiment, although the operator's hand who performs gesture operation is made into the operation origin which performs operation of an operation screen, the approach direction to the operation screen is determined, but it is not limited to this. For example, the approach direction to the operation screen of the operation source may be determined based on the direction of the arm connected to the hand that is the operation source. The operation source is not limited to the hand or arm, and may be an indicator such as a stylus or a pen held in the hand. Or you may make it determine the approach direction to the operation screen of the operation origin by giving a marker to a hand etc. and tracking the behavior of the marker.
また、図9の処理では、操作元の数(手の数)を判定してから、その後に行われるマルチタッチ操作に対応する動作を制御するようにしているが、その処理順序は、これに限定されない。マルチタッチ操作を検出してから、そのマルチタッチ操作の操作元とその数を判定した上で、そのマルチタッチ操作に対応する動作を制御するようにしているが、その処理順序はこれに限定されない。例えば、操作元の数(手の数)を判定しておき、その後に、マルチタッチ操作を検出した場合に、そのマルチタッチ操作に対応する動作を制御するようにしても良い。 In the process of FIG. 9, the number of operation sources (number of hands) is determined, and then the operation corresponding to the multi-touch operation performed thereafter is controlled. It is not limited. After detecting the multi-touch operation, the operation source and the number of the multi-touch operations are determined and then the operation corresponding to the multi-touch operation is controlled. However, the processing order is not limited to this. . For example, the number of operation sources (number of hands) may be determined, and when a multi-touch operation is detected thereafter, an operation corresponding to the multi-touch operation may be controlled.
上記実施形態では、検出範囲410に挿入される、検出対象の対象物が2本の手である場合を例に挙げて説明しているが、この対象物は、2本に限定されず、3本以上の複数の対象物についても、同様に、適用することができる。つまり、情報管理テーブル1300において、検出範囲410で検出した複数の対象物それぞれについての各種情報を管理しておくとともに、その対象物の数に応じて想定される対象物による操作の操作元の進入方向、組み合わせ、及び位置関係を適宜判定するようすれば良い。
In the above embodiment, the case where the detection target object inserted into the
以上説明したように、本実施形態によれば、複数のユーザで操作画面(操作対象画像)が操作され得る環境においても、その操作状態に応じて、より適切な操作及び操作画面の表示制御を実行することができる。 As described above, according to the present embodiment, even in an environment where an operation screen (operation target image) can be operated by a plurality of users, more appropriate operation and display control of the operation screen are performed according to the operation state. Can be executed.
尚、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Note that the present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus execute the program. It can also be realized by a process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100:制御装置、101:CPU、102:ROM、103:RAM、104:ネットワークI/F、105:I/F、106:ビデオコントローラ、107:ストレージコントローラ、108:外部記憶装置、110:投影撮像装置、115:投影部、116:撮像部、117:距離測定部 100: control device, 101: CPU, 102: ROM, 103: RAM, 104: network I / F, 105: I / F, 106: video controller, 107: storage controller, 108: external storage device, 110: projection imaging Apparatus: 115: projection unit, 116: imaging unit, 117: distance measurement unit
上記の目的を達成するための本発明による情報処理装置は以下の構成を備える。即ち、
表示面に表示される画像に対するジェスチャ操作を検出して、そのジェスチャ操作に基づく動作を制御する情報処理装置であって、
前記表示面上に進入する対象物を検出する検出手段と、
前記検出手段で検出した対象物の数とその進入方向を判定する判定手段と、
前記判定手段で判定した対象物の数とその進入方向に応じて、前記対象物によるジェスチャ操作の動作を制御する制御手段と
を備える。
In order to achieve the above object, an information processing apparatus according to the present invention comprises the following arrangement. That is,
An information processing apparatus that detects a gesture operation on an image displayed on a display surface and controls an operation based on the gesture operation,
Detecting means for detecting an object entering before Symbol display plane,
Determination means for determining the number of objects detected by the detection means and the approach direction thereof;
Control means for controlling the operation of the gesture operation by the object according to the number of objects determined by the determining means and the approach direction thereof.
Claims (14)
前記投影部から画像が投影される投影面上に進入してくる対象物を検出する検出手段と、
前記検出手段で検出した対象物の数とその進入方向を判定する判定手段と、
前記判定手段で判定した対象物の数とその進入方向に応じて、前記対象物によるジェスチャ操作の動作を制御する制御手段と
を備えることを特徴とする情報処理装置。 An information processing apparatus that detects a gesture operation on an image projected from a projection unit and controls an operation based on the gesture operation,
Detecting means for detecting an object entering the projection surface on which an image is projected from the projection unit;
Determination means for determining the number of objects detected by the detection means and the approach direction thereof;
An information processing apparatus comprising: control means for controlling the operation of a gesture operation by the object according to the number of objects determined by the determining means and the approach direction thereof.
ことを特徴とする請求項1に記載の情報処理装置。 When the number of the objects is plural and the approach directions of the plural objects are not the same direction as a result of the determination by the determining means, the control means performs a touch operation performed by the plural objects. The information processing apparatus according to claim 1, wherein the operation is controlled as a single touch operation by at least one of the plurality of objects.
前記制御手段は、前記判定手段の判定の結果、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ該複数の対象物の向きの組み合わせが同一である場合には、該複数の対象物によって行われるタッチ操作は、該複数の対象物の少なくともいずれかによるシングルタッチ操作として、その動作を制御する
ことを特徴とする請求項1または2に記載の情報処理装置。 The determination means determines the combination of the directions of the plurality of objects when the number of the objects is plural and the approach directions of the plural objects are the same direction,
As a result of the determination by the determination means, the control means has a plurality of the objects, the entry directions of the objects are the same, and the combinations of the directions of the objects are the same. In some cases, the touch operation performed by the plurality of objects is controlled as a single touch operation by at least one of the plurality of objects. Information processing device.
前記制御手段は、前記判定手段の判定の結果、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ該複数の対象物の向きの組み合わせが異なり、かつ該複数の対象物の位置関係が所定の位置関係にない場合には、該複数の対象物によって行われるタッチ操作は、該複数の対象物の少なくともいずれかによるシングルタッチ操作として、その動作を制御する
ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 In the case where the number of the objects is plural, the approach directions of the plural objects are the same direction, and the combinations of the directions of the plural objects are different, the determination unit further includes the plural objects. Determine the positional relationship of the object,
As a result of the determination by the determination unit, the control unit has a plurality of the objects, and the entry directions of the plurality of objects are the same direction, and the combinations of the directions of the plurality of objects are different. If the positional relationship between the plurality of objects is not a predetermined positional relationship, the touch operation performed by the plurality of objects is performed as a single touch operation by at least one of the plurality of objects. The information processing apparatus according to claim 1, wherein the information processing apparatus is controlled.
前記制御手段は、前記判定手段の判定の結果、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ該複数の対象物の向きの組み合わせが異なり、かつ該複数の対象物の位置関係が所定の位置関係にある場合には、該複数の対象物によって行われるタッチ操作は、該複数の対象物によるマルチタッチ操作として、その動作を制御する
ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 In the case where the number of the objects is plural, the approach directions of the plural objects are the same direction, and the combinations of the directions of the plural objects are different, the determination unit further includes the plural objects. Determine the positional relationship of the object,
As a result of the determination by the determination unit, the control unit has a plurality of the objects, and the entry directions of the plurality of objects are the same direction, and the combinations of the directions of the plurality of objects are different. When the positional relationship between the plurality of objects is a predetermined positional relationship, a touch operation performed by the plurality of objects is controlled as a multi-touch operation by the plurality of objects. The information processing apparatus according to any one of claims 1 to 3, wherein the information processing apparatus is characterized in that:
前記投影部から画像が投影される投影面上での対象物によるマルチタッチ操作を検出した場合、その対象物の数とその進入方向を判定する判定手段と、
前記判定手段で判定した対象物の数とその進入方向に応じて、前記対象物によるマルチタッチ操作の動作を制御する制御手段と
を備えることを特徴とする情報処理装置。 An information processing apparatus that detects a gesture operation on an image projected from a projection unit and controls an operation based on the gesture operation,
When detecting a multi-touch operation by an object on a projection surface on which an image is projected from the projection unit, a determination unit that determines the number of objects and an approach direction thereof,
An information processing apparatus comprising: control means for controlling the operation of a multi-touch operation by the object according to the number of objects determined by the determining means and the approach direction thereof.
ことを特徴とする請求項6に記載の情報処理装置。 If the multi-touch operation is performed by a plurality of objects and the approach directions of the plurality of objects are not the same direction as a result of the determination by the determination unit, the control unit performs the multi-touch operation. The information processing apparatus according to claim 6, wherein the operation is controlled as a single touch operation by at least one of the plurality of objects.
前記制御手段は、前記判定手段の判定の結果、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ該複数の対象物の向きの組み合わせが同一である場合には、前記マルチタッチ操作を、該複数の対象物の少なくともいずれかによるシングルタッチ操作として、その動作を制御する
ことを特徴とする請求項6または7に記載の情報処理装置。 The determination means further determines a combination of directions of the plurality of objects when the multi-touch operation is performed by a plurality of objects and the approach directions of the plurality of objects are the same direction. And
As a result of the determination by the determination means, the control means has a plurality of the objects, the entry directions of the objects are the same, and the combinations of the directions of the objects are the same. 8. The information processing apparatus according to claim 6, wherein in some cases, the multi-touch operation is controlled as a single touch operation by at least one of the plurality of objects.
前記制御手段は、前記判定手段の判定の結果、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ該複数の対象物の向きの組み合わせが異なり、かつ該複数の対象物の位置関係が所定の位置関係にない場合には、前記マルチタッチ操作を、該複数の対象物の少なくともいずれかによるシングルタッチ操作として、その動作を制御する
ことを特徴とする請求項6乃至8のいずれか1項に記載の情報処理装置。 In the case where the multi-touch operation is performed by a plurality of objects, the approach directions of the plurality of objects are the same direction, and the combinations of the directions of the plurality of objects are different. And determining a positional relationship between the plurality of objects,
As a result of the determination by the determination unit, the control unit has a plurality of the objects, and the entry directions of the plurality of objects are the same direction, and the combinations of the directions of the plurality of objects are different. When the positional relationship between the plurality of objects is not a predetermined positional relationship, the multi-touch operation is controlled as a single touch operation by at least one of the plurality of objects. The information processing apparatus according to any one of claims 6 to 8.
前記制御手段は、前記判定手段の判定の結果、前記対象物の数が複数であり、かつ前記複数の対象物それぞれの進入方向が同一方向であり、かつ該複数の対象物の向きの組み合わせが異なり、かつ該複数の対象物の位置関係が所定の位置関係にある場合には、前記マルチタッチ操作を、該複数の対象物によるマルチタッチ操作として、その動作を制御する
ことを特徴とする請求項6乃至8のいずれか1項に記載の情報処理装置。 In the case where the number of the objects is plural, the approach directions of the plural objects are the same direction, and the combinations of the directions of the plural objects are different, the determination unit further includes the plural objects. Determine the positional relationship of the object,
As a result of the determination by the determination unit, the control unit has a plurality of the objects, and the entry directions of the plurality of objects are the same direction, and the combinations of the directions of the plurality of objects are different. When the positional relationship between the plurality of objects is a predetermined positional relationship, the multi-touch operation is controlled as the multi-touch operation by the plurality of objects. The information processing apparatus according to any one of 1 to 8.
ことを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the object is a hand of an operator who performs the gesture operation.
前記投影部から画像が投影される投影面上に進入してくる対象物を検出する検出工程と、
前記検出工程で検出した対象物の数とその進入方向を判定する判定工程と、
前記判定工程で判定した対象物の数とその進入方向に応じて、前記対象物によるジェスチャ操作の動作を制御する制御工程と
を備えることを特徴とする情報処理装置の制御方法。 A method for controlling an information processing apparatus that detects a gesture operation on an image projected from a projection unit and controls an operation based on the gesture operation,
A detection step of detecting an object entering the projection surface on which an image is projected from the projection unit;
A determination step of determining the number of objects detected in the detection step and its approach direction;
A control method for controlling an information processing apparatus, comprising: a control step of controlling a gesture operation performed by the target object according to the number of target objects determined in the determination step and an approach direction thereof.
前記投影部から画像が投影される投影面上での対象物によるマルチタッチ操作を検出した場合、その対象物の数とその進入方向を判定する判定工程と、
前記判定工程で判定した対象物の数とその進入方向に応じて、前記対象物によるマルチタッチ操作の動作を制御する制御工程と
を備えることを特徴とする情報処理装置の制御方法。 A method for controlling an information processing apparatus that detects a gesture operation on an image projected from a projection unit and controls an operation based on the gesture operation,
When a multi-touch operation by an object on the projection surface on which an image is projected from the projection unit is detected, a determination step of determining the number of the objects and an approach direction thereof,
A control method for controlling an information processing apparatus, comprising: a control step of controlling an operation of a multi-touch operation by the object according to the number of objects determined in the determination step and an approach direction thereof.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014263283A JP6166250B2 (en) | 2014-12-25 | 2014-12-25 | Information processing apparatus, control method therefor, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014263283A JP6166250B2 (en) | 2014-12-25 | 2014-12-25 | Information processing apparatus, control method therefor, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016122410A true JP2016122410A (en) | 2016-07-07 |
JP6166250B2 JP6166250B2 (en) | 2017-07-19 |
Family
ID=56329018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014263283A Active JP6166250B2 (en) | 2014-12-25 | 2014-12-25 | Information processing apparatus, control method therefor, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6166250B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019003304A1 (en) * | 2017-06-27 | 2019-01-03 | マクセル株式会社 | Projection image display system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007089732A (en) * | 2005-09-28 | 2007-04-12 | Aruze Corp | Input device |
JP2012181612A (en) * | 2011-02-28 | 2012-09-20 | Fujitsu Ltd | Touch panel device, operation determination method and operation determination program |
JP2014016803A (en) * | 2012-07-09 | 2014-01-30 | Konica Minolta Inc | Operation display device and program |
-
2014
- 2014-12-25 JP JP2014263283A patent/JP6166250B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007089732A (en) * | 2005-09-28 | 2007-04-12 | Aruze Corp | Input device |
JP2012181612A (en) * | 2011-02-28 | 2012-09-20 | Fujitsu Ltd | Touch panel device, operation determination method and operation determination program |
JP2014016803A (en) * | 2012-07-09 | 2014-01-30 | Konica Minolta Inc | Operation display device and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019003304A1 (en) * | 2017-06-27 | 2019-01-03 | マクセル株式会社 | Projection image display system |
Also Published As
Publication number | Publication date |
---|---|
JP6166250B2 (en) | 2017-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9146672B2 (en) | Multidirectional swipe key for virtual keyboard | |
CA2738185C (en) | Touch-input with crossing-based widget manipulation | |
KR101872533B1 (en) | Three-state touch input system | |
US8884907B2 (en) | Multi-touch manipulation of application objects | |
ES2663546T3 (en) | Interpretation of ambiguous inputs on a touch screen | |
US20090231281A1 (en) | Multi-touch virtual keyboard | |
US20140306897A1 (en) | Virtual keyboard swipe gestures for cursor movement | |
US20110007029A1 (en) | System and method for multi-touch interactions with a touch sensitive screen | |
US10540132B2 (en) | Remote device control via transparent display | |
CN101869484B (en) | Medical diagnosis device having touch screen and control method thereof | |
US20100265178A1 (en) | Camera-based multi-touch mouse | |
KR20140104822A (en) | Method for displaying for virtual keypad an electronic device thereof | |
WO2022055755A2 (en) | User input interfaces | |
TW201403386A (en) | Eye controlling method and system | |
US20140282228A1 (en) | Dynamically Enable, Variable Border Area for Touch Solution with a Bezel | |
CN108885556B (en) | Controlling digital input | |
JP5882270B2 (en) | Information processing apparatus and program | |
Liang et al. | BrushLens: hardware interaction proxies for accessible touchscreen interface actuation | |
JP6166250B2 (en) | Information processing apparatus, control method therefor, and program | |
JP2012514817A (en) | mouse | |
KR20140086805A (en) | Electronic apparatus, method for controlling the same and computer-readable recording medium | |
JP6213613B2 (en) | Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof | |
JP6495651B2 (en) | Information processing apparatus, control method therefor, program, and computer-readable storage medium | |
JP2015088090A (en) | Operation display device, and operation display method and program | |
CN109582163A (en) | The intercept method of area image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170529 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170622 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6166250 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |