JP2018147307A - Display operation system, control method of the same, and program - Google Patents
Display operation system, control method of the same, and program Download PDFInfo
- Publication number
- JP2018147307A JP2018147307A JP2017042947A JP2017042947A JP2018147307A JP 2018147307 A JP2018147307 A JP 2018147307A JP 2017042947 A JP2017042947 A JP 2017042947A JP 2017042947 A JP2017042947 A JP 2017042947A JP 2018147307 A JP2018147307 A JP 2018147307A
- Authority
- JP
- Japan
- Prior art keywords
- display
- component
- unit
- displayed
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、表示されたアプリケーションの操作部品に対する操作をユーザのジェスチャー操作を検出することによって認識する表示操作システム、その制御方法及びプログラムに関する。 The present invention relates to a display operation system that recognizes an operation on an operation component of a displayed application by detecting a user's gesture operation, a control method thereof, and a program.
投影表示されたアプリケーションのグラフィカルユーザインターフェイスからなる操作部品に対する操作を、ユーザの手や指先の動き(ジェスチャー操作)を検知することによって認識する表示操作システムが知られている(例えば、特許文献1参照。)。また、ユーザの手や指先の動きに限らず、書画台上の物体、例えば、ペンの3次元座標を検出することによって投影表示されたアプリケーションの操作部品に対する操作を認識する表示操作システムも知られている。 There is known a display operation system that recognizes an operation on an operation component including a graphical user interface of a projected application by detecting a movement (gesture operation) of a user's hand or a fingertip (for example, see Patent Document 1). .) A display operation system that recognizes an operation on an operation component of an application projected and displayed by detecting a three-dimensional coordinate of an object on a document table, for example, a pen, is not limited to the movement of a user's hand or fingertip. ing.
このような表示操作システムでは、書面を用いた説明、書面への署名、投影表示されたアプリケーションを用いた説明や投影表示されたアプリケーションの操作部品に対する操作を同じ書画台を用いて行うことができる。これにより、例えば、ユーザとしての販売員の業務効率を向上させることができるとともに、ユーザとしての購買者や契約者の確認、署名の作業効率も向上させることができる。また、このような表示操作システムは、一時的にプロジェクタによる投影を中断するブランク機能を有し、ブランク機能に対応してプロジェクタの消灯キーを備える。例えば、書面を用いた説明や書面への署名を行う際、書面へアプリケーションの操作部品が重畳表示されるのを避けるため、ユーザは消灯キーを操作してプロジェクタによるアプリケーションの操作部品の投影表示を中断させる。 In such a display operation system, it is possible to perform an explanation using a document, a signature on the document, an explanation using a projected display application, and an operation on an operation component of the projected display using the same document stand. . Thereby, for example, the business efficiency of a salesperson as a user can be improved, and the work efficiency of confirmation and signature of a purchaser or contractor as a user can be improved. In addition, such a display operation system has a blank function for temporarily interrupting projection by the projector, and includes a projector turn-off key corresponding to the blank function. For example, when giving a written explanation or signing a document, in order to avoid the operation parts of the application being superimposed on the document, the user operates the extinction key to display the projection of the operation parts of the application by the projector. Interrupt.
しかしながら、書面を用いた説明や書面への署名が終了した後、ユーザが意図すること無くアプリケーションの操作部品に該当する位置へ手を置いたままの状態で消灯キーの操作によって再度、アプリケーションの操作部品が投影表示されることがある。また、署名に用いたペンをアプリケーションの操作部品に該当する位置へ置き忘れたままの状態で消灯キーの操作によって再度、アプリケーションの操作部品が投影表示されることがある。このような場合、ユーザの手やペンによってアプリケーションの操作部品に対する操作が行われたと認識されるおそれがある。すなわち、投影表示されるアプリケーションの操作部品に対する誤操作が発生するおそれがある。 However, after completing the explanation using the document and signing the document, the user can unintentionally operate the application again by operating the extinction key while keeping his hand at the position corresponding to the operation part of the application. Parts may be projected and displayed. In addition, the operation component of the application may be projected and displayed again by operating the extinction key while the pen used for the signature is left in a position corresponding to the operation component of the application. In such a case, there is a risk that it is recognized that an operation on the operation component of the application has been performed by the user's hand or pen. That is, there is a possibility that an erroneous operation on the operation component of the projected application is generated.
本発明の目的は、投影表示されるアプリケーションの操作部品に対する誤操作の発生を防止することができる表示操作システム、その制御方法及びプログラムを提供することにある。 An object of the present invention is to provide a display operation system, a control method thereof, and a program capable of preventing an erroneous operation on an operation component of an application displayed by projection.
上記目的を達成するために、本発明の表示操作システムは、操作面へアプリケーションの操作部品を投影表示する表示部と、前記操作面の上に存在する物体を検知する検知部と、前記操作部品に対する操作に基づいて前記アプリケーションの動作を制御する制御部とを備える表示操作システムであって、前記操作部品が表示されていない前記操作面へ前記表示部が前記操作部品を表示した場合において、前記検知部が前記物体を検知したとき、前記制御部は前記操作部品に対する操作を無視することを特徴とする。 In order to achieve the above object, a display operation system of the present invention includes a display unit that projects and displays an operation component of an application on an operation surface, a detection unit that detects an object existing on the operation surface, and the operation component. And a control unit that controls the operation of the application based on an operation on the display unit when the display unit displays the operation component on the operation surface on which the operation component is not displayed. When the detection unit detects the object, the control unit ignores an operation on the operation component.
本発明によれば、投影表示されるアプリケーションの操作部品に対する誤操作の発生を防止することができる。 According to the present invention, it is possible to prevent an erroneous operation on an operation component of an application that is projected and displayed.
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。しかしながら、以下の実施の形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は実施の形態に記載されている構成によって限定されることはない。まず、本発明の第1の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the configurations described in the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in the embodiments. First, a first embodiment of the present invention will be described.
図1は、本発明の第1の実施の形態に係る表示操作システムとしてのカメラスキャナが含まれるネットワーク構成を示す図である。図1において、カメラスキャナ101はホストコンピュータ102及びプリンタ103とイーサネット(登録商標)等のネットワーク104を介して接続されている。本実施の形態では、ホストコンピュータ102からの指示に応じ、カメラスキャナ101によって画像を読み取るスキャン機能や、スキャン機能によって生成されたスキャンデータをプリンタ103によって出力するプリント機能が実行される。また、ホストコンピュータ102を介すること無くカメラスキャナ101へ直接に指示を行うことにより、スキャン機能やプリント機能を実行することもできる。
FIG. 1 is a diagram showing a network configuration including a camera scanner as a display operation system according to a first embodiment of the present invention. In FIG. 1, a
図2は、図1におけるカメラスキャナの構成を概略的に示す図である。図2において、カメラスキャナ101は、ハードウェアデバイスとしてのコントローラ部201、カメラ部202、腕部203、短焦点プロジェクタ207及び距離画像センサ部208を含む。カメラスキャナ101の本体を構成するコントローラ部201、撮像を行うためのカメラ部202、短焦点プロジェクタ207及び3次元距離センサからなる距離画像センサ部208は互いに腕部203によって連結されている。腕部203は複数の関節を有し、各関節において屈曲されることにより、伸長自在に構成される。コントローラ部201はカメラスキャナ101の電源のオン/オフを制御する電源キー210及び短焦点プロジェクタ207による投影の開始、中止を制御する消灯キー211を有する。
FIG. 2 is a diagram schematically showing the configuration of the camera scanner in FIG. 2, the
カメラスキャナ101は操作平面(操作面)を有する書画台204の脇に配置される。カメラ部202及び距離画像センサ部208は書画台204を指向し、カメラ部202は図中の破線で囲まれた操作平面上の読み取り領域205内の画像を読み取る。例えば、カメラ部202は読み取り領域205内に置かれた原稿206の画像を読み取る。また、書画台204内にはターンテーブル209が設けられている。ターンテーブル209はコントローラ部201からの指示によって回転し、ターンテーブル209上に置かれた物体とカメラ部202の相対角度を変えることができる。カメラスキャナ101では、カメラ部202及び距離画像センサ部208が、書画台204の操作平面上に存在する物体を検知する検知部を構成する。カメラスキャナ101において、カメラ部202は単一解像度で画像を撮像するカメラからなるが、高解像度画像撮像と低解像度画像撮像の切り換えが可能なカメラであってもよい。なお、カメラスキャナ101は、書画台204に配置されるLCDタッチパネル(図示しない)及び後述のスピーカ514を備えてもよい。さらに、カメラスキャナ101は、距離画像センサ部208以外に、周囲の環境情報を収集するための人感センサ、照度センサ、加速度センサ等の各種センサデバイスを備えてもよい。
The
図3は、図2のカメラスキャナにおける座標系を説明するための図である。図3において、カメラスキャナ101では、カメラ座標系、距離画像座標系及びプロジェクタ座標系が定義される。カメラ座標系は、カメラ部202が撮像する画像平面をXY平面とし、且つ該画像平面に直交した方向をZ方向として定義した座標系である。距離画像座標系は、距離画像センサ部208が有する後述のRGBカメラ701が撮像する画像平面をXY平面とし、且つ該画像平面に直交した方向をZ方向として定義した座標系である。プロジェクタ座標系は、短焦点プロジェクタ207が画像を投影する画像平面をXY平面とし、且つ該画像平面に直交した方向をZ方向として定義した座標系である。さらに、カメラスキャナ101では、これらの3つの独立した座標系の3次元データを統一的に扱えるようにするために、書画台204を含む平面をXY平面とし、且つ該XY平面に直交した方向をZ方向とする直交座標系が定義される。
FIG. 3 is a diagram for explaining a coordinate system in the camera scanner of FIG. In FIG. 3, the
図4は、図3における直交座標系、カメラ座標系及びカメラ撮像平面の関係を示す。カメラスキャナ101では、直交座標系における3次元点P[X,Y,Z]を下記式(1)によってカメラ座標系における3次元点Pc[Xc,Yc,Zc]へ変換することができる。
[Xc, Yc, Zc]T = [Rc|tc][X, Y, Z, 1]T … (1)
ここで、Rcは3×3の回転行列であり、tcは並進ベクトルである。Rc及びtcは、直交座標系に対するカメラの姿勢(回転)と位置(並進)に基づいて定まる外部パラメータによって構成される。また、カメラ座標系で定義された3次元点Pc[Xc,Yc,Zc]を下記式(2)によって直交座標系における3次元点P[X,Y,Z]へ変換することができる。
[X, Y, Z]T = [Rc-1|-Rc-1tc][Xc, Yc, Zc, 1]T …(2)
FIG. 4 shows the relationship between the orthogonal coordinate system, the camera coordinate system, and the camera imaging plane in FIG. In the
[Xc, Yc, Zc] T = [Rc | tc] [X, Y, Z, 1] T (1)
Here, Rc is a 3 × 3 rotation matrix, and tc is a translation vector. Rc and tc are configured by external parameters determined based on the posture (rotation) and position (translation) of the camera with respect to the orthogonal coordinate system. Further, the three-dimensional point Pc [Xc, Yc, Zc] defined in the camera coordinate system can be converted into the three-dimensional point P [X, Y, Z] in the orthogonal coordinate system by the following equation (2).
[X, Y, Z] T = [Rc-1 | -Rc-1tc] [Xc, Yc, Zc, 1] T (2)
カメラ部202で撮影される2次元の画像平面(以下、「カメラ撮像平面」という。)は、カメラ部202によって3次元空間中の3次元点群の3次元情報を2次元情報に変換することによって構成される。すなわち、カメラ撮像平面は、カメラ座標系上での3次元点Pc[Xc,Yc,Zc]を下記式(3)によって2次元座標pc[xp,yp]に透視投影変換することによって構成することができる。
λ[xp, yp, 1]T = A[Xc, Yc, Zc, 1]T …(3)
ここで、Aは、焦点距離と画像中心等で表現される3×3の行列であるカメラの内部パラメータである。
A two-dimensional image plane (hereinafter referred to as “camera imaging plane”) photographed by the
λ [xp, yp, 1] T = A [Xc, Yc, Zc, 1] T (3)
Here, A is a camera internal parameter which is a 3 × 3 matrix expressed by the focal length and the image center.
以上のように、カメラスキャナ101では、上記式(1),(3)を用いることによって直交座標系で表された3次元点群をカメラ座標系での3次元点群やカメラ撮像平面に変換することができる。なお、カメラスキャナ101では、各ハードウェアデバイスの内部パラメータ及び直交座標系に対する位置姿勢(外部パラメータ)は、公知のキャリブレーション手法によってあらかじめキャリブレーションされている。以後、本明細書において、「3次元点群」は直交座標系で表された3次元点群を示しているものとする。
As described above, the
図5は、図1のカメラスキャナのコントローラ部のハードウェア構成を示すブロック図である。図5において、コントローラ部201は、システムバス501に接続されたCPU502、RAM503、ROM504、HDD505、ネットワークI/F506、画像処理プロセッサ507を備える。さらに、コントローラ部201は、カメラI/F508、ディスプレイコントローラ509、シリアルI/F510、オーディオコントローラ511及びUSBコントローラ512を備える。CPU502はコントローラ部201全体の動作を制御する中央演算装置である。RAM503は揮発性メモリである。ROM504は不揮発性メモリであり、CPU502の起動用プログラムが格納される。HDD505はRAM503よりも大容量のハードディスクドライブ(HDD)である。HDD505にはコントローラ部201が実行する、カメラスキャナ101の制御用プログラムが格納される。
FIG. 5 is a block diagram showing a hardware configuration of the controller unit of the camera scanner of FIG. In FIG. 5, the
CPU502は、電源オン等のカメラスキャナ101の起動時、ROM504に格納される起動用プログラムを実行する。この起動用プログラムは、HDD505に格納される制御用プログラムを読み出してRAM503に展開する。CPU502は、起動用プログラムを実行すると、続けてRAM503に展開された制御用プログラムを実行してコントローラ部201全体の動作を制御する。また、CPU502は制御用プログラムの実行に用いるデータもRAM503に格納して読み書きを行う。HDD505には制御用プログラムの実行に必要な各種設定やカメラ部202が撮像によって生成した画像データを格納することができ、格納されたデータ等はCPU502によって読み書きされる。また、CPU502はネットワークI/F506を介してネットワーク104に接続された他の機器との通信を行う。
The
シリアルI/F510はシリアル信号の入出力を行う。コントローラ部201では、シリアルI/F510がハードキーI/F513に接続され、電源キー210や消灯キー211が押下されたとき、シリアルI/F510は押下されたキーに対応する信号をCPU502へ通知する。コントローラ部201の電源がオフのとき、ハードキーI/F513は電源キー210が押下されると、非図示のコントローラ電源をオンにする。これにより、前述したCPU502による起動用プログラムの実行が行われる。画像処理プロセッサ507はRAM503に格納された画像データを読み出して画像処理を施し、再度、RAM503へ書き戻す。なお、画像処理プロセッサ507が実行する画像処理は、回転、変倍、色変換等である。カメラI/F508はカメラ部202及び距離画像センサ部208と接続され、CPU502からの指示に応じてカメラ部202から画像データを取得するとともに距離画像センサ部208から距離画像データを取得してRAM503へ書き込む。また、カメラI/F508はCPU502からの制御コマンドをカメラ部202及び距離画像センサ部208へ送信し、カメラ部202及び距離画像センサ部208の設定を行う。なお、ディスプレイコントローラ509、シリアルI/F510、オーディオコントローラ511及びUSBコントローラ512は、これらのうちの少なくとも1つがコントローラ部201に含まれていればよい。
The serial I /
ディスプレイコントローラ509はCPU502の指示に応じてディスプレイ(図示しない)における画像データの表示を制御する。また、ディスプレイコントローラ509は短焦点プロジェクタ207に接続される。オーディオコントローラ511はスピーカ514に接続され、CPU502の指示に応じて音声データをアナログ音声信号に変換し、スピーカ514を通じて音声を出力する。USBコントローラ512はCPU502の指示に応じて外付けのUSBデバイスの制御を行う。USBコントローラ512はUSBメモリやSDカード等の外部メモリ515に接続され、外部メモリ515へのデータの読み書きを行う。
A
図6は、図5におけるCPUが実行するカメラスキャナの制御用プログラムの機能モジュールの構成を示すブロック図である。カメラスキャナ101の制御用プログラムは前述のようにHDD505に格納され、CPU502が起動時に制御用プログラムをRAM503に展開して実行する。制御用プログラムが実行される際には機能構成601が構成される。機能構成601は、モジュールとして、メイン制御部602、画像取得部603、カメラ画像取得部604、距離画像取得部605、認識処理部606、操作認識部607、ジェスチャー認識部608、物体検知部609及び画像処理部610を備える。さらに、機能構成601は、モジュールとして、キー処理部611、電源制御部612、表示制御部613、アプリケーション部614、GUI制御部615、表示部616及びネットワーク通信部617を備える。
FIG. 6 is a block diagram showing the configuration of the functional modules of the camera scanner control program executed by the CPU in FIG. The control program for the
メイン制御部602は制御の中心モジュールであり、機能構成601が備える他の各モジュールを制御する。画像取得部603は画像入力処理を行うモジュールであり、カメラ画像取得部604及び距離画像取得部605によって構成される。カメラ画像取得部604はカメラI/F508を介してカメラ部202が出力する画像データを取得し、RAM503へ格納する。距離画像取得部605はカメラI/F508を介して距離画像センサ部208が出力する距離画像データを取得し、RAM503へ格納する。認識処理部606はカメラ画像取得部604が取得する画像データ及び距離画像取得部605が取得する距離画像データから書画台204の操作平面上の物体の動きを検知して認識するモジュールである。認識処理部606は操作認識部607、ジェスチャー認識部608及び物体検知部609によって構成される。ジェスチャー認識部608は画像取得部603から書画台204の操作平面上の画像を取得し続け、タッチ等のユーザのジェスチャー操作を検知する。具体的に、ジェスチャー認識部608は、距離画像取得部605が取得する距離画像データから書画台204の操作平面上に存在する物体の3次元点群を取得し、該物体の外形を検出する。さらに、ジェスチャー認識部608は、外形の各部分の曲率からユーザの手及び指先の位置を判断し、例えば、ユーザの一本指を用いたジェスチャー操作を検知する。なお、ジェスチャー認識部608は他の様々なジェスチャー操作を検知することができ、例えば、ユーザの複数の指又は複数の手、若しくは、ユーザの腕や体全体を用いたジェスチャー操作を検知することができる。操作認識部607は、ジェスチャー認識部608がユーザのジェスチャー操作を検知するとメイン制御部602へ通知する。物体検知部609は、画像取得部603から書画台204の操作平面を撮像した画像を取得して書画台204の操作平面上に存在する物体を検知する。また、物体検知部609は、書画台204の操作平面上に物体が置かれるタイミング、物体が置かれて静止するタイミング、又は物体が取り除かれるタイミング等も検知する。
The
画像処理部610は、カメラ部202及び距離画像センサ部208から取得した画像を画像処理プロセッサ507で解析するために用いられ、各種画像処理モジュールによって構成される。前述のジェスチャー認識部608や物体検知部609は画像処理部610の各種画像処理モジュールを利用して実現される。
The
キー処理部611はハードキーI/F513を介して通知される電源キー210や消灯キー211の押下に応じた処理を実行するモジュールであり、電源制御部612及び表示制御部613によって構成される。電源制御部612は、非図示のコントローラ電源がオンのときに電源キー210の押下が通知されると、CPU502で実行されるプログラムの終了処理を実行し、コントローラ電源をオフにして電源オフ処理を行う。また、電源制御部612は、コントローラ電源がオフのときに電源キー210の押下が通知されると、ハードキーI/F513からコントローラ電源を直接オンにする。表示制御部613は、消灯キー211の押下が通知されると、短焦点プロジェクタ207が点灯しているか否かをシリアルI/F510を介して判定する。表示制御部613は、短焦点プロジェクタ207が点灯していれば、シリアルI/F510を介して短焦点プロジェクタ207を消灯し、投影表示を中断する。また、表示制御部613は、短焦点プロジェクタ207が点灯していなければ、シリアルI/F510を介して短焦点プロジェクタ207を点灯し、投影表示を実行する。さらに、表示制御部613は、短焦点プロジェクタ207を点灯したか消灯したかをメイン制御部602へ通知し、メイン制御部602は短焦点プロジェクタ207の点灯/消灯に応じてアプリケーション部614が表示している画面の表示制御を行う。
The
アプリケーション部614は、ユーザが操作するアプリケーションを構成する複数の画面のデータと、各画面を構成するグラフィカルユーザインターフェイス(GUI)部品のデータを保持し、さらに、複数の画面間を遷移する画面遷移を実行する。また、アプリケーション部614はGUI部品が操作された場合に実行する処理を定義し、GUI部品のデータと関連付けて保持する。アプリケーション部614は画面を構成するGUI部品のデータをGUI制御部615へ送信し、画面の表示をGUI制御部615へ要求する。GUI制御部615は、メイン制御部602及びアプリケーション部614からの要求に応じてメッセージやボタン等の対応するGUI部品(操作部品)を生成する。また、生成されたGUI部品が操作された場合に実行する処理を当該GUI部品に関連付ける。ここで、GUI部品に関連付けられる処理は、例えば、GUI部品の色や形を変える表示変更処理や、アプリケーションを構成する各画面の遷移を行う画面遷移処理、若しくは、プログラムされた処理や外部プログラムを起動する実行処理等が該当する。さらに、GUI制御部615は、表示部616へ生成したGUI部品の表示を要求する。表示部616はディスプレイコントローラ509を介して、要求されたGUI部品の表示を短焦点プロジェクタ207に実行させる。短焦点プロジェクタ207は書画台204の操作平面に向けて設置されるため、書画台204の操作平面上にGUI部品が投影表示される。また、GUI制御部615は、ジェスチャー認識部608が認識したユーザのタッチ等のジェスチャー操作、さらにジェスチャー操作が行われた座標をメイン制御部602経由で受信する。また、GUI制御部615は、投影表示されているGUI部品の座標と操作座標を対応させて操作されたGUI部品と操作内容を判定し、GUI部品に関連付けられた処理を実行する。ネットワーク通信部617は、ネットワークI/F506を介してネットワーク104に接続された他の機器とTCP/IPによる通信を行う。
The
図7は、図2における距離画像センサ部のハードウェア構成を示す図である。図7において、距離画像センサ部208は赤外線パターン投射方式の3次元距離画像センサからなり、RGBカメラ701、赤外線パターン投射部702及び赤外線カメラ703を有する。RGBカメラ701は可視光をRGB信号で撮影し、赤外線パターン投射部702は対象物704へ不可視光である赤外線によって3次元測定パターン706を投射する。赤外線カメラ703は対象物に投射した3次元測定パターン706を読み取る。距離画像センサ部208は3次元測定パターン706と赤外線カメラ703の撮影画像707を対応させる。さらに、距離画像センサ部208は、赤外線パターン投射部702と赤外線カメラ703を結ぶ直線705を基線として三角測量の原理を用いることにより、撮影画像707の各画素の赤外線カメラ703からの距離を算出する。これにより、距離画像センサ部208は、各画素に距離値が入った距離画像データを生成する。なお、本実施の形態では、距離画像センサ部208として赤外線パターン投射方式の3次元距離画像センサを用いるが、他の方式の距離画像センサを用いてもよい。例えば、2つのRGBカメラでステレオ立体視を行うステレオ方式や、レーザ光の飛行時間を検出することによって距離を測定するTOF(Time of Flight)方式等を利用する距離画像センサを用いてもよい。
FIG. 7 is a diagram illustrating a hardware configuration of the distance image sensor unit in FIG. In FIG. 7, the distance
図8は、図2のカメラスキャナにおいてGUI部品が投影表示されていない書画台の操作平面へGUI部品が投影表示されたときに生じうる課題を説明するための図である。例えば、図8(A)に示すように、カメラスキャナ101において、書画台204の操作平面上に表示部616が投影する表示画面がメッセージ801の他にGUI部品としてのボタン802及びボタン803を有する場合について説明する。このとき、操作認識部607が、カメラ部202及び距離画像センサ部208による物体の検知を通じてボタン802やボタン803のユーザによるタッチを認識すると、GUI制御部615はボタン802やボタン803に関連付けられた処理を実行する。図8(A)の事例では、ボタン802やボタン803は表示画面の遷移に関連付けられている。
FIG. 8 is a diagram for explaining a problem that may occur when a GUI part is projected and displayed on the operation plane of the document table on which the GUI part is not projected and displayed in the camera scanner of FIG. For example, as shown in FIG. 8A, in the
ここでユーザが消灯キー211を押下すると、表示制御部613は短焦点プロジェクタ207を消灯し、図8(B)に示すように、表示画面の投影表示が中断される。投影表示が中断されるとアプリケーションの実行が中断されるため、ボタン802やボタン803に関連付けられた処理の実行も禁止されなければならない。そこで、表示画面の投影表示が中断された後に、ボタン802やボタン803のユーザによるタッチ、すなわち、ユーザのジェスチャー操作を認識できないように、書画台204の操作平面上に存在する物体の検知を中止する。すなわち、カメラ部202及び距離画像センサ部208をオフにする。
When the user presses the turn-
次いで、ユーザが書画台204の操作平面上に置かれた書面に署名する等の作業を行った後、操作平面上にペン804や手805を置き(図8(C))、そのままの状態でユーザが消灯キー211を押下する。このとき、表示制御部613は短焦点プロジェクタ207を点灯し、図8(A)と同様の表示画面を投影表示する。ここで、アプリケーションの実行が再開されるため、ボタン802やボタン803に関連付けられた処理の実行も許可されなければならない。そこで、表示画面が投影表示された後に、ボタン802やボタン803のユーザによるタッチを認識できるように、書画台204の操作平面上に存在する物体の検知を再開する。すなわち、カメラ部202及び距離画像センサ部208をオンにする。
Next, after the user performs an operation such as signing a document placed on the operation plane of the document table 204, the
しかしながら、図8(D)に示すように、ペン804や手805がボタン802上やボタン803上に置かれたままだと、操作認識部607はボタン802やボタン803がユーザによってタッチされたと認識する。ユーザは表示画面の遷移を意図すること無く操作平面上にペン804や手805を置いたままにすることがあるが、この場合では、ユーザの意図に関係なくボタン802やボタン803に関連付けられた表示画面の遷移が実行される。すなわち、ユーザの意図しないボタン802やボタン803の操作(誤操作)が発生する。本実施の形態では、これに対応して、表示画面が投影表示された後であっても、一定の条件の下、操作認識部607によるボタン802やボタン803のユーザによるタッチを無視する。
However, as shown in FIG. 8D, when the
図9及び図10は、本実施の形態に係る表示操作システムの制御方法としてのプロジェクタ消灯・再点灯処理を示すフローチャートである。図9及び図10の処理は、ユーザが消灯キー211を押下して短焦点プロジェクタ207を消灯してからユーザが再度、消灯キー211を押下して短焦点プロジェクタ207から書画台204へ表示画面を投影表示する際にメイン制御部602が実行する。
9 and 10 are flowcharts showing projector turn-off / re-lighting processing as a control method of the display operation system according to the present embodiment. 9 and 10, the user presses the turn-
まず、短焦点プロジェクタ207から書画台204へ表示画面が投影表示されている状態で、ユーザが消灯キー211を押下すると、表示制御部613はメイン制御部602へ消灯キー211の押下を通知する。消灯キー211の押下の通知に対応してメイン制御部602は、まず、表示制御部613を介して短焦点プロジェクタ207を消灯する(ステップS901)。さらに、メイン制御部602は、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS902)。次いで、メイン制御部602は、アプリケーションの実行を中断した上で距離画像センサ部208をオフにすることにより、ユーザによるタッチを認識できないようにする(ステップS903)。これにより、アプリケーションが実行されていない間はユーザのジェスチャー操作が受け付けられなくなる。メイン制御部602は、続くステップS904において、再度、消灯キー211がユーザによって押下されたか否かを判定し、消灯キー211が押下されていない間はステップS904の判定を繰り返す。消灯キー211が押下された場合、メイン制御部602は、アプリケーションの実行を再開した上で距離画像センサ部208を再びオンにする(ステップS905)。その後、メイン制御部602は、ステップS902と同様に、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS906)。次いで、メイン制御部602は、表示制御部613を介して短焦点プロジェクタ207を再点灯する(ステップS901)。なお、図9におけるステップS901からステップS907までの一連の処理を以下、「メイン処理S908」と定義する。
First, when the user presses the turn-
続く、ステップS909では、ステップS902において検知された物体とステップS906において検知された物体とを比較することにより、短焦点プロジェクタ207の消灯から再点灯までの間に操作平面上に存在する物体が変化したか否かを判定する。本実施の形態における「物体の変化」とは物体の位置の変化(移動)や物体の形状の変化、さらには物体の除去や追加を意味する。ステップS909の判定の結果、物体が変化していない場合、メイン制御部602は、アプリケーション部614からGUI制御部615へ送信されたGUI部品のデータを用いてGUI制御部615へGUI部品の表示を実行させる(ステップS910)。その後、ステップS905で再びオンにされた距離画像センサ部208を通じて操作認識部607がユーザのジェスチャー操作を認識すると、メイン制御部602は、認識されたジェスチャー操作のGUI制御部615への通知を許可する(ステップS911)。これにより、GUI部品がユーザのジェスチャー操作を受付可能となる。すなわち、ユーザのジェスチャー操作は無視されない。その後、本処理を終了する。
In step S909, by comparing the object detected in step S902 with the object detected in step S906, the object existing on the operation plane is changed between the time when the
ステップS909の判定の結果、物体が変化している場合、操作認識部607がユーザのジェスチャー操作を認識しても、メイン制御部602は、認識されたジェスチャー操作のGUI制御部615への通知を禁止する(ステップS912)。その結果、GUI部品はユーザのジェスチャー操作を受け付けることができず、ユーザのジェスチャー操作は無視される。次いで、メイン制御部602は、ステップS910と同様に、GUI制御部615へGUI部品の表示を実行させる(ステップS913)。このとき、GUI部品が書画台204の操作平面上に投影表示されているにもかかわらず、GUI部品に対するユーザのジェスチャー操作は無視される。その後、メイン制御部602は、ステップS902やステップS906と同様に、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS914)。次いで、ステップS915では、ステップS914において物体が検知されたか否かを判定する。さらに、ステップS915では、ステップS902において検知された物体とステップS914において検知された物体とを比較することにより、短焦点プロジェクタ207の消灯から再点灯までの間に操作平面上に存在する物体が変化したか否かを判定する。ところで、ステップS915を実行する場合は、ステップS909において操作平面上に存在する物体が変化したと判定されたことを前提とするため、ステップS915を実行する時点で物体が短焦点プロジェクタ207の消灯時の状態に戻ることは考えにくい。したがって、ステップS915では、実質的に、短焦点プロジェクタ207の再点灯後に操作平面上に存在する物体が検知され続けているか否か、すなわち、操作平面上から物体が除去されたか否かを判定している。
As a result of the determination in step S909, even when the
ステップS915の判定の結果、物体が検知された場合(すなわち、操作平面上から物体が除去されていない場合)、ステップS914を繰り返す。物体が検知されない場合(すなわち、操作平面上から物体が除去された場合)、ステップS911へ進む。これにより、GUI部品がユーザのジェスチャー操作を受付可能となり、ユーザのジェスチャー操作は無視されない。その後、本処理を終了する。 As a result of the determination in step S915, when an object is detected (that is, when the object is not removed from the operation plane), step S914 is repeated. When the object is not detected (that is, when the object is removed from the operation plane), the process proceeds to step S911. Accordingly, the GUI component can accept the user's gesture operation, and the user's gesture operation is not ignored. Thereafter, this process is terminated.
図9及び図10の処理によれば、短焦点プロジェクタ207の消灯後に短焦点プロジェクタ207を再点灯した場合において、操作平面上から物体が除去されていないとき、GUI部品に対するユーザのジェスチャー操作が無視される。これにより、例えば、ユーザがGUI部品の操作を意図せずにGUI部品に該当する位置へ手やペンを置いたままの状態において、アプリケーションのGUI部品が再度投影表示されても、当該手やペンによるGUI部品に対する操作が無視される。これにより、GUI部品の操作を意図せずに置かれた手やペンによるGUI部品に対する誤操作の発生を防止することができる。
9 and 10, when the
また、図9及び図10の処理では、物体検知部609が、短焦点プロジェクタ207が消灯された後から再度、短焦点プロジェクタ207が点灯されるまでの間において、書画台204の操作平面上の物体検知処理を実行する。より具体的には、距離画像センサ部208のオフの前及び距離画像センサ部208の再度のオンの後のそれぞれにおいて物体検知部609が物体検知処理を実行し、それぞれの検知の結果を比較する(ステップS909)。これにより、短焦点プロジェクタ207が消灯され、且つ距離画像センサ部208がオフされた後にユーザがGUI部品の操作を意図せずに書画台204の操作平面上に置いた手やペンを確実に検知することができる。
9 and 10, the
ところで、短焦点プロジェクタ207が消灯される前にユーザがGUI部品の操作を意図して書画台204の操作平面上に手やペンだけでなく、操作に使用する物体を置くことが考えられる。この場合、ユーザは置いた物体を移動(変化)させる可能性が少ない。これに対応して、図9及び図10の処理では、短焦点プロジェクタ207の消灯から再点灯までの間に操作平面上に存在する物体が変化しない場合(ステップS909でNO)、GUI部品に対するジェスチャー操作が無視されない。これにより、GUI部品に関連付けられた処理をユーザの意図通りに実行することができ、もって、ユーザに対する利便性を維持することができる。
By the way, it is conceivable that before the
なお、短焦点プロジェクタ207の点灯時に書画台204の操作平面上へ複数のGUI部品が投影表示される場合も考えられる。このような場合、図9及び図10の処理では、短焦点プロジェクタ207の再点灯後も操作平面上から物体が除去されていなければ、全てのGUI部品に対するジェスチャー操作が無視されるものとする。以下に説明する第2の実施の形態乃至第4の実施の形態においても同様とする。
It is also conceivable that a plurality of GUI parts are projected and displayed on the operation plane of the document table 204 when the
次に、本発明の第2の実施の形態について説明する。第2の実施の形態は、その構成、作用が上述した第1の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用についての説明を行う。 Next, a second embodiment of the present invention will be described. Since the configuration and operation of the second embodiment are basically the same as those of the first embodiment described above, the description of the overlapping configuration and operation will be omitted, and different configurations and operations will be described below. Give an explanation.
ユーザがGUI部品の操作を意図せずにGUI部品に該当する位置へ手やペンを置く場合としては、短焦点プロジェクタ207を消灯して書画台204の操作平面上に置かれた書面へ署名する場合だけでなく、カメラスキャナ101を起動する場合も考えられる。本実施の形態では、これに対応して、カメラスキャナ101を起動する場合、一定の条件の下、GUI部品に対するユーザのジェスチャー操作を無視する。
When a user places a hand or a pen at a position corresponding to a GUI part without intending to operate the GUI part, the
図11は、本実施の形態に係る表示操作システムの制御方法としての電源オン処理を示すフローチャートである。図11の処理は、ユーザがカメラスキャナ101のコントローラ部201における電源キー210を押下した際にメイン制御部602が実行する。
FIG. 11 is a flowchart showing a power-on process as a control method of the display operation system according to the present embodiment. The process in FIG. 11 is executed by the
まず、コントローラ部201の電源がオフのとき、電源キー210が押下されると、メイン制御部602は距離画像センサ部208をオンにする(ステップS1101)。その後、メイン制御部602は、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS1102)。次いで、メイン制御部602は、表示制御部613を介して短焦点プロジェクタ207を点灯する(ステップS1103)。さらに、メイン制御部602はアプリケーション部614を起動する(ステップS1104)。なお、図11におけるステップS1101からステップS1104までの一連の処理を以下、「起動処理S1105」と定義する。
First, when the power of the
続く、ステップS1106では、メイン制御部602がステップS1102において書画台204の操作平面上に存在する物体を検知したかどうかを判定する。物体を検知していない場合、メイン制御部602は、アプリケーション部614からGUI制御部615へ送信されたGUI部品のデータを用いてGUI制御部615へGUI部品の表示を実行させる(ステップS1107)。その後、ステップS1101でオンにされた距離画像センサ部208を通じて操作認識部607がユーザのジェスチャー操作を認識すると、メイン制御部602は、認識されたジェスチャー操作のGUI制御部615への通知を許可する(ステップS1108)。これにより、GUI部品がユーザのジェスチャー操作を受付可能となる。すなわち、ユーザのジェスチャー操作は無視されない。その後、本処理を終了する。
In step S1106, the
ステップS1106の判定の結果、物体を検知している場合、操作認識部607がユーザのジェスチャー操作を認識しても、メイン制御部602は、認識されたジェスチャー操作のGUI制御部615への通知を禁止する(ステップS1109)。その結果、GUI部品はユーザのジェスチャー操作を受け付けることができず、ユーザのジェスチャー操作は無視される。次いで、メイン制御部602は、ステップS1107と同様に、GUI制御部615へGUI部品の表示を実行させる(ステップS1110)。このとき、GUI部品が書画台204の操作平面上に投影表示されているにもかかわらず、GUI部品に対するユーザのジェスチャー操作は無視される。その後、メイン制御部602は、ステップS1102と同様に、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS1111)。次いで、ステップS1112では、メイン制御部602がステップS1111において書画台204の操作平面上に存在する物体を検知したかどうかを判定する。
If the object is detected as a result of the determination in step S1106, the
ステップS1112の判定の結果、物体を検知している場合(すなわち、操作平面上から物体が除去されていない場合)、ステップS1110を繰り返す。物体を検知していない場合(すなわち、操作平面上から物体が除去された場合)、ステップS1108へ進む。これにより、GUI部品がユーザのジェスチャー操作を受付可能となり、ユーザのジェスチャー操作は無視されない。その後、本処理を終了する。 If the object is detected as a result of the determination in step S1112 (that is, if the object is not removed from the operation plane), step S1110 is repeated. When the object is not detected (that is, when the object is removed from the operation plane), the process proceeds to step S1108. Accordingly, the GUI component can accept the user's gesture operation, and the user's gesture operation is not ignored. Thereafter, this process is terminated.
図11の処理によれば、コントローラ部201の電源がオフのとき、電源キー210が押下された場合において、操作平面上に物体が存在しつづける限り、GUI部品に対するユーザのジェスチャー操作が無視される。これにより、例えば、ユーザがGUI部品の操作を意図せずにGUI部品に該当する位置へ手やペンを置いたままの状態において、カメラスキャナ101を起動しても、当該手やペンによるGUI部品に対する操作が無視される。これにより、GUI部品の操作を意図せずに置かれた手やペンによるGUI部品に対する誤操作の発生を防止することができる。なお、図11の処理は、カメラスキャナ101を起動するときだけなく、カメラスキャナ101のスリープモードからの復帰時にも適用することができる。
According to the processing in FIG. 11, when the power of the
次に、本発明の第3の実施の形態について説明する。第3の実施の形態は、その構成、作用が上述した第1の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用についての説明を行う。 Next, a third embodiment of the present invention will be described. Since the configuration and operation of the third embodiment are basically the same as those of the first embodiment described above, the description of the overlapping configuration and operation will be omitted, and different configurations and operations will be described below. Give an explanation.
図12は、本実施の形態に係る表示操作システムの制御方法としてのプロジェクタ消灯・再点灯処理を示すフローチャートである。図12の処理も、図9及び図10の処理と同様に、ユーザが消灯キー211を押下して短焦点プロジェクタ207を消灯してからユーザが再度、消灯キー211を押下して書画台204へ表示画面を投影表示する際にメイン制御部602が実行する。
FIG. 12 is a flowchart showing projector turn-off / re-lighting processing as a control method of the display operation system according to the present embodiment. In the process of FIG. 12 as well, the user presses the turn-
まず、短焦点プロジェクタ207から書画台204へ表示画面が投影表示されている状態で、ユーザが消灯キー211を押下すると、表示制御部613はメイン制御部602へ消灯キー211の押下を通知する。消灯キー211の押下の通知に対応してメイン制御部602はメイン処理S908を実行する。
First, when the user presses the turn-
次いで、メイン制御部602は、短焦点プロジェクタ207の消灯から再点灯までの間に操作平面上に存在する物体が変化したか否かを判定する(ステップS909)。ステップS909の判定の結果、物体が変化していない場合、メイン制御部602は、ステップS910及びステップS911を実行する。これにより、GUI部品がユーザのジェスチャー操作を受付可能となる。その後、本処理を終了する。
Next, the
ステップS909の判定の結果、物体が変化している場合、メイン制御部602はステップS912を実行し、さらに、操作平面上に存在する物体の除去をユーザに要請する物体除去画面表示処理を行う(ステップS1201)。図13は、図12のステップS1201において表示される物体除去画面の一例を示す図である。図13に示すように、ステップS1201では、書画台204の操作平面上へ物体であるペン804や手805の除去をユーザに要請するメッセージ1301を表示する。なお、メッセージ1301はGUI部品に対するユーザのジェスチャー操作が無視されている旨を示してもよい。
If the result of determination in step S909 is that the object has changed, the
次いで、メイン制御部602はステップS914、ステップS915及びステップS913をこの順で実行する。すなわち、操作平面上に存在する物体の除去が除去されない限り、GUI部品が書画台204の操作平面上に投影表示されているにもかかわらず、GUI部品に対するユーザのジェスチャー操作は無視される。一方、操作平面上に存在する物体の除去が除去されると、GUI部品がユーザのジェスチャー操作を受付可能となり、ユーザのジェスチャー操作は無視されない。その後、本処理を終了する。
Next, the
図12の処理によれば、短焦点プロジェクタ207の消灯後に短焦点プロジェクタ207を再点灯した場合において、操作平面上から物体が除去されていないとき、物体の除去をユーザに要請するメッセージ1301が表示される。これにより、ユーザはGUI部品に対するユーザのジェスチャー操作が無視される理由を知ることができ、もって、ユーザに対する利便性を維持することができる。
According to the processing of FIG. 12, when the
また、図12の処理では、操作平面上に存在する物体の除去が除去されると、メッセージ1301の表示を中断してもよい。これにより、GUI部品に対するユーザのジェスチャー操作が可能になったことを知ることができ、もって、ユーザに対する利便性を向上することができる。
In the processing of FIG. 12, the display of the
次に、本発明の第4の実施の形態について説明する。第4の実施の形態は、その構成、作用が上述した第2の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用についての説明を行う。 Next, a fourth embodiment of the present invention will be described. Since the configuration and operation of the fourth embodiment are basically the same as those of the second embodiment described above, the description of the overlapping configuration and operation is omitted, and different configurations and operations are described below. Give an explanation.
図14は、本実施の形態に係る表示操作システムの制御方法としての電源オン処理を示すフローチャートである。図14の処理も、ユーザがカメラスキャナ101のコントローラ部201における電源キー210を押下した際にメイン制御部602が実行する。
FIG. 14 is a flowchart showing a power-on process as a control method of the display operation system according to the present embodiment. The process in FIG. 14 is also executed by the
まず、コントローラ部201の電源がオフのとき、電源キー210が押下されると、メイン制御部602は起動処理S1105を実行する。次いで、メイン制御部602は、ステップS1102において書画台204の操作平面上に存在する物体を検知したかどうかを判定する(ステップS1106)。ステップS1106の判定の結果、物体を検知していない場合、メイン制御部602は、ステップS1107及びステップS1108を実行する。これにより、GUI部品がユーザのジェスチャー操作を受付可能となる。その後、本処理を終了する。
First, when the power of the
ステップS1106の判定の結果、物体を検知している場合、メイン制御部602はステップS1109を実行し、さらに、図12の処理におけるステップS1201の物体除去画面表示処理を行う。次いで、メイン制御部602はステップS1111、ステップS1112及びステップS1110をこの順で実行する。すなわち、操作平面上に存在する物体の除去が除去されない限り、GUI部品が書画台204の操作平面上に投影表示されているにもかかわらず、GUI部品に対するユーザのジェスチャー操作は無視される。一方、操作平面上に存在する物体の除去が除去されると、GUI部品がユーザのジェスチャー操作を受付可能となり、ユーザのジェスチャー操作は無視されない。その後、本処理を終了する。
If the object is detected as a result of the determination in step S1106, the
図14の処理によれば、コントローラ部201の電源がオフのとき、電源キー210が押下された場合において、操作平面上から物体が除去されていないとき、物体の除去をユーザに要請するメッセージ1301が表示される。これにより、ユーザはGUI部品に対するユーザのジェスチャー操作が無視される理由を知ることができ、もって、ユーザに対する利便性を維持することができる。
According to the processing of FIG. 14, when the power of the
また、図14の処理でも、図13の処理と同様に、操作平面上に存在する物体の除去が除去されると、メッセージ1301の表示を中断してもよい。これにより、GUI部品に対するユーザのジェスチャー操作が可能になったことを知ることができ、もって、ユーザに対する利便性を向上することができる。
Also in the process of FIG. 14, the display of the
なお、上述した第1乃至第4の実施の形態では、操作平面上に物体が検知されると、GUI部品に対するジェスチャー操作が無視されたが、GUI部品の位置を記憶したユーザが当該GUI部品に関連付けられた処理の実行を急ぐ場合がある。この場合、ユーザは消灯された短焦点プロジェクタ207の再点灯前やカメラスキャナ101を起動する前に、予め、所望のGUI部品へ向けて手やペンを差し出すことが考えられる。これに対応して、ステップS909で物体が変化していると判定され、又はステップS1106で物体を検知している判定される場合であっても、一定の条件の下、GUI部品に対するユーザのジェスチャー操作を無視しないことが利便性の観点からは好ましい。例えば、ステップS909で物体が変化していると判定されている場合であっても、検知された物体がGUI部品の操作を明らかに意図する物であった場合、GUI部品に対するユーザのジェスチャー操作を無視しない。GUI部品の操作を明らかに意図する物としては、GUI部品に向かって移動する手、ペンや指し棒(スタイラス)等が該当する。
In the first to fourth embodiments described above, when an object is detected on the operation plane, the gesture operation on the GUI component is ignored. However, the user who stores the position of the GUI component is included in the GUI component. The associated process may be rushed to execute. In this case, it is conceivable that the user inserts a hand or a pen toward a desired GUI component in advance before the short-
次に、本発明の第5の実施の形態について説明する。第5の実施の形態は、その構成、作用が上述した第1乃至第4の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用についての説明を行う。具体的には、第1乃至第4の実施の形態では、複数のGUI部品が投影表示されていても、操作平面上から物体が除去されていなければ、全てのGUI部品に対するジェスチャー操作が無視される。一方、第5の実施の形態では、複数のGUI部品が投影表示されている場合、各GUI部品上に物体が存在しているか否かが判定され、その上に物体が存在しているGUI部品に対するジェスチャー操作のみが無視される。 Next, a fifth embodiment of the present invention will be described. Since the configuration and operation of the fifth embodiment are basically the same as those of the first to fourth embodiments described above, the description of the overlapping configuration and operation is omitted, and different configurations are described below. The operation will be described. Specifically, in the first to fourth embodiments, even if a plurality of GUI parts are projected and displayed, gesture operations for all the GUI parts are ignored unless an object is removed from the operation plane. The On the other hand, in the fifth embodiment, when a plurality of GUI parts are projected and displayed, it is determined whether or not an object exists on each GUI part, and the GUI part on which an object exists. Only gesture operations on are ignored.
図15は、本実施の形態に係る表示操作システムの制御方法としての画面表示処理を示すフローチャートである。図15の処理は、短焦点プロジェクタ207の消灯後に短焦点プロジェクタ207を再点灯した場合やコントローラ部201の電源がオフのとき、電源キー210が押下された場合にメイン制御部602が実行する。さらに、図15の処理は、アプリケーション部614がユーザの操作に応じて画面遷移を実行する場合にも、アプリケーション部614から画面遷移の実行を通知されたメイン制御部602が実行する。
FIG. 15 is a flowchart showing screen display processing as a control method of the display operation system according to the present embodiment. The processing in FIG. 15 is executed by the
まず、メイン制御部602は、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS1501)。その後、メイン制御部602はGUI制御部615へ複数のGUI部品の表示を要求する(ステップS1502)。なお、本実施の形態では、アプリケーション部614から複数のGUI部品のデータがGUI制御部615へ送信されている。
First, the
次いで、GUI制御部615は、複数のGUI部品の各々について、以下に説明する、ステップS1504及びステップS1505の間のステップS1506乃至ステップS1510の処理を行う。すなわち、GUI部品毎にステップS1506乃至ステップS1510の処理を繰り返す。
Next, the
まず、メイン制御部602は、対象となるGUI部品(以下、「対象GUI部品」という。)について、ステップS1501で検知した物体が対象GUI部品上に存在するか否かを判定する(ステップS1504)。ステップS1504の判定の結果、物体が対象GUI部品上に存在していない場合、対象GUI部品に関連付けられた処理の実行を許可する(ステップS1506)。なお、対象GUI部品に処理が関連付けられていなければ、ステップS1506をスキップする。その後、メイン制御部602は、対象GUI部品を操作平面上に通常モードで表示する(ステップS1507)。本実施の形態において、「通常モード」は、対象GUI部品をユーザのジェスチャー操作を受付可能な状態で表示するモードを示す。ステップS1504の判定の結果、物体が対象GUI部品上に存在している場合、メイン制御部602は、対象GUI部品に処理が関連付けられているかどうかを判定する(ステップS1508)。ステップS1508の判定の結果、対象GUI部品に処理が関連付けられていなければ、ステップS1507へ進む。対象GUI部品に処理が関連付けられていれば、対象GUI部品に関連付けられた処理の実行を禁止する(ステップS1506)。ステップS1506において対象GUI部品に関連付けられた処理の実行が禁止されると、ユーザが対象GUI部品をジェスチャーで操作しても当然、関連付けられた処理は実行されない。すなわち、ユーザの対象GUI部品に対するジェスチャー操作が実質的に無視される。その後、メイン制御部602は、対象GUI部品を操作平面上に操作禁止モードで表示する(ステップS1507)。本実施の形態において、「操作禁止モード」は、対象GUI部品をユーザのジェスチャー操作を受付不可能な状態で表示するモードである。操作禁止モードでは、図16に示すように、ペン804が置かれたために関連付けられた処理の実行が禁止された対象GUI部品であるボタン802が網掛けされて表示される。なお、操作禁止モードでは、関連付けられた処理の実行を禁止された対象GUI部品を点滅表示してもよい。図16では、ボタン803の上に物体が存在していないため、ボタン803は通常モードで表示され、ボタン803に対するユーザのジェスチャー操作は無視されない。ユーザは対象GUI部品の網掛け表示や点滅表示を確認することにより、当該対象GUI部品に対するジェスチャー操作が無視されることを知ることができる。その後、メイン制御部602は、全てのGUI部品についてステップS1506乃至ステップS1510の処理を実行すると、本処理を終了する。
First, the
図17は、本実施の形態に係る表示操作システムの制御方法としてのGUI部品操作許可処理を示すフローチャートである。図17の処理は、図16の処理に続けて実行される。 FIG. 17 is a flowchart showing a GUI component operation permission process as a control method of the display operation system according to the present embodiment. The process of FIG. 17 is executed following the process of FIG.
まず、メイン制御部602は、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS1501)。
First, the
次いで、GUI制御部615は、図12のステップS1509において関連付けられた処理の実行を禁止されたGUI部品の各々について、ステップS1702及びステップS1703の間のステップS1704乃至ステップS1706の処理を行う。すなわち、関連付けられた処理の実行を禁止されたGUI部品毎にステップS1704乃至ステップS1706の処理を繰り返す。ステップS1704乃至ステップS1706の処理について以下に説明する。
Next, the
まず、メイン制御部602は、対象となる、関連付けられた処理の実行を禁止されたGUI部品(以下、「禁止GUI部品」という。)について、ステップS1701で検知した物体が禁止GUI部品上に存在するか否かを判定する(ステップS1704)。ステップS1704の判定の結果、物体が禁止GUI部品上に存在していない場合、禁止GUI部品に関連付けられた処理の実行を許可する(ステップS1705)。その後、メイン制御部602は、操作禁止モードから通常モードに修正して禁止GUI部品を操作平面上に表示する(ステップS1706)。ステップS1704の判定の結果、物体が禁止GUI部品上に未だ存在している場合、操作禁止モードを修正しない。その後、メイン制御部602は、全ての禁止GUI部品についてステップS1704乃至ステップS1706の処理を実行すると、全てのGUI部品が通常モードで表示されているか否かを判定する(ステップS1706)。ステップS1706の判定の結果、全てのGUI部品が通常モードで表示されていなければ、ステップS1701に戻り、全てのGUI部品が通常モードで表示されていれば、本処理を終了する。
First, the
図15及び図17の処理によれば、消灯された短焦点プロジェクタ207を再点灯した場合やカメラスキャナ101の起動時に電源キー210が押下された場合、その上から物体が除去されていないGUI部品に対するユーザのジェスチャー操作が無視される。すなわち、ユーザが意図せずに複数のGUI部品の一つに該当する位置へ手やペンを置いたままの状態で各GUI部品を投影表示させても、手やペンが置かれたGUI部品に対するユーザのジェスチャー操作が無視される。これにより、投影表示される複数のGUI部品の各々に対する誤操作の発生を防止することができる。また、複数のGUI部品の一つの上に手やペンが置かれても、他のGUI部品上に手やペンが置かれていなければ、他のGUI部品に対するユーザのジェスチャー操作が無視されない。その結果、他のGUI部品の操作に関する利便性を確保することができる。なお、本実施の形態においても、その上から物体が除去されていないGUI部品が1つでも存在すれば、物体の除去をユーザに要請するメッセージ1301を表示してもよい。
According to the processing of FIGS. 15 and 17, when the
本発明は、上述の実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors of the computer of the system or apparatus read the program It can also be realized by processing executed in the above. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101 カメラスキャナ
201 コントローラ部
202 カメラ部
204 書画台
207 短焦点プロジェクタ
208 距離画像センサ部
210 電源キー
211 消灯キー
802,803 ボタン
1301 メッセージ
DESCRIPTION OF
1301 Message
Claims (13)
前記操作面の上に存在する物体を検知する検知部と、
前記操作部品に対する操作に基づいて前記アプリケーションの動作を制御する制御部とを備える表示操作システムであって、
前記操作部品が表示されていない前記操作面へ前記表示部が前記操作部品を表示した場合において、前記検知部が前記物体を検知したとき、前記制御部は前記操作部品に対する操作を無視することを特徴とする表示操作システム。 A display unit that projects and displays the operation parts of the application on the operation surface;
A detection unit for detecting an object present on the operation surface;
A display operation system including a control unit that controls the operation of the application based on an operation on the operation component,
When the display unit displays the operation component on the operation surface on which the operation component is not displayed, the control unit ignores an operation on the operation component when the detection unit detects the object. Characteristic display operation system.
前記操作面の上に存在する物体を検知する検知部と、
前記複数の操作部品の各々に対する操作に基づいて前記アプリケーションの動作を制御する制御部とを備える表示操作システムであって、
前記複数の操作部品が表示されていない前記操作面へ前記表示部が前記複数の操作部品を表示した場合において、前記複数の操作部品の各々に関し、前記検知部が当該操作部品の上に存在する前記物体を検知したとき、前記制御部は当該操作部品に対する操作を無視することを特徴とする表示操作システム。 A display unit that projects and displays a plurality of operation parts of the application on the operation surface;
A detection unit for detecting an object present on the operation surface;
A display operation system including a control unit that controls the operation of the application based on an operation on each of the plurality of operation components;
When the display unit displays the plurality of operation components on the operation surface on which the plurality of operation components are not displayed, the detection unit exists on the operation component for each of the plurality of operation components. When detecting the object, the control unit ignores an operation on the operation component.
前記操作面の上に存在する物体を検知する検知ステップと、
前記操作部品が表示されていない前記操作面へ前記操作部品が表示された場合において、前記物体が検知されたとき、前記操作部品に対する操作を無視する制御ステップとを有することを特徴とする表示操作システムの制御方法。 A display step for projecting and displaying the operation parts of the application on the operation surface;
A detection step of detecting an object present on the operation surface;
And a control step of ignoring an operation on the operation component when the object is detected when the operation component is displayed on the operation surface on which the operation component is not displayed. How to control the system.
前記操作面の上に存在する物体を検知する検知ステップと、
前記複数の操作部品が表示されていない前記操作面へ前記複数の操作部品が表示された場合において、前記複数の操作部品の各々に関し、前記検知ステップにおいて当該操作部品の上に存在する前記物体を検知したとき、当該操作部品に対する操作を無視する制御ステップとを有することを特徴とする表示操作システムの制御方法。 A display step for projecting and displaying a plurality of operation parts of the application on the operation surface;
A detection step of detecting an object present on the operation surface;
In the case where the plurality of operation components are displayed on the operation surface on which the plurality of operation components are not displayed, the object existing on the operation component in the detection step is related to each of the plurality of operation components. And a control step of ignoring an operation on the operation component when detected.
前記表示操作システムの制御方法は、
操作面へアプリケーションの操作部品を投影表示する表示ステップと、
前記操作面の上に存在する物体を検知する検知ステップと、
前記操作部品が表示されていない前記操作面へ前記操作部品が表示された場合において、前記物体が検知されたとき、前記操作部品に対する操作を無視する制御ステップとを有することを特徴とするプログラム。 A program for causing a computer to execute a control method of a display operation system,
The display operation system control method includes:
A display step for projecting and displaying the operation parts of the application on the operation surface;
A detection step of detecting an object present on the operation surface;
And a control step of ignoring an operation on the operation component when the object is detected when the operation component is displayed on the operation surface on which the operation component is not displayed.
操作面へアプリケーションの複数の操作部品を投影表示する表示ステップと、
前記操作面の上に存在する物体を検知する検知ステップと、
前記複数の操作部品が表示されていない前記操作面へ前記複数の操作部品が表示された場合において、前記複数の操作部品の各々に関し、前記検知ステップにおいて当該操作部品の上に存在する前記物体を検知したとき、当該操作部品に対する操作を無視する制御ステップとを有することを特徴とするプログラム。 A program for causing a computer to execute a control method of a display operation system,
A display step for projecting and displaying a plurality of operation parts of the application on the operation surface;
A detection step of detecting an object present on the operation surface;
In the case where the plurality of operation components are displayed on the operation surface on which the plurality of operation components are not displayed, the object existing on the operation component in the detection step is related to each of the plurality of operation components. And a control step of ignoring an operation on the operation component when detected.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017042947A JP2018147307A (en) | 2017-03-07 | 2017-03-07 | Display operation system, control method of the same, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017042947A JP2018147307A (en) | 2017-03-07 | 2017-03-07 | Display operation system, control method of the same, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018147307A true JP2018147307A (en) | 2018-09-20 |
Family
ID=63591987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017042947A Pending JP2018147307A (en) | 2017-03-07 | 2017-03-07 | Display operation system, control method of the same, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018147307A (en) |
-
2017
- 2017-03-07 JP JP2017042947A patent/JP2018147307A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI423096B (en) | Projecting system with touch controllable projecting picture | |
US20120169671A1 (en) | Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor | |
TWI559174B (en) | Gesture based manipulation of three-dimensional images | |
KR101446902B1 (en) | Method and apparatus for user interraction | |
US9544556B2 (en) | Projection control apparatus and projection control method | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
US10276133B2 (en) | Projector and display control method for displaying split images | |
JP6381361B2 (en) | DATA PROCESSING DEVICE, DATA PROCESSING SYSTEM, DATA PROCESSING DEVICE CONTROL METHOD, AND PROGRAM | |
US9715738B2 (en) | Information processing apparatus recognizing multi-touch operation, control method thereof, and storage medium | |
JP2007207056A (en) | Information input system | |
JP2016103137A (en) | User interface system, image processor and control program | |
US20110193969A1 (en) | Object-detecting system and method by use of non-coincident fields of light | |
US10019919B2 (en) | Processing apparatus, command generation method and storage medium | |
JP2017117373A (en) | Operation device and control method of the same, and program | |
JP2005208991A (en) | Position information output device and signal processing method | |
JP2018112894A (en) | System and control method | |
JP5882270B2 (en) | Information processing apparatus and program | |
JP2017162126A (en) | Input system, input method, control program and storage medium | |
JP2018018308A (en) | Information processing device and control method and computer program therefor | |
JP2017126225A (en) | Image processing device, method and program | |
JP2018147307A (en) | Display operation system, control method of the same, and program | |
WO2021225044A1 (en) | Information processing device, information processing method based on user input operation, and computer program for executing said method | |
JP2018063555A (en) | Information processing device, information processing method, and program | |
TWI444875B (en) | Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and imaging sensor | |
JP5713401B2 (en) | User interface device for generating projected image signal for pointer projection, image projection method and program |