JP2018147307A - Display operation system, control method of the same, and program - Google Patents

Display operation system, control method of the same, and program Download PDF

Info

Publication number
JP2018147307A
JP2018147307A JP2017042947A JP2017042947A JP2018147307A JP 2018147307 A JP2018147307 A JP 2018147307A JP 2017042947 A JP2017042947 A JP 2017042947A JP 2017042947 A JP2017042947 A JP 2017042947A JP 2018147307 A JP2018147307 A JP 2018147307A
Authority
JP
Japan
Prior art keywords
display
component
unit
displayed
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017042947A
Other languages
Japanese (ja)
Inventor
克幸 ▲高▼橋
克幸 ▲高▼橋
Katsuyuki Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017042947A priority Critical patent/JP2018147307A/en
Publication of JP2018147307A publication Critical patent/JP2018147307A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a display operation system capable of preventing the occurrence of an error operation to an operation component of an application which is projected and displayed.SOLUTION: In a camera scanner 101, when a short focus projector 207 is turned on again after it is turned off, a user gesture operation for a GUI component projected to and displayed on an operation plane is ignored in the case where an object is not removed from the operation plane of a document table 204.SELECTED DRAWING: Figure 10

Description

本発明は、表示されたアプリケーションの操作部品に対する操作をユーザのジェスチャー操作を検出することによって認識する表示操作システム、その制御方法及びプログラムに関する。   The present invention relates to a display operation system that recognizes an operation on an operation component of a displayed application by detecting a user's gesture operation, a control method thereof, and a program.

投影表示されたアプリケーションのグラフィカルユーザインターフェイスからなる操作部品に対する操作を、ユーザの手や指先の動き(ジェスチャー操作)を検知することによって認識する表示操作システムが知られている(例えば、特許文献1参照。)。また、ユーザの手や指先の動きに限らず、書画台上の物体、例えば、ペンの3次元座標を検出することによって投影表示されたアプリケーションの操作部品に対する操作を認識する表示操作システムも知られている。   There is known a display operation system that recognizes an operation on an operation component including a graphical user interface of a projected application by detecting a movement (gesture operation) of a user's hand or a fingertip (for example, see Patent Document 1). .) A display operation system that recognizes an operation on an operation component of an application projected and displayed by detecting a three-dimensional coordinate of an object on a document table, for example, a pen, is not limited to the movement of a user's hand or fingertip. ing.

このような表示操作システムでは、書面を用いた説明、書面への署名、投影表示されたアプリケーションを用いた説明や投影表示されたアプリケーションの操作部品に対する操作を同じ書画台を用いて行うことができる。これにより、例えば、ユーザとしての販売員の業務効率を向上させることができるとともに、ユーザとしての購買者や契約者の確認、署名の作業効率も向上させることができる。また、このような表示操作システムは、一時的にプロジェクタによる投影を中断するブランク機能を有し、ブランク機能に対応してプロジェクタの消灯キーを備える。例えば、書面を用いた説明や書面への署名を行う際、書面へアプリケーションの操作部品が重畳表示されるのを避けるため、ユーザは消灯キーを操作してプロジェクタによるアプリケーションの操作部品の投影表示を中断させる。   In such a display operation system, it is possible to perform an explanation using a document, a signature on the document, an explanation using a projected display application, and an operation on an operation component of the projected display using the same document stand. . Thereby, for example, the business efficiency of a salesperson as a user can be improved, and the work efficiency of confirmation and signature of a purchaser or contractor as a user can be improved. In addition, such a display operation system has a blank function for temporarily interrupting projection by the projector, and includes a projector turn-off key corresponding to the blank function. For example, when giving a written explanation or signing a document, in order to avoid the operation parts of the application being superimposed on the document, the user operates the extinction key to display the projection of the operation parts of the application by the projector. Interrupt.

特開2005−267034号公報Japanese Patent Laying-Open No. 2005-267034

しかしながら、書面を用いた説明や書面への署名が終了した後、ユーザが意図すること無くアプリケーションの操作部品に該当する位置へ手を置いたままの状態で消灯キーの操作によって再度、アプリケーションの操作部品が投影表示されることがある。また、署名に用いたペンをアプリケーションの操作部品に該当する位置へ置き忘れたままの状態で消灯キーの操作によって再度、アプリケーションの操作部品が投影表示されることがある。このような場合、ユーザの手やペンによってアプリケーションの操作部品に対する操作が行われたと認識されるおそれがある。すなわち、投影表示されるアプリケーションの操作部品に対する誤操作が発生するおそれがある。   However, after completing the explanation using the document and signing the document, the user can unintentionally operate the application again by operating the extinction key while keeping his hand at the position corresponding to the operation part of the application. Parts may be projected and displayed. In addition, the operation component of the application may be projected and displayed again by operating the extinction key while the pen used for the signature is left in a position corresponding to the operation component of the application. In such a case, there is a risk that it is recognized that an operation on the operation component of the application has been performed by the user's hand or pen. That is, there is a possibility that an erroneous operation on the operation component of the projected application is generated.

本発明の目的は、投影表示されるアプリケーションの操作部品に対する誤操作の発生を防止することができる表示操作システム、その制御方法及びプログラムを提供することにある。   An object of the present invention is to provide a display operation system, a control method thereof, and a program capable of preventing an erroneous operation on an operation component of an application displayed by projection.

上記目的を達成するために、本発明の表示操作システムは、操作面へアプリケーションの操作部品を投影表示する表示部と、前記操作面の上に存在する物体を検知する検知部と、前記操作部品に対する操作に基づいて前記アプリケーションの動作を制御する制御部とを備える表示操作システムであって、前記操作部品が表示されていない前記操作面へ前記表示部が前記操作部品を表示した場合において、前記検知部が前記物体を検知したとき、前記制御部は前記操作部品に対する操作を無視することを特徴とする。   In order to achieve the above object, a display operation system of the present invention includes a display unit that projects and displays an operation component of an application on an operation surface, a detection unit that detects an object existing on the operation surface, and the operation component. And a control unit that controls the operation of the application based on an operation on the display unit when the display unit displays the operation component on the operation surface on which the operation component is not displayed. When the detection unit detects the object, the control unit ignores an operation on the operation component.

本発明によれば、投影表示されるアプリケーションの操作部品に対する誤操作の発生を防止することができる。   According to the present invention, it is possible to prevent an erroneous operation on an operation component of an application that is projected and displayed.

本発明の第1の実施の形態に係る表示操作システムとしてのカメラスキャナが含まれるネットワーク構成を示す図である。1 is a diagram showing a network configuration including a camera scanner as a display operation system according to a first embodiment of the present invention. 図1におけるカメラスキャナの構成を概略的に示す図である。It is a figure which shows schematically the structure of the camera scanner in FIG. 図2のカメラスキャナにおける座標系を説明するための図である。It is a figure for demonstrating the coordinate system in the camera scanner of FIG. 図3における直交座標系、カメラ座標系及びカメラ撮像平面の関係を示す。The relationship between the orthogonal coordinate system, the camera coordinate system, and the camera imaging plane in FIG. 3 is shown. 図1のカメラスキャナのコントローラ部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the controller part of the camera scanner of FIG. 図5におけるCPUが実行するカメラスキャナの制御用プログラムの機能モジュールの構成を示すブロック図である。FIG. 6 is a block diagram showing the configuration of functional modules of a camera scanner control program executed by the CPU in FIG. 5. 図2における距離画像センサ部のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the distance image sensor part in FIG. 図2のカメラスキャナにおいてGUI部品が投影表示されていない書画台の操作平面へGUI部品が投影表示されたときに生じうる課題を説明するための図である。FIG. 3 is a diagram for explaining a problem that may occur when a GUI part is projected and displayed on an operation plane of a document table on which no GUI part is projected and displayed in the camera scanner of FIG. 2. 本発明の第1の実施の形態に係る表示操作システムの制御方法としてのプロジェクタ消灯・再点灯処理を示すフローチャートである。It is a flowchart which shows the projector light extinction / relighting process as a control method of the display operation system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る表示操作システムの制御方法としてのプロジェクタ消灯・再点灯処理を示すフローチャートである。It is a flowchart which shows the projector light extinction / relighting process as a control method of the display operation system which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係る表示操作システムの制御方法としての電源オン処理を示すフローチャートである。It is a flowchart which shows the power-on process as a control method of the display operation system which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る表示操作システムの制御方法としてのプロジェクタ消灯・再点灯処理を示すフローチャートである。It is a flowchart which shows the projector light extinction / relighting process as a control method of the display operation system which concerns on the 3rd Embodiment of this invention. 図12のステップS1201において表示される物体除去画面の一例を示す図である。It is a figure which shows an example of the object removal screen displayed in step S1201 of FIG. 本発明の第4の実施の形態に係る表示操作システムの制御方法としての電源オン処理を示すフローチャートである。It is a flowchart which shows the power-on process as a control method of the display operation system which concerns on the 4th Embodiment of this invention. 本発明の第5の実施の形態に係る表示操作システムの制御方法としての画面表示処理を示すフローチャートである。It is a flowchart which shows the screen display process as a control method of the display operation system which concerns on the 5th Embodiment of this invention. 操作禁止モードを説明するための画面の一例を示す図である。It is a figure which shows an example of the screen for demonstrating operation prohibition mode. 本発明の第5の実施の形態に係る表示操作システムの制御方法としてのGUI部品操作許可処理を示すフローチャートである。It is a flowchart which shows the GUI component operation permission process as a control method of the display operation system which concerns on the 5th Embodiment of this invention.

以下、本発明の実施の形態について図面を参照しながら詳細に説明する。しかしながら、以下の実施の形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は実施の形態に記載されている構成によって限定されることはない。まず、本発明の第1の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the configurations described in the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in the embodiments. First, a first embodiment of the present invention will be described.

図1は、本発明の第1の実施の形態に係る表示操作システムとしてのカメラスキャナが含まれるネットワーク構成を示す図である。図1において、カメラスキャナ101はホストコンピュータ102及びプリンタ103とイーサネット(登録商標)等のネットワーク104を介して接続されている。本実施の形態では、ホストコンピュータ102からの指示に応じ、カメラスキャナ101によって画像を読み取るスキャン機能や、スキャン機能によって生成されたスキャンデータをプリンタ103によって出力するプリント機能が実行される。また、ホストコンピュータ102を介すること無くカメラスキャナ101へ直接に指示を行うことにより、スキャン機能やプリント機能を実行することもできる。   FIG. 1 is a diagram showing a network configuration including a camera scanner as a display operation system according to a first embodiment of the present invention. In FIG. 1, a camera scanner 101 is connected to a host computer 102 and a printer 103 via a network 104 such as Ethernet (registered trademark). In this embodiment, in response to an instruction from the host computer 102, a scan function for reading an image by the camera scanner 101 and a print function for outputting the scan data generated by the scan function by the printer 103 are executed. Further, by directly instructing the camera scanner 101 without using the host computer 102, the scan function and the print function can be executed.

図2は、図1におけるカメラスキャナの構成を概略的に示す図である。図2において、カメラスキャナ101は、ハードウェアデバイスとしてのコントローラ部201、カメラ部202、腕部203、短焦点プロジェクタ207及び距離画像センサ部208を含む。カメラスキャナ101の本体を構成するコントローラ部201、撮像を行うためのカメラ部202、短焦点プロジェクタ207及び3次元距離センサからなる距離画像センサ部208は互いに腕部203によって連結されている。腕部203は複数の関節を有し、各関節において屈曲されることにより、伸長自在に構成される。コントローラ部201はカメラスキャナ101の電源のオン/オフを制御する電源キー210及び短焦点プロジェクタ207による投影の開始、中止を制御する消灯キー211を有する。   FIG. 2 is a diagram schematically showing the configuration of the camera scanner in FIG. 2, the camera scanner 101 includes a controller unit 201, a camera unit 202, an arm unit 203, a short focus projector 207, and a distance image sensor unit 208 as hardware devices. A controller unit 201 constituting the main body of the camera scanner 101, a camera unit 202 for imaging, a short focus projector 207, and a distance image sensor unit 208 including a three-dimensional distance sensor are connected to each other by an arm unit 203. The arm portion 203 has a plurality of joints, and is configured to be stretchable by being bent at each joint. The controller unit 201 includes a power key 210 that controls on / off of the power of the camera scanner 101 and a light-off key 211 that controls start and stop of projection by the short focus projector 207.

カメラスキャナ101は操作平面(操作面)を有する書画台204の脇に配置される。カメラ部202及び距離画像センサ部208は書画台204を指向し、カメラ部202は図中の破線で囲まれた操作平面上の読み取り領域205内の画像を読み取る。例えば、カメラ部202は読み取り領域205内に置かれた原稿206の画像を読み取る。また、書画台204内にはターンテーブル209が設けられている。ターンテーブル209はコントローラ部201からの指示によって回転し、ターンテーブル209上に置かれた物体とカメラ部202の相対角度を変えることができる。カメラスキャナ101では、カメラ部202及び距離画像センサ部208が、書画台204の操作平面上に存在する物体を検知する検知部を構成する。カメラスキャナ101において、カメラ部202は単一解像度で画像を撮像するカメラからなるが、高解像度画像撮像と低解像度画像撮像の切り換えが可能なカメラであってもよい。なお、カメラスキャナ101は、書画台204に配置されるLCDタッチパネル(図示しない)及び後述のスピーカ514を備えてもよい。さらに、カメラスキャナ101は、距離画像センサ部208以外に、周囲の環境情報を収集するための人感センサ、照度センサ、加速度センサ等の各種センサデバイスを備えてもよい。   The camera scanner 101 is disposed beside a document table 204 having an operation plane (operation surface). The camera unit 202 and the distance image sensor unit 208 are directed toward the document table 204, and the camera unit 202 reads an image in the reading area 205 on the operation plane surrounded by a broken line in the drawing. For example, the camera unit 202 reads an image of the document 206 placed in the reading area 205. A turntable 209 is provided in the document table 204. The turntable 209 is rotated by an instruction from the controller unit 201, and the relative angle between the object placed on the turntable 209 and the camera unit 202 can be changed. In the camera scanner 101, the camera unit 202 and the distance image sensor unit 208 constitute a detection unit that detects an object existing on the operation plane of the document table 204. In the camera scanner 101, the camera unit 202 includes a camera that captures an image at a single resolution. However, the camera unit 202 may be a camera that can switch between high-resolution image capturing and low-resolution image capturing. The camera scanner 101 may include an LCD touch panel (not shown) arranged on the document table 204 and a speaker 514 described later. Further, the camera scanner 101 may include various sensor devices such as a human sensor, an illuminance sensor, and an acceleration sensor for collecting surrounding environment information in addition to the distance image sensor unit 208.

図3は、図2のカメラスキャナにおける座標系を説明するための図である。図3において、カメラスキャナ101では、カメラ座標系、距離画像座標系及びプロジェクタ座標系が定義される。カメラ座標系は、カメラ部202が撮像する画像平面をXY平面とし、且つ該画像平面に直交した方向をZ方向として定義した座標系である。距離画像座標系は、距離画像センサ部208が有する後述のRGBカメラ701が撮像する画像平面をXY平面とし、且つ該画像平面に直交した方向をZ方向として定義した座標系である。プロジェクタ座標系は、短焦点プロジェクタ207が画像を投影する画像平面をXY平面とし、且つ該画像平面に直交した方向をZ方向として定義した座標系である。さらに、カメラスキャナ101では、これらの3つの独立した座標系の3次元データを統一的に扱えるようにするために、書画台204を含む平面をXY平面とし、且つ該XY平面に直交した方向をZ方向とする直交座標系が定義される。   FIG. 3 is a diagram for explaining a coordinate system in the camera scanner of FIG. In FIG. 3, the camera scanner 101 defines a camera coordinate system, a distance image coordinate system, and a projector coordinate system. The camera coordinate system is a coordinate system in which an image plane captured by the camera unit 202 is defined as an XY plane and a direction orthogonal to the image plane is defined as a Z direction. The distance image coordinate system is a coordinate system in which an image plane captured by a later-described RGB camera 701 included in the distance image sensor unit 208 is defined as an XY plane, and a direction orthogonal to the image plane is defined as a Z direction. The projector coordinate system is a coordinate system in which an image plane on which the short focus projector 207 projects an image is defined as an XY plane, and a direction orthogonal to the image plane is defined as a Z direction. Further, in the camera scanner 101, in order to be able to handle three-dimensional data of these three independent coordinate systems in a unified manner, the plane including the document table 204 is defined as an XY plane, and a direction orthogonal to the XY plane is set. An orthogonal coordinate system defined as the Z direction is defined.

図4は、図3における直交座標系、カメラ座標系及びカメラ撮像平面の関係を示す。カメラスキャナ101では、直交座標系における3次元点P[X,Y,Z]を下記式(1)によってカメラ座標系における3次元点Pc[Xc,Yc,Zc]へ変換することができる。
[Xc, Yc, Zc]T = [Rc|tc][X, Y, Z, 1]T … (1)
ここで、Rcは3×3の回転行列であり、tcは並進ベクトルである。Rc及びtcは、直交座標系に対するカメラの姿勢(回転)と位置(並進)に基づいて定まる外部パラメータによって構成される。また、カメラ座標系で定義された3次元点Pc[Xc,Yc,Zc]を下記式(2)によって直交座標系における3次元点P[X,Y,Z]へ変換することができる。
[X, Y, Z]T = [Rc-1|-Rc-1tc][Xc, Yc, Zc, 1]T …(2)
FIG. 4 shows the relationship between the orthogonal coordinate system, the camera coordinate system, and the camera imaging plane in FIG. In the camera scanner 101, the three-dimensional point P [X, Y, Z] in the orthogonal coordinate system can be converted into the three-dimensional point Pc [Xc, Yc, Zc] in the camera coordinate system by the following equation (1).
[Xc, Yc, Zc] T = [Rc | tc] [X, Y, Z, 1] T (1)
Here, Rc is a 3 × 3 rotation matrix, and tc is a translation vector. Rc and tc are configured by external parameters determined based on the posture (rotation) and position (translation) of the camera with respect to the orthogonal coordinate system. Further, the three-dimensional point Pc [Xc, Yc, Zc] defined in the camera coordinate system can be converted into the three-dimensional point P [X, Y, Z] in the orthogonal coordinate system by the following equation (2).
[X, Y, Z] T = [Rc-1 | -Rc-1tc] [Xc, Yc, Zc, 1] T (2)

カメラ部202で撮影される2次元の画像平面(以下、「カメラ撮像平面」という。)は、カメラ部202によって3次元空間中の3次元点群の3次元情報を2次元情報に変換することによって構成される。すなわち、カメラ撮像平面は、カメラ座標系上での3次元点Pc[Xc,Yc,Zc]を下記式(3)によって2次元座標pc[xp,yp]に透視投影変換することによって構成することができる。
λ[xp, yp, 1]T = A[Xc, Yc, Zc, 1]T …(3)
ここで、Aは、焦点距離と画像中心等で表現される3×3の行列であるカメラの内部パラメータである。
A two-dimensional image plane (hereinafter referred to as “camera imaging plane”) photographed by the camera unit 202 is converted by the camera unit 202 from three-dimensional information of a three-dimensional point group in the three-dimensional space into two-dimensional information. Consists of. That is, the camera imaging plane is configured by perspective-projecting the three-dimensional point Pc [Xc, Yc, Zc] on the camera coordinate system into the two-dimensional coordinate pc [xp, yp] by the following equation (3). Can do.
λ [xp, yp, 1] T = A [Xc, Yc, Zc, 1] T (3)
Here, A is a camera internal parameter which is a 3 × 3 matrix expressed by the focal length and the image center.

以上のように、カメラスキャナ101では、上記式(1),(3)を用いることによって直交座標系で表された3次元点群をカメラ座標系での3次元点群やカメラ撮像平面に変換することができる。なお、カメラスキャナ101では、各ハードウェアデバイスの内部パラメータ及び直交座標系に対する位置姿勢(外部パラメータ)は、公知のキャリブレーション手法によってあらかじめキャリブレーションされている。以後、本明細書において、「3次元点群」は直交座標系で表された3次元点群を示しているものとする。   As described above, the camera scanner 101 converts the three-dimensional point group represented by the orthogonal coordinate system into the three-dimensional point group or the camera imaging plane in the camera coordinate system by using the above formulas (1) and (3). can do. In the camera scanner 101, the internal parameters of each hardware device and the position and orientation (external parameters) with respect to the orthogonal coordinate system are calibrated in advance by a known calibration method. Hereinafter, in this specification, the “three-dimensional point group” indicates a three-dimensional point group represented by an orthogonal coordinate system.

図5は、図1のカメラスキャナのコントローラ部のハードウェア構成を示すブロック図である。図5において、コントローラ部201は、システムバス501に接続されたCPU502、RAM503、ROM504、HDD505、ネットワークI/F506、画像処理プロセッサ507を備える。さらに、コントローラ部201は、カメラI/F508、ディスプレイコントローラ509、シリアルI/F510、オーディオコントローラ511及びUSBコントローラ512を備える。CPU502はコントローラ部201全体の動作を制御する中央演算装置である。RAM503は揮発性メモリである。ROM504は不揮発性メモリであり、CPU502の起動用プログラムが格納される。HDD505はRAM503よりも大容量のハードディスクドライブ(HDD)である。HDD505にはコントローラ部201が実行する、カメラスキャナ101の制御用プログラムが格納される。   FIG. 5 is a block diagram showing a hardware configuration of the controller unit of the camera scanner of FIG. In FIG. 5, the controller unit 201 includes a CPU 502, a RAM 503, a ROM 504, an HDD 505, a network I / F 506, and an image processing processor 507 connected to a system bus 501. The controller unit 201 further includes a camera I / F 508, a display controller 509, a serial I / F 510, an audio controller 511, and a USB controller 512. The CPU 502 is a central processing unit that controls the operation of the entire controller unit 201. The RAM 503 is a volatile memory. A ROM 504 is a nonvolatile memory, and stores a startup program for the CPU 502. The HDD 505 is a hard disk drive (HDD) having a larger capacity than the RAM 503. The HDD 505 stores a control program for the camera scanner 101 executed by the controller unit 201.

CPU502は、電源オン等のカメラスキャナ101の起動時、ROM504に格納される起動用プログラムを実行する。この起動用プログラムは、HDD505に格納される制御用プログラムを読み出してRAM503に展開する。CPU502は、起動用プログラムを実行すると、続けてRAM503に展開された制御用プログラムを実行してコントローラ部201全体の動作を制御する。また、CPU502は制御用プログラムの実行に用いるデータもRAM503に格納して読み書きを行う。HDD505には制御用プログラムの実行に必要な各種設定やカメラ部202が撮像によって生成した画像データを格納することができ、格納されたデータ等はCPU502によって読み書きされる。また、CPU502はネットワークI/F506を介してネットワーク104に接続された他の機器との通信を行う。   The CPU 502 executes an activation program stored in the ROM 504 when the camera scanner 101 is activated such as when the power is turned on. This activation program reads the control program stored in the HDD 505 and expands it in the RAM 503. When the CPU 502 executes the startup program, it continuously executes the control program developed in the RAM 503 to control the operation of the entire controller unit 201. The CPU 502 also stores data used for execution of the control program in the RAM 503 to read / write. The HDD 505 can store various settings necessary for execution of the control program and image data generated by the camera unit 202 through imaging. The stored data is read and written by the CPU 502. Further, the CPU 502 communicates with other devices connected to the network 104 via the network I / F 506.

シリアルI/F510はシリアル信号の入出力を行う。コントローラ部201では、シリアルI/F510がハードキーI/F513に接続され、電源キー210や消灯キー211が押下されたとき、シリアルI/F510は押下されたキーに対応する信号をCPU502へ通知する。コントローラ部201の電源がオフのとき、ハードキーI/F513は電源キー210が押下されると、非図示のコントローラ電源をオンにする。これにより、前述したCPU502による起動用プログラムの実行が行われる。画像処理プロセッサ507はRAM503に格納された画像データを読み出して画像処理を施し、再度、RAM503へ書き戻す。なお、画像処理プロセッサ507が実行する画像処理は、回転、変倍、色変換等である。カメラI/F508はカメラ部202及び距離画像センサ部208と接続され、CPU502からの指示に応じてカメラ部202から画像データを取得するとともに距離画像センサ部208から距離画像データを取得してRAM503へ書き込む。また、カメラI/F508はCPU502からの制御コマンドをカメラ部202及び距離画像センサ部208へ送信し、カメラ部202及び距離画像センサ部208の設定を行う。なお、ディスプレイコントローラ509、シリアルI/F510、オーディオコントローラ511及びUSBコントローラ512は、これらのうちの少なくとも1つがコントローラ部201に含まれていればよい。   The serial I / F 510 inputs / outputs serial signals. In the controller unit 201, when the serial I / F 510 is connected to the hard key I / F 513 and the power key 210 or the turn-off key 211 is pressed, the serial I / F 510 notifies the CPU 502 of a signal corresponding to the pressed key. . When the power of the controller unit 201 is off, the hard key I / F 513 turns on a controller power (not shown) when the power key 210 is pressed. As a result, the above-described activation program is executed by the CPU 502 described above. The image processor 507 reads out the image data stored in the RAM 503, performs image processing, and writes it back into the RAM 503 again. Note that image processing executed by the image processor 507 includes rotation, scaling, color conversion, and the like. The camera I / F 508 is connected to the camera unit 202 and the distance image sensor unit 208, acquires image data from the camera unit 202 in response to an instruction from the CPU 502, acquires distance image data from the distance image sensor unit 208, and stores the image data in the RAM 503. Write. In addition, the camera I / F 508 transmits a control command from the CPU 502 to the camera unit 202 and the distance image sensor unit 208 to set the camera unit 202 and the distance image sensor unit 208. It should be noted that at least one of the display controller 509, the serial I / F 510, the audio controller 511, and the USB controller 512 may be included in the controller unit 201.

ディスプレイコントローラ509はCPU502の指示に応じてディスプレイ(図示しない)における画像データの表示を制御する。また、ディスプレイコントローラ509は短焦点プロジェクタ207に接続される。オーディオコントローラ511はスピーカ514に接続され、CPU502の指示に応じて音声データをアナログ音声信号に変換し、スピーカ514を通じて音声を出力する。USBコントローラ512はCPU502の指示に応じて外付けのUSBデバイスの制御を行う。USBコントローラ512はUSBメモリやSDカード等の外部メモリ515に接続され、外部メモリ515へのデータの読み書きを行う。   A display controller 509 controls display of image data on a display (not shown) in accordance with an instruction from the CPU 502. The display controller 509 is connected to the short focus projector 207. The audio controller 511 is connected to the speaker 514, converts audio data into an analog audio signal in accordance with an instruction from the CPU 502, and outputs audio through the speaker 514. The USB controller 512 controls an external USB device in accordance with an instruction from the CPU 502. The USB controller 512 is connected to an external memory 515 such as a USB memory or an SD card, and reads / writes data from / to the external memory 515.

図6は、図5におけるCPUが実行するカメラスキャナの制御用プログラムの機能モジュールの構成を示すブロック図である。カメラスキャナ101の制御用プログラムは前述のようにHDD505に格納され、CPU502が起動時に制御用プログラムをRAM503に展開して実行する。制御用プログラムが実行される際には機能構成601が構成される。機能構成601は、モジュールとして、メイン制御部602、画像取得部603、カメラ画像取得部604、距離画像取得部605、認識処理部606、操作認識部607、ジェスチャー認識部608、物体検知部609及び画像処理部610を備える。さらに、機能構成601は、モジュールとして、キー処理部611、電源制御部612、表示制御部613、アプリケーション部614、GUI制御部615、表示部616及びネットワーク通信部617を備える。   FIG. 6 is a block diagram showing the configuration of the functional modules of the camera scanner control program executed by the CPU in FIG. The control program for the camera scanner 101 is stored in the HDD 505 as described above, and the CPU 502 develops the control program in the RAM 503 and executes it when activated. A functional configuration 601 is configured when the control program is executed. The functional configuration 601 includes a main control unit 602, an image acquisition unit 603, a camera image acquisition unit 604, a distance image acquisition unit 605, a recognition processing unit 606, an operation recognition unit 607, a gesture recognition unit 608, an object detection unit 609, and the like. An image processing unit 610 is provided. Furthermore, the functional configuration 601 includes a key processing unit 611, a power control unit 612, a display control unit 613, an application unit 614, a GUI control unit 615, a display unit 616, and a network communication unit 617 as modules.

メイン制御部602は制御の中心モジュールであり、機能構成601が備える他の各モジュールを制御する。画像取得部603は画像入力処理を行うモジュールであり、カメラ画像取得部604及び距離画像取得部605によって構成される。カメラ画像取得部604はカメラI/F508を介してカメラ部202が出力する画像データを取得し、RAM503へ格納する。距離画像取得部605はカメラI/F508を介して距離画像センサ部208が出力する距離画像データを取得し、RAM503へ格納する。認識処理部606はカメラ画像取得部604が取得する画像データ及び距離画像取得部605が取得する距離画像データから書画台204の操作平面上の物体の動きを検知して認識するモジュールである。認識処理部606は操作認識部607、ジェスチャー認識部608及び物体検知部609によって構成される。ジェスチャー認識部608は画像取得部603から書画台204の操作平面上の画像を取得し続け、タッチ等のユーザのジェスチャー操作を検知する。具体的に、ジェスチャー認識部608は、距離画像取得部605が取得する距離画像データから書画台204の操作平面上に存在する物体の3次元点群を取得し、該物体の外形を検出する。さらに、ジェスチャー認識部608は、外形の各部分の曲率からユーザの手及び指先の位置を判断し、例えば、ユーザの一本指を用いたジェスチャー操作を検知する。なお、ジェスチャー認識部608は他の様々なジェスチャー操作を検知することができ、例えば、ユーザの複数の指又は複数の手、若しくは、ユーザの腕や体全体を用いたジェスチャー操作を検知することができる。操作認識部607は、ジェスチャー認識部608がユーザのジェスチャー操作を検知するとメイン制御部602へ通知する。物体検知部609は、画像取得部603から書画台204の操作平面を撮像した画像を取得して書画台204の操作平面上に存在する物体を検知する。また、物体検知部609は、書画台204の操作平面上に物体が置かれるタイミング、物体が置かれて静止するタイミング、又は物体が取り除かれるタイミング等も検知する。   The main control unit 602 is a central module of control, and controls other modules included in the functional configuration 601. The image acquisition unit 603 is a module that performs image input processing, and includes a camera image acquisition unit 604 and a distance image acquisition unit 605. The camera image acquisition unit 604 acquires image data output from the camera unit 202 via the camera I / F 508 and stores the image data in the RAM 503. The distance image acquisition unit 605 acquires the distance image data output from the distance image sensor unit 208 via the camera I / F 508 and stores it in the RAM 503. The recognition processing unit 606 is a module that detects and recognizes the movement of an object on the operation plane of the document table 204 from the image data acquired by the camera image acquisition unit 604 and the distance image data acquired by the distance image acquisition unit 605. The recognition processing unit 606 includes an operation recognition unit 607, a gesture recognition unit 608, and an object detection unit 609. The gesture recognition unit 608 continues to acquire an image on the operation plane of the document table 204 from the image acquisition unit 603, and detects a user's gesture operation such as touch. Specifically, the gesture recognition unit 608 acquires a three-dimensional point cloud of an object existing on the operation plane of the document table 204 from the distance image data acquired by the distance image acquisition unit 605, and detects the outer shape of the object. Furthermore, the gesture recognition unit 608 determines the position of the user's hand and fingertip from the curvature of each part of the outer shape, and detects a gesture operation using one user's finger, for example. The gesture recognizing unit 608 can detect various other gesture operations. For example, the gesture recognition unit 608 can detect a gesture operation using the user's fingers or hands, or the user's arm or the entire body. it can. The operation recognition unit 607 notifies the main control unit 602 when the gesture recognition unit 608 detects a user's gesture operation. The object detection unit 609 acquires an image obtained by imaging the operation plane of the document table 204 from the image acquisition unit 603 and detects an object existing on the operation plane of the document table 204. The object detection unit 609 also detects the timing at which an object is placed on the operation plane of the document table 204, the timing at which the object is placed and stopped, or the timing at which the object is removed.

画像処理部610は、カメラ部202及び距離画像センサ部208から取得した画像を画像処理プロセッサ507で解析するために用いられ、各種画像処理モジュールによって構成される。前述のジェスチャー認識部608や物体検知部609は画像処理部610の各種画像処理モジュールを利用して実現される。   The image processing unit 610 is used by the image processing processor 507 to analyze the images acquired from the camera unit 202 and the distance image sensor unit 208, and includes various image processing modules. The gesture recognition unit 608 and the object detection unit 609 described above are realized using various image processing modules of the image processing unit 610.

キー処理部611はハードキーI/F513を介して通知される電源キー210や消灯キー211の押下に応じた処理を実行するモジュールであり、電源制御部612及び表示制御部613によって構成される。電源制御部612は、非図示のコントローラ電源がオンのときに電源キー210の押下が通知されると、CPU502で実行されるプログラムの終了処理を実行し、コントローラ電源をオフにして電源オフ処理を行う。また、電源制御部612は、コントローラ電源がオフのときに電源キー210の押下が通知されると、ハードキーI/F513からコントローラ電源を直接オンにする。表示制御部613は、消灯キー211の押下が通知されると、短焦点プロジェクタ207が点灯しているか否かをシリアルI/F510を介して判定する。表示制御部613は、短焦点プロジェクタ207が点灯していれば、シリアルI/F510を介して短焦点プロジェクタ207を消灯し、投影表示を中断する。また、表示制御部613は、短焦点プロジェクタ207が点灯していなければ、シリアルI/F510を介して短焦点プロジェクタ207を点灯し、投影表示を実行する。さらに、表示制御部613は、短焦点プロジェクタ207を点灯したか消灯したかをメイン制御部602へ通知し、メイン制御部602は短焦点プロジェクタ207の点灯/消灯に応じてアプリケーション部614が表示している画面の表示制御を行う。   The key processing unit 611 is a module that executes processing in response to pressing of the power key 210 and the turn-off key 211 notified via the hard key I / F 513, and includes a power control unit 612 and a display control unit 613. When the power control unit 612 is notified of pressing of the power key 210 when the controller power (not shown) is turned on, the power control unit 612 executes the end processing of the program executed by the CPU 502, turns off the controller power, and performs the power off processing. Do. Further, when the controller 612 is notified that the power key 210 is pressed when the controller power is off, the power controller 612 directly turns on the controller power from the hard key I / F 513. When notified that the extinguishing key 211 is pressed, the display control unit 613 determines whether or not the short focus projector 207 is turned on via the serial I / F 510. If the short focus projector 207 is turned on, the display control unit 613 turns off the short focus projector 207 via the serial I / F 510 and interrupts the projection display. In addition, if the short focus projector 207 is not turned on, the display control unit 613 turns on the short focus projector 207 via the serial I / F 510 and executes projection display. Further, the display control unit 613 notifies the main control unit 602 whether the short focus projector 207 is turned on or off, and the main control unit 602 displays the application unit 614 according to whether the short focus projector 207 is turned on or off. Control the display of the current screen.

アプリケーション部614は、ユーザが操作するアプリケーションを構成する複数の画面のデータと、各画面を構成するグラフィカルユーザインターフェイス(GUI)部品のデータを保持し、さらに、複数の画面間を遷移する画面遷移を実行する。また、アプリケーション部614はGUI部品が操作された場合に実行する処理を定義し、GUI部品のデータと関連付けて保持する。アプリケーション部614は画面を構成するGUI部品のデータをGUI制御部615へ送信し、画面の表示をGUI制御部615へ要求する。GUI制御部615は、メイン制御部602及びアプリケーション部614からの要求に応じてメッセージやボタン等の対応するGUI部品(操作部品)を生成する。また、生成されたGUI部品が操作された場合に実行する処理を当該GUI部品に関連付ける。ここで、GUI部品に関連付けられる処理は、例えば、GUI部品の色や形を変える表示変更処理や、アプリケーションを構成する各画面の遷移を行う画面遷移処理、若しくは、プログラムされた処理や外部プログラムを起動する実行処理等が該当する。さらに、GUI制御部615は、表示部616へ生成したGUI部品の表示を要求する。表示部616はディスプレイコントローラ509を介して、要求されたGUI部品の表示を短焦点プロジェクタ207に実行させる。短焦点プロジェクタ207は書画台204の操作平面に向けて設置されるため、書画台204の操作平面上にGUI部品が投影表示される。また、GUI制御部615は、ジェスチャー認識部608が認識したユーザのタッチ等のジェスチャー操作、さらにジェスチャー操作が行われた座標をメイン制御部602経由で受信する。また、GUI制御部615は、投影表示されているGUI部品の座標と操作座標を対応させて操作されたGUI部品と操作内容を判定し、GUI部品に関連付けられた処理を実行する。ネットワーク通信部617は、ネットワークI/F506を介してネットワーク104に接続された他の機器とTCP/IPによる通信を行う。   The application unit 614 holds data of a plurality of screens constituting an application operated by a user and data of a graphical user interface (GUI) component constituting each screen, and further performs screen transition for transitioning between the plurality of screens. Run. Further, the application unit 614 defines a process to be executed when a GUI component is operated, and stores it in association with data of the GUI component. The application unit 614 transmits the GUI component data constituting the screen to the GUI control unit 615 and requests the GUI control unit 615 to display the screen. The GUI control unit 615 generates corresponding GUI components (operation components) such as messages and buttons in response to requests from the main control unit 602 and the application unit 614. In addition, the process executed when the generated GUI component is operated is associated with the GUI component. Here, the process associated with the GUI component is, for example, a display change process for changing the color or shape of the GUI part, a screen transition process for transitioning each screen constituting the application, or a programmed process or an external program. This corresponds to execution processing to be started. Furthermore, the GUI control unit 615 requests the display unit 616 to display the generated GUI component. The display unit 616 causes the short focus projector 207 to display the requested GUI component via the display controller 509. Since the short focus projector 207 is installed toward the operation plane of the document table 204, a GUI component is projected and displayed on the operation plane of the document table 204. In addition, the GUI control unit 615 receives a gesture operation such as a user's touch recognized by the gesture recognition unit 608 and coordinates where the gesture operation is performed via the main control unit 602. In addition, the GUI control unit 615 determines the GUI component operated by associating the coordinates of the projected GUI component with the operation coordinates, and the operation content, and executes a process associated with the GUI component. The network communication unit 617 performs communication by TCP / IP with other devices connected to the network 104 via the network I / F 506.

図7は、図2における距離画像センサ部のハードウェア構成を示す図である。図7において、距離画像センサ部208は赤外線パターン投射方式の3次元距離画像センサからなり、RGBカメラ701、赤外線パターン投射部702及び赤外線カメラ703を有する。RGBカメラ701は可視光をRGB信号で撮影し、赤外線パターン投射部702は対象物704へ不可視光である赤外線によって3次元測定パターン706を投射する。赤外線カメラ703は対象物に投射した3次元測定パターン706を読み取る。距離画像センサ部208は3次元測定パターン706と赤外線カメラ703の撮影画像707を対応させる。さらに、距離画像センサ部208は、赤外線パターン投射部702と赤外線カメラ703を結ぶ直線705を基線として三角測量の原理を用いることにより、撮影画像707の各画素の赤外線カメラ703からの距離を算出する。これにより、距離画像センサ部208は、各画素に距離値が入った距離画像データを生成する。なお、本実施の形態では、距離画像センサ部208として赤外線パターン投射方式の3次元距離画像センサを用いるが、他の方式の距離画像センサを用いてもよい。例えば、2つのRGBカメラでステレオ立体視を行うステレオ方式や、レーザ光の飛行時間を検出することによって距離を測定するTOF(Time of Flight)方式等を利用する距離画像センサを用いてもよい。   FIG. 7 is a diagram illustrating a hardware configuration of the distance image sensor unit in FIG. In FIG. 7, the distance image sensor unit 208 includes an infrared pattern projection type three-dimensional distance image sensor, and includes an RGB camera 701, an infrared pattern projection unit 702, and an infrared camera 703. The RGB camera 701 captures visible light with RGB signals, and the infrared pattern projection unit 702 projects a three-dimensional measurement pattern 706 onto the object 704 with infrared light that is invisible light. The infrared camera 703 reads the three-dimensional measurement pattern 706 projected onto the object. The distance image sensor unit 208 associates the three-dimensional measurement pattern 706 with the captured image 707 of the infrared camera 703. Further, the distance image sensor unit 208 calculates the distance of each pixel of the captured image 707 from the infrared camera 703 by using the principle of triangulation with the straight line 705 connecting the infrared pattern projection unit 702 and the infrared camera 703 as a base line. . Thereby, the distance image sensor unit 208 generates distance image data in which each pixel has a distance value. In the present embodiment, an infrared pattern projection type three-dimensional distance image sensor is used as the distance image sensor unit 208, but another type of distance image sensor may be used. For example, a distance image sensor using a stereo system that performs stereo stereoscopic vision with two RGB cameras, a TOF (Time of Flight) system that measures distance by detecting the flight time of laser light, or the like may be used.

図8は、図2のカメラスキャナにおいてGUI部品が投影表示されていない書画台の操作平面へGUI部品が投影表示されたときに生じうる課題を説明するための図である。例えば、図8(A)に示すように、カメラスキャナ101において、書画台204の操作平面上に表示部616が投影する表示画面がメッセージ801の他にGUI部品としてのボタン802及びボタン803を有する場合について説明する。このとき、操作認識部607が、カメラ部202及び距離画像センサ部208による物体の検知を通じてボタン802やボタン803のユーザによるタッチを認識すると、GUI制御部615はボタン802やボタン803に関連付けられた処理を実行する。図8(A)の事例では、ボタン802やボタン803は表示画面の遷移に関連付けられている。   FIG. 8 is a diagram for explaining a problem that may occur when a GUI part is projected and displayed on the operation plane of the document table on which the GUI part is not projected and displayed in the camera scanner of FIG. For example, as shown in FIG. 8A, in the camera scanner 101, the display screen projected by the display unit 616 on the operation plane of the document table 204 has a button 802 and a button 803 as GUI components in addition to the message 801. The case will be described. At this time, when the operation recognizing unit 607 recognizes the touch of the button 802 or the button 803 by the user through the detection of the object by the camera unit 202 and the distance image sensor unit 208, the GUI control unit 615 is associated with the button 802 or the button 803. Execute the process. In the example of FIG. 8A, the button 802 and the button 803 are associated with the transition of the display screen.

ここでユーザが消灯キー211を押下すると、表示制御部613は短焦点プロジェクタ207を消灯し、図8(B)に示すように、表示画面の投影表示が中断される。投影表示が中断されるとアプリケーションの実行が中断されるため、ボタン802やボタン803に関連付けられた処理の実行も禁止されなければならない。そこで、表示画面の投影表示が中断された後に、ボタン802やボタン803のユーザによるタッチ、すなわち、ユーザのジェスチャー操作を認識できないように、書画台204の操作平面上に存在する物体の検知を中止する。すなわち、カメラ部202及び距離画像センサ部208をオフにする。   When the user presses the turn-off key 211, the display control unit 613 turns off the short focus projector 207, and the projection display on the display screen is interrupted as shown in FIG. 8B. Since the execution of the application is interrupted when the projection display is interrupted, the execution of the process associated with the button 802 or the button 803 must be prohibited. Therefore, after the projection display on the display screen is interrupted, the detection of an object existing on the operation plane of the document table 204 is stopped so that the user's touch of the button 802 or the button 803, that is, the user's gesture operation cannot be recognized. To do. That is, the camera unit 202 and the distance image sensor unit 208 are turned off.

次いで、ユーザが書画台204の操作平面上に置かれた書面に署名する等の作業を行った後、操作平面上にペン804や手805を置き(図8(C))、そのままの状態でユーザが消灯キー211を押下する。このとき、表示制御部613は短焦点プロジェクタ207を点灯し、図8(A)と同様の表示画面を投影表示する。ここで、アプリケーションの実行が再開されるため、ボタン802やボタン803に関連付けられた処理の実行も許可されなければならない。そこで、表示画面が投影表示された後に、ボタン802やボタン803のユーザによるタッチを認識できるように、書画台204の操作平面上に存在する物体の検知を再開する。すなわち、カメラ部202及び距離画像センサ部208をオンにする。   Next, after the user performs an operation such as signing a document placed on the operation plane of the document table 204, the pen 804 or the hand 805 is placed on the operation plane (FIG. 8C) and left as it is. The user presses the turn-off key 211. At this time, the display control unit 613 turns on the short focus projector 207 and projects and displays a display screen similar to that shown in FIG. Here, since execution of the application is resumed, execution of processing associated with the button 802 and the button 803 must also be permitted. Therefore, after the display screen is projected and displayed, the detection of an object existing on the operation plane of the document table 204 is resumed so that the touch of the button 802 or the button 803 by the user can be recognized. That is, the camera unit 202 and the distance image sensor unit 208 are turned on.

しかしながら、図8(D)に示すように、ペン804や手805がボタン802上やボタン803上に置かれたままだと、操作認識部607はボタン802やボタン803がユーザによってタッチされたと認識する。ユーザは表示画面の遷移を意図すること無く操作平面上にペン804や手805を置いたままにすることがあるが、この場合では、ユーザの意図に関係なくボタン802やボタン803に関連付けられた表示画面の遷移が実行される。すなわち、ユーザの意図しないボタン802やボタン803の操作(誤操作)が発生する。本実施の形態では、これに対応して、表示画面が投影表示された後であっても、一定の条件の下、操作認識部607によるボタン802やボタン803のユーザによるタッチを無視する。   However, as shown in FIG. 8D, when the pen 804 or the hand 805 is left on the button 802 or the button 803, the operation recognition unit 607 recognizes that the button 802 or the button 803 is touched by the user. . The user may leave the pen 804 or the hand 805 on the operation plane without intending to change the display screen. In this case, the user is associated with the button 802 or the button 803 regardless of the user's intention. Transition of the display screen is executed. That is, an operation (erroneous operation) of the button 802 or the button 803 that is not intended by the user occurs. In the present embodiment, corresponding to this, even after the display screen is projected and displayed, the user's touch on the button 802 or the button 803 by the operation recognition unit 607 is ignored under certain conditions.

図9及び図10は、本実施の形態に係る表示操作システムの制御方法としてのプロジェクタ消灯・再点灯処理を示すフローチャートである。図9及び図10の処理は、ユーザが消灯キー211を押下して短焦点プロジェクタ207を消灯してからユーザが再度、消灯キー211を押下して短焦点プロジェクタ207から書画台204へ表示画面を投影表示する際にメイン制御部602が実行する。   9 and 10 are flowcharts showing projector turn-off / re-lighting processing as a control method of the display operation system according to the present embodiment. 9 and 10, the user presses the turn-off key 211 to turn off the short focus projector 207, and then the user presses the turn-off key 211 again to display the display screen from the short focus projector 207 to the document stand 204. The main control unit 602 executes the projection display.

まず、短焦点プロジェクタ207から書画台204へ表示画面が投影表示されている状態で、ユーザが消灯キー211を押下すると、表示制御部613はメイン制御部602へ消灯キー211の押下を通知する。消灯キー211の押下の通知に対応してメイン制御部602は、まず、表示制御部613を介して短焦点プロジェクタ207を消灯する(ステップS901)。さらに、メイン制御部602は、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS902)。次いで、メイン制御部602は、アプリケーションの実行を中断した上で距離画像センサ部208をオフにすることにより、ユーザによるタッチを認識できないようにする(ステップS903)。これにより、アプリケーションが実行されていない間はユーザのジェスチャー操作が受け付けられなくなる。メイン制御部602は、続くステップS904において、再度、消灯キー211がユーザによって押下されたか否かを判定し、消灯キー211が押下されていない間はステップS904の判定を繰り返す。消灯キー211が押下された場合、メイン制御部602は、アプリケーションの実行を再開した上で距離画像センサ部208を再びオンにする(ステップS905)。その後、メイン制御部602は、ステップS902と同様に、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS906)。次いで、メイン制御部602は、表示制御部613を介して短焦点プロジェクタ207を再点灯する(ステップS901)。なお、図9におけるステップS901からステップS907までの一連の処理を以下、「メイン処理S908」と定義する。   First, when the user presses the turn-off key 211 while the display screen is projected and displayed from the short focus projector 207 to the document stage 204, the display control unit 613 notifies the main control unit 602 that the turn-off key 211 has been pressed. In response to the notification of pressing of the turn-off key 211, the main control unit 602 first turns off the short focus projector 207 via the display control unit 613 (step S901). Further, the main control unit 602 performs object detection processing on the operation plane of the document table 204 by the object detection unit 609, and detects an object existing on the operation plane (step S902). Next, the main control unit 602 interrupts execution of the application and turns off the distance image sensor unit 208 so that the touch by the user cannot be recognized (step S903). Accordingly, the user's gesture operation cannot be accepted while the application is not being executed. In the subsequent step S904, the main control unit 602 determines again whether or not the turn-off key 211 is pressed by the user, and repeats the determination in step S904 while the turn-off key 211 is not pressed. When the turn-off key 211 is pressed, the main control unit 602 resumes execution of the application and then turns on the distance image sensor unit 208 again (step S905). After that, the main control unit 602 performs object detection processing on the operation plane of the document table 204 by the object detection unit 609 as in step S902, and detects an object present on the operation plane (step S906). Next, the main control unit 602 relights the short focus projector 207 via the display control unit 613 (step S901). A series of processing from step S901 to step S907 in FIG. 9 is hereinafter defined as “main processing S908”.

続く、ステップS909では、ステップS902において検知された物体とステップS906において検知された物体とを比較することにより、短焦点プロジェクタ207の消灯から再点灯までの間に操作平面上に存在する物体が変化したか否かを判定する。本実施の形態における「物体の変化」とは物体の位置の変化(移動)や物体の形状の変化、さらには物体の除去や追加を意味する。ステップS909の判定の結果、物体が変化していない場合、メイン制御部602は、アプリケーション部614からGUI制御部615へ送信されたGUI部品のデータを用いてGUI制御部615へGUI部品の表示を実行させる(ステップS910)。その後、ステップS905で再びオンにされた距離画像センサ部208を通じて操作認識部607がユーザのジェスチャー操作を認識すると、メイン制御部602は、認識されたジェスチャー操作のGUI制御部615への通知を許可する(ステップS911)。これにより、GUI部品がユーザのジェスチャー操作を受付可能となる。すなわち、ユーザのジェスチャー操作は無視されない。その後、本処理を終了する。   In step S909, by comparing the object detected in step S902 with the object detected in step S906, the object existing on the operation plane is changed between the time when the short focus projector 207 is turned off and the light is turned on again. Determine whether or not. The “change in the object” in the present embodiment means a change (movement) of the position of the object, a change in the shape of the object, and removal or addition of the object. As a result of the determination in step S909, when the object has not changed, the main control unit 602 displays the GUI component on the GUI control unit 615 using the GUI component data transmitted from the application unit 614 to the GUI control unit 615. This is executed (step S910). After that, when the operation recognizing unit 607 recognizes the user's gesture operation through the distance image sensor unit 208 turned on again in step S905, the main control unit 602 permits notification of the recognized gesture operation to the GUI control unit 615. (Step S911). As a result, the GUI component can accept the user's gesture operation. That is, the user's gesture operation is not ignored. Thereafter, this process is terminated.

ステップS909の判定の結果、物体が変化している場合、操作認識部607がユーザのジェスチャー操作を認識しても、メイン制御部602は、認識されたジェスチャー操作のGUI制御部615への通知を禁止する(ステップS912)。その結果、GUI部品はユーザのジェスチャー操作を受け付けることができず、ユーザのジェスチャー操作は無視される。次いで、メイン制御部602は、ステップS910と同様に、GUI制御部615へGUI部品の表示を実行させる(ステップS913)。このとき、GUI部品が書画台204の操作平面上に投影表示されているにもかかわらず、GUI部品に対するユーザのジェスチャー操作は無視される。その後、メイン制御部602は、ステップS902やステップS906と同様に、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS914)。次いで、ステップS915では、ステップS914において物体が検知されたか否かを判定する。さらに、ステップS915では、ステップS902において検知された物体とステップS914において検知された物体とを比較することにより、短焦点プロジェクタ207の消灯から再点灯までの間に操作平面上に存在する物体が変化したか否かを判定する。ところで、ステップS915を実行する場合は、ステップS909において操作平面上に存在する物体が変化したと判定されたことを前提とするため、ステップS915を実行する時点で物体が短焦点プロジェクタ207の消灯時の状態に戻ることは考えにくい。したがって、ステップS915では、実質的に、短焦点プロジェクタ207の再点灯後に操作平面上に存在する物体が検知され続けているか否か、すなわち、操作平面上から物体が除去されたか否かを判定している。   As a result of the determination in step S909, even when the operation recognition unit 607 recognizes the user's gesture operation when the object has changed, the main control unit 602 notifies the GUI control unit 615 of the recognized gesture operation. It is prohibited (step S912). As a result, the GUI component cannot accept the user's gesture operation, and the user's gesture operation is ignored. Next, the main control unit 602 causes the GUI control unit 615 to display a GUI component, similarly to step S910 (step S913). At this time, although the GUI component is projected and displayed on the operation plane of the document table 204, the user's gesture operation on the GUI component is ignored. After that, the main control unit 602 executes object detection processing on the operation plane of the document table 204 by the object detection unit 609, similarly to step S902 and step S906, and detects an object existing on the operation plane (step S914). ). Next, in step S915, it is determined whether or not an object is detected in step S914. Further, in step S915, by comparing the object detected in step S902 with the object detected in step S914, the object existing on the operation plane changes between the time when the short focus projector 207 is turned off and the light is turned on again. Determine whether or not. By the way, when executing step S915, it is assumed that the object existing on the operation plane has been changed in step S909. Therefore, when the object is turned off when the short focus projector 207 is turned off at the time of executing step S915. It is unlikely to return to this state. Accordingly, in step S915, it is determined whether or not an object existing on the operation plane has been substantially detected after the short focus projector 207 is turned on again, that is, whether or not the object has been removed from the operation plane. ing.

ステップS915の判定の結果、物体が検知された場合(すなわち、操作平面上から物体が除去されていない場合)、ステップS914を繰り返す。物体が検知されない場合(すなわち、操作平面上から物体が除去された場合)、ステップS911へ進む。これにより、GUI部品がユーザのジェスチャー操作を受付可能となり、ユーザのジェスチャー操作は無視されない。その後、本処理を終了する。   As a result of the determination in step S915, when an object is detected (that is, when the object is not removed from the operation plane), step S914 is repeated. When the object is not detected (that is, when the object is removed from the operation plane), the process proceeds to step S911. Accordingly, the GUI component can accept the user's gesture operation, and the user's gesture operation is not ignored. Thereafter, this process is terminated.

図9及び図10の処理によれば、短焦点プロジェクタ207の消灯後に短焦点プロジェクタ207を再点灯した場合において、操作平面上から物体が除去されていないとき、GUI部品に対するユーザのジェスチャー操作が無視される。これにより、例えば、ユーザがGUI部品の操作を意図せずにGUI部品に該当する位置へ手やペンを置いたままの状態において、アプリケーションのGUI部品が再度投影表示されても、当該手やペンによるGUI部品に対する操作が無視される。これにより、GUI部品の操作を意図せずに置かれた手やペンによるGUI部品に対する誤操作の発生を防止することができる。   9 and 10, when the short focus projector 207 is turned on again after the short focus projector 207 is turned off and the object is not removed from the operation plane, the user's gesture operation on the GUI component is ignored. Is done. Thus, for example, even if the GUI part of the application is projected and displayed again in a state where the user does not intend to operate the GUI part and the hand or pen is left at a position corresponding to the GUI part, the hand or pen Operations on GUI parts by are ignored. Thereby, it is possible to prevent an erroneous operation on the GUI component by a hand or a pen placed unintentionally for the operation of the GUI component.

また、図9及び図10の処理では、物体検知部609が、短焦点プロジェクタ207が消灯された後から再度、短焦点プロジェクタ207が点灯されるまでの間において、書画台204の操作平面上の物体検知処理を実行する。より具体的には、距離画像センサ部208のオフの前及び距離画像センサ部208の再度のオンの後のそれぞれにおいて物体検知部609が物体検知処理を実行し、それぞれの検知の結果を比較する(ステップS909)。これにより、短焦点プロジェクタ207が消灯され、且つ距離画像センサ部208がオフされた後にユーザがGUI部品の操作を意図せずに書画台204の操作平面上に置いた手やペンを確実に検知することができる。   9 and 10, the object detection unit 609 operates on the operation plane of the document table 204 after the short focus projector 207 is turned off until the short focus projector 207 is turned on again. Execute object detection processing. More specifically, the object detection unit 609 performs object detection processing before the distance image sensor unit 208 is turned off and after the distance image sensor unit 208 is turned on again, and compares the detection results. (Step S909). Accordingly, after the short focus projector 207 is turned off and the distance image sensor unit 208 is turned off, the user can reliably detect the hand or pen placed on the operation plane of the document table 204 without intending to operate the GUI component. can do.

ところで、短焦点プロジェクタ207が消灯される前にユーザがGUI部品の操作を意図して書画台204の操作平面上に手やペンだけでなく、操作に使用する物体を置くことが考えられる。この場合、ユーザは置いた物体を移動(変化)させる可能性が少ない。これに対応して、図9及び図10の処理では、短焦点プロジェクタ207の消灯から再点灯までの間に操作平面上に存在する物体が変化しない場合(ステップS909でNO)、GUI部品に対するジェスチャー操作が無視されない。これにより、GUI部品に関連付けられた処理をユーザの意図通りに実行することができ、もって、ユーザに対する利便性を維持することができる。   By the way, it is conceivable that before the short focus projector 207 is turned off, the user places not only a hand and a pen but also an object used for the operation on the operation plane of the document table 204 in order to operate the GUI component. In this case, the user is less likely to move (change) the placed object. Correspondingly, in the processes of FIGS. 9 and 10, if the object present on the operation plane does not change between the time when the short focus projector 207 is turned off and the time when it is turned on again (NO in step S909), the gesture for the GUI component is performed. The operation is not ignored. Thereby, the process linked | related with GUI components can be performed as a user's intent, and the convenience with respect to a user can be maintained.

なお、短焦点プロジェクタ207の点灯時に書画台204の操作平面上へ複数のGUI部品が投影表示される場合も考えられる。このような場合、図9及び図10の処理では、短焦点プロジェクタ207の再点灯後も操作平面上から物体が除去されていなければ、全てのGUI部品に対するジェスチャー操作が無視されるものとする。以下に説明する第2の実施の形態乃至第4の実施の形態においても同様とする。   It is also conceivable that a plurality of GUI parts are projected and displayed on the operation plane of the document table 204 when the short focus projector 207 is turned on. In such a case, in the processes of FIGS. 9 and 10, if the object is not removed from the operation plane even after the short focus projector 207 is turned on again, the gesture operation for all the GUI parts is ignored. The same applies to the second to fourth embodiments described below.

次に、本発明の第2の実施の形態について説明する。第2の実施の形態は、その構成、作用が上述した第1の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用についての説明を行う。   Next, a second embodiment of the present invention will be described. Since the configuration and operation of the second embodiment are basically the same as those of the first embodiment described above, the description of the overlapping configuration and operation will be omitted, and different configurations and operations will be described below. Give an explanation.

ユーザがGUI部品の操作を意図せずにGUI部品に該当する位置へ手やペンを置く場合としては、短焦点プロジェクタ207を消灯して書画台204の操作平面上に置かれた書面へ署名する場合だけでなく、カメラスキャナ101を起動する場合も考えられる。本実施の形態では、これに対応して、カメラスキャナ101を起動する場合、一定の条件の下、GUI部品に対するユーザのジェスチャー操作を無視する。   When a user places a hand or a pen at a position corresponding to a GUI part without intending to operate the GUI part, the short focus projector 207 is turned off and a document placed on the operation plane of the document table 204 is signed. In addition to the case, the camera scanner 101 may be activated. In the present embodiment, in response to this, when the camera scanner 101 is activated, the user's gesture operation on the GUI component is ignored under certain conditions.

図11は、本実施の形態に係る表示操作システムの制御方法としての電源オン処理を示すフローチャートである。図11の処理は、ユーザがカメラスキャナ101のコントローラ部201における電源キー210を押下した際にメイン制御部602が実行する。   FIG. 11 is a flowchart showing a power-on process as a control method of the display operation system according to the present embodiment. The process in FIG. 11 is executed by the main control unit 602 when the user presses the power key 210 in the controller unit 201 of the camera scanner 101.

まず、コントローラ部201の電源がオフのとき、電源キー210が押下されると、メイン制御部602は距離画像センサ部208をオンにする(ステップS1101)。その後、メイン制御部602は、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS1102)。次いで、メイン制御部602は、表示制御部613を介して短焦点プロジェクタ207を点灯する(ステップS1103)。さらに、メイン制御部602はアプリケーション部614を起動する(ステップS1104)。なお、図11におけるステップS1101からステップS1104までの一連の処理を以下、「起動処理S1105」と定義する。   First, when the power of the controller unit 201 is off and the power key 210 is pressed, the main control unit 602 turns on the distance image sensor unit 208 (step S1101). Thereafter, the main control unit 602 performs object detection processing on the operation plane of the document table 204 by the object detection unit 609, and detects an object existing on the operation plane (step S1102). Next, the main control unit 602 turns on the short focus projector 207 via the display control unit 613 (step S1103). Further, the main control unit 602 activates the application unit 614 (step S1104). Note that a series of processing from step S1101 to step S1104 in FIG. 11 is hereinafter defined as “startup processing S1105”.

続く、ステップS1106では、メイン制御部602がステップS1102において書画台204の操作平面上に存在する物体を検知したかどうかを判定する。物体を検知していない場合、メイン制御部602は、アプリケーション部614からGUI制御部615へ送信されたGUI部品のデータを用いてGUI制御部615へGUI部品の表示を実行させる(ステップS1107)。その後、ステップS1101でオンにされた距離画像センサ部208を通じて操作認識部607がユーザのジェスチャー操作を認識すると、メイン制御部602は、認識されたジェスチャー操作のGUI制御部615への通知を許可する(ステップS1108)。これにより、GUI部品がユーザのジェスチャー操作を受付可能となる。すなわち、ユーザのジェスチャー操作は無視されない。その後、本処理を終了する。   In step S1106, the main control unit 602 determines whether an object present on the operation plane of the document table 204 is detected in step S1102. If the object is not detected, the main control unit 602 causes the GUI control unit 615 to display the GUI component using the GUI component data transmitted from the application unit 614 to the GUI control unit 615 (step S1107). After that, when the operation recognition unit 607 recognizes the user's gesture operation through the distance image sensor unit 208 turned on in step S1101, the main control unit 602 permits notification of the recognized gesture operation to the GUI control unit 615. (Step S1108). As a result, the GUI component can accept the user's gesture operation. That is, the user's gesture operation is not ignored. Thereafter, this process is terminated.

ステップS1106の判定の結果、物体を検知している場合、操作認識部607がユーザのジェスチャー操作を認識しても、メイン制御部602は、認識されたジェスチャー操作のGUI制御部615への通知を禁止する(ステップS1109)。その結果、GUI部品はユーザのジェスチャー操作を受け付けることができず、ユーザのジェスチャー操作は無視される。次いで、メイン制御部602は、ステップS1107と同様に、GUI制御部615へGUI部品の表示を実行させる(ステップS1110)。このとき、GUI部品が書画台204の操作平面上に投影表示されているにもかかわらず、GUI部品に対するユーザのジェスチャー操作は無視される。その後、メイン制御部602は、ステップS1102と同様に、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS1111)。次いで、ステップS1112では、メイン制御部602がステップS1111において書画台204の操作平面上に存在する物体を検知したかどうかを判定する。   If the object is detected as a result of the determination in step S1106, the main control unit 602 notifies the GUI control unit 615 of the recognized gesture operation even if the operation recognition unit 607 recognizes the gesture operation of the user. It is prohibited (step S1109). As a result, the GUI component cannot accept the user's gesture operation, and the user's gesture operation is ignored. Next, the main control unit 602 causes the GUI control unit 615 to display a GUI component as in step S1107 (step S1110). At this time, although the GUI component is projected and displayed on the operation plane of the document table 204, the user's gesture operation on the GUI component is ignored. After that, the main control unit 602 executes object detection processing on the operation plane of the document table 204 by the object detection unit 609 as in step S1102, and detects an object existing on the operation plane (step S1111). In step S1112, the main control unit 602 determines whether an object present on the operation plane of the document table 204 is detected in step S1111.

ステップS1112の判定の結果、物体を検知している場合(すなわち、操作平面上から物体が除去されていない場合)、ステップS1110を繰り返す。物体を検知していない場合(すなわち、操作平面上から物体が除去された場合)、ステップS1108へ進む。これにより、GUI部品がユーザのジェスチャー操作を受付可能となり、ユーザのジェスチャー操作は無視されない。その後、本処理を終了する。   If the object is detected as a result of the determination in step S1112 (that is, if the object is not removed from the operation plane), step S1110 is repeated. When the object is not detected (that is, when the object is removed from the operation plane), the process proceeds to step S1108. Accordingly, the GUI component can accept the user's gesture operation, and the user's gesture operation is not ignored. Thereafter, this process is terminated.

図11の処理によれば、コントローラ部201の電源がオフのとき、電源キー210が押下された場合において、操作平面上に物体が存在しつづける限り、GUI部品に対するユーザのジェスチャー操作が無視される。これにより、例えば、ユーザがGUI部品の操作を意図せずにGUI部品に該当する位置へ手やペンを置いたままの状態において、カメラスキャナ101を起動しても、当該手やペンによるGUI部品に対する操作が無視される。これにより、GUI部品の操作を意図せずに置かれた手やペンによるGUI部品に対する誤操作の発生を防止することができる。なお、図11の処理は、カメラスキャナ101を起動するときだけなく、カメラスキャナ101のスリープモードからの復帰時にも適用することができる。   According to the processing in FIG. 11, when the power of the controller unit 201 is off and the power key 210 is pressed, the user's gesture operation on the GUI component is ignored as long as an object continues to exist on the operation plane. . Thereby, for example, even if the user activates the camera scanner 101 in a state where the user does not intend to operate the GUI part and puts the hand or pen at a position corresponding to the GUI part, the GUI part by the hand or pen is used. Operation on is ignored. Thereby, it is possible to prevent an erroneous operation on the GUI component by a hand or a pen placed unintentionally for the operation of the GUI component. Note that the processing of FIG. 11 can be applied not only when the camera scanner 101 is activated, but also when the camera scanner 101 returns from the sleep mode.

次に、本発明の第3の実施の形態について説明する。第3の実施の形態は、その構成、作用が上述した第1の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用についての説明を行う。   Next, a third embodiment of the present invention will be described. Since the configuration and operation of the third embodiment are basically the same as those of the first embodiment described above, the description of the overlapping configuration and operation will be omitted, and different configurations and operations will be described below. Give an explanation.

図12は、本実施の形態に係る表示操作システムの制御方法としてのプロジェクタ消灯・再点灯処理を示すフローチャートである。図12の処理も、図9及び図10の処理と同様に、ユーザが消灯キー211を押下して短焦点プロジェクタ207を消灯してからユーザが再度、消灯キー211を押下して書画台204へ表示画面を投影表示する際にメイン制御部602が実行する。   FIG. 12 is a flowchart showing projector turn-off / re-lighting processing as a control method of the display operation system according to the present embodiment. In the process of FIG. 12 as well, the user presses the turn-off key 211 to turn off the short focus projector 207 and then the user presses the turn-off key 211 again to the document table 204 in the same manner as the processes in FIGS. The main control unit 602 executes when projecting and displaying the display screen.

まず、短焦点プロジェクタ207から書画台204へ表示画面が投影表示されている状態で、ユーザが消灯キー211を押下すると、表示制御部613はメイン制御部602へ消灯キー211の押下を通知する。消灯キー211の押下の通知に対応してメイン制御部602はメイン処理S908を実行する。   First, when the user presses the turn-off key 211 while the display screen is projected and displayed from the short focus projector 207 to the document stage 204, the display control unit 613 notifies the main control unit 602 that the turn-off key 211 has been pressed. In response to the notification that the turn-off key 211 is pressed, the main control unit 602 executes main processing S908.

次いで、メイン制御部602は、短焦点プロジェクタ207の消灯から再点灯までの間に操作平面上に存在する物体が変化したか否かを判定する(ステップS909)。ステップS909の判定の結果、物体が変化していない場合、メイン制御部602は、ステップS910及びステップS911を実行する。これにより、GUI部品がユーザのジェスチャー操作を受付可能となる。その後、本処理を終了する。   Next, the main control unit 602 determines whether or not an object existing on the operation plane has changed between the time when the short focus projector 207 is turned off and the time when it is turned on again (step S909). If the result of determination in step S909 is that the object has not changed, the main control unit 602 executes step S910 and step S911. As a result, the GUI component can accept the user's gesture operation. Thereafter, this process is terminated.

ステップS909の判定の結果、物体が変化している場合、メイン制御部602はステップS912を実行し、さらに、操作平面上に存在する物体の除去をユーザに要請する物体除去画面表示処理を行う(ステップS1201)。図13は、図12のステップS1201において表示される物体除去画面の一例を示す図である。図13に示すように、ステップS1201では、書画台204の操作平面上へ物体であるペン804や手805の除去をユーザに要請するメッセージ1301を表示する。なお、メッセージ1301はGUI部品に対するユーザのジェスチャー操作が無視されている旨を示してもよい。   If the result of determination in step S909 is that the object has changed, the main control unit 602 executes step S912, and further performs object removal screen display processing that requests the user to remove the object present on the operation plane ( Step S1201). FIG. 13 is a diagram showing an example of the object removal screen displayed in step S1201 of FIG. As shown in FIG. 13, in step S1201, a message 1301 for requesting the user to remove the pen 804 or the hand 805 as an object is displayed on the operation plane of the document table 204. Note that the message 1301 may indicate that the user's gesture operation on the GUI component is ignored.

次いで、メイン制御部602はステップS914、ステップS915及びステップS913をこの順で実行する。すなわち、操作平面上に存在する物体の除去が除去されない限り、GUI部品が書画台204の操作平面上に投影表示されているにもかかわらず、GUI部品に対するユーザのジェスチャー操作は無視される。一方、操作平面上に存在する物体の除去が除去されると、GUI部品がユーザのジェスチャー操作を受付可能となり、ユーザのジェスチャー操作は無視されない。その後、本処理を終了する。   Next, the main control unit 602 executes step S914, step S915, and step S913 in this order. In other words, unless the removal of the object existing on the operation plane is removed, the user's gesture operation on the GUI component is ignored even though the GUI component is projected and displayed on the operation plane of the document table 204. On the other hand, when the removal of the object existing on the operation plane is removed, the GUI component can accept the user's gesture operation, and the user's gesture operation is not ignored. Thereafter, this process is terminated.

図12の処理によれば、短焦点プロジェクタ207の消灯後に短焦点プロジェクタ207を再点灯した場合において、操作平面上から物体が除去されていないとき、物体の除去をユーザに要請するメッセージ1301が表示される。これにより、ユーザはGUI部品に対するユーザのジェスチャー操作が無視される理由を知ることができ、もって、ユーザに対する利便性を維持することができる。   According to the processing of FIG. 12, when the short focus projector 207 is turned on again after the short focus projector 207 is turned off and the object is not removed from the operation plane, the message 1301 for requesting the user to remove the object is displayed. Is done. Thereby, the user can know the reason why the user's gesture operation with respect to the GUI component is ignored, and thus the convenience for the user can be maintained.

また、図12の処理では、操作平面上に存在する物体の除去が除去されると、メッセージ1301の表示を中断してもよい。これにより、GUI部品に対するユーザのジェスチャー操作が可能になったことを知ることができ、もって、ユーザに対する利便性を向上することができる。   In the processing of FIG. 12, the display of the message 1301 may be interrupted when the removal of the object existing on the operation plane is removed. Thereby, it can be known that the user's gesture operation with respect to the GUI component is possible, and the convenience for the user can be improved.

次に、本発明の第4の実施の形態について説明する。第4の実施の形態は、その構成、作用が上述した第2の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用についての説明を行う。   Next, a fourth embodiment of the present invention will be described. Since the configuration and operation of the fourth embodiment are basically the same as those of the second embodiment described above, the description of the overlapping configuration and operation is omitted, and different configurations and operations are described below. Give an explanation.

図14は、本実施の形態に係る表示操作システムの制御方法としての電源オン処理を示すフローチャートである。図14の処理も、ユーザがカメラスキャナ101のコントローラ部201における電源キー210を押下した際にメイン制御部602が実行する。   FIG. 14 is a flowchart showing a power-on process as a control method of the display operation system according to the present embodiment. The process in FIG. 14 is also executed by the main control unit 602 when the user presses the power key 210 in the controller unit 201 of the camera scanner 101.

まず、コントローラ部201の電源がオフのとき、電源キー210が押下されると、メイン制御部602は起動処理S1105を実行する。次いで、メイン制御部602は、ステップS1102において書画台204の操作平面上に存在する物体を検知したかどうかを判定する(ステップS1106)。ステップS1106の判定の結果、物体を検知していない場合、メイン制御部602は、ステップS1107及びステップS1108を実行する。これにより、GUI部品がユーザのジェスチャー操作を受付可能となる。その後、本処理を終了する。   First, when the power of the controller unit 201 is off and the power key 210 is pressed, the main control unit 602 executes a startup process S1105. Next, the main control unit 602 determines whether an object present on the operation plane of the document table 204 is detected in step S1102 (step S1106). If the object is not detected as a result of the determination in step S1106, the main control unit 602 executes step S1107 and step S1108. As a result, the GUI component can accept the user's gesture operation. Thereafter, this process is terminated.

ステップS1106の判定の結果、物体を検知している場合、メイン制御部602はステップS1109を実行し、さらに、図12の処理におけるステップS1201の物体除去画面表示処理を行う。次いで、メイン制御部602はステップS1111、ステップS1112及びステップS1110をこの順で実行する。すなわち、操作平面上に存在する物体の除去が除去されない限り、GUI部品が書画台204の操作平面上に投影表示されているにもかかわらず、GUI部品に対するユーザのジェスチャー操作は無視される。一方、操作平面上に存在する物体の除去が除去されると、GUI部品がユーザのジェスチャー操作を受付可能となり、ユーザのジェスチャー操作は無視されない。その後、本処理を終了する。   If the object is detected as a result of the determination in step S1106, the main control unit 602 executes step S1109, and further performs the object removal screen display process in step S1201 in the process of FIG. Next, the main control unit 602 executes Step S1111, Step S1112, and Step S1110 in this order. In other words, unless the removal of the object existing on the operation plane is removed, the user's gesture operation on the GUI component is ignored even though the GUI component is projected and displayed on the operation plane of the document table 204. On the other hand, when the removal of the object existing on the operation plane is removed, the GUI component can accept the user's gesture operation, and the user's gesture operation is not ignored. Thereafter, this process is terminated.

図14の処理によれば、コントローラ部201の電源がオフのとき、電源キー210が押下された場合において、操作平面上から物体が除去されていないとき、物体の除去をユーザに要請するメッセージ1301が表示される。これにより、ユーザはGUI部品に対するユーザのジェスチャー操作が無視される理由を知ることができ、もって、ユーザに対する利便性を維持することができる。   According to the processing of FIG. 14, when the power of the controller unit 201 is off and the power key 210 is pressed, and the object is not removed from the operation plane, the message 1301 that requests the user to remove the object. Is displayed. Thereby, the user can know the reason why the user's gesture operation with respect to the GUI component is ignored, and thus the convenience for the user can be maintained.

また、図14の処理でも、図13の処理と同様に、操作平面上に存在する物体の除去が除去されると、メッセージ1301の表示を中断してもよい。これにより、GUI部品に対するユーザのジェスチャー操作が可能になったことを知ることができ、もって、ユーザに対する利便性を向上することができる。   Also in the process of FIG. 14, the display of the message 1301 may be interrupted when the removal of the object existing on the operation plane is removed, as in the process of FIG. 13. Thereby, it can be known that the user's gesture operation with respect to the GUI component is possible, and the convenience for the user can be improved.

なお、上述した第1乃至第4の実施の形態では、操作平面上に物体が検知されると、GUI部品に対するジェスチャー操作が無視されたが、GUI部品の位置を記憶したユーザが当該GUI部品に関連付けられた処理の実行を急ぐ場合がある。この場合、ユーザは消灯された短焦点プロジェクタ207の再点灯前やカメラスキャナ101を起動する前に、予め、所望のGUI部品へ向けて手やペンを差し出すことが考えられる。これに対応して、ステップS909で物体が変化していると判定され、又はステップS1106で物体を検知している判定される場合であっても、一定の条件の下、GUI部品に対するユーザのジェスチャー操作を無視しないことが利便性の観点からは好ましい。例えば、ステップS909で物体が変化していると判定されている場合であっても、検知された物体がGUI部品の操作を明らかに意図する物であった場合、GUI部品に対するユーザのジェスチャー操作を無視しない。GUI部品の操作を明らかに意図する物としては、GUI部品に向かって移動する手、ペンや指し棒(スタイラス)等が該当する。   In the first to fourth embodiments described above, when an object is detected on the operation plane, the gesture operation on the GUI component is ignored. However, the user who stores the position of the GUI component is included in the GUI component. The associated process may be rushed to execute. In this case, it is conceivable that the user inserts a hand or a pen toward a desired GUI component in advance before the short-focus projector 207 that has been turned off is turned on again or before the camera scanner 101 is activated. Correspondingly, even if it is determined in step S909 that the object has changed, or it is determined in step S1106 that the object has been detected, the user's gesture for the GUI component under certain conditions It is preferable from the viewpoint of convenience not to ignore the operation. For example, even if it is determined in step S909 that the object has changed, if the detected object is an object that clearly intends to operate the GUI component, the user performs a gesture operation on the GUI component. Do not ignore. As a thing clearly intended to operate the GUI part, a hand moving toward the GUI part, a pen, a pointing stick (stylus), or the like is applicable.

次に、本発明の第5の実施の形態について説明する。第5の実施の形態は、その構成、作用が上述した第1乃至第4の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用についての説明を行う。具体的には、第1乃至第4の実施の形態では、複数のGUI部品が投影表示されていても、操作平面上から物体が除去されていなければ、全てのGUI部品に対するジェスチャー操作が無視される。一方、第5の実施の形態では、複数のGUI部品が投影表示されている場合、各GUI部品上に物体が存在しているか否かが判定され、その上に物体が存在しているGUI部品に対するジェスチャー操作のみが無視される。   Next, a fifth embodiment of the present invention will be described. Since the configuration and operation of the fifth embodiment are basically the same as those of the first to fourth embodiments described above, the description of the overlapping configuration and operation is omitted, and different configurations are described below. The operation will be described. Specifically, in the first to fourth embodiments, even if a plurality of GUI parts are projected and displayed, gesture operations for all the GUI parts are ignored unless an object is removed from the operation plane. The On the other hand, in the fifth embodiment, when a plurality of GUI parts are projected and displayed, it is determined whether or not an object exists on each GUI part, and the GUI part on which an object exists. Only gesture operations on are ignored.

図15は、本実施の形態に係る表示操作システムの制御方法としての画面表示処理を示すフローチャートである。図15の処理は、短焦点プロジェクタ207の消灯後に短焦点プロジェクタ207を再点灯した場合やコントローラ部201の電源がオフのとき、電源キー210が押下された場合にメイン制御部602が実行する。さらに、図15の処理は、アプリケーション部614がユーザの操作に応じて画面遷移を実行する場合にも、アプリケーション部614から画面遷移の実行を通知されたメイン制御部602が実行する。   FIG. 15 is a flowchart showing screen display processing as a control method of the display operation system according to the present embodiment. The processing in FIG. 15 is executed by the main control unit 602 when the short focus projector 207 is turned on again after the short focus projector 207 is turned off, or when the power source key 210 is pressed when the power of the controller unit 201 is off. Further, the processing in FIG. 15 is executed by the main control unit 602 that is notified of the execution of the screen transition from the application unit 614 even when the application unit 614 executes the screen transition in accordance with the user operation.

まず、メイン制御部602は、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS1501)。その後、メイン制御部602はGUI制御部615へ複数のGUI部品の表示を要求する(ステップS1502)。なお、本実施の形態では、アプリケーション部614から複数のGUI部品のデータがGUI制御部615へ送信されている。   First, the main control unit 602 executes object detection processing on the operation plane of the document table 204 by the object detection unit 609, and detects an object existing on the operation plane (step S1501). Thereafter, the main control unit 602 requests the GUI control unit 615 to display a plurality of GUI parts (step S1502). In the present embodiment, data of a plurality of GUI parts is transmitted from the application unit 614 to the GUI control unit 615.

次いで、GUI制御部615は、複数のGUI部品の各々について、以下に説明する、ステップS1504及びステップS1505の間のステップS1506乃至ステップS1510の処理を行う。すなわち、GUI部品毎にステップS1506乃至ステップS1510の処理を繰り返す。   Next, the GUI control unit 615 performs the processing from step S1506 to step S1510 between step S1504 and step S1505 described below for each of the plurality of GUI components. That is, the processing from step S1506 to step S1510 is repeated for each GUI component.

まず、メイン制御部602は、対象となるGUI部品(以下、「対象GUI部品」という。)について、ステップS1501で検知した物体が対象GUI部品上に存在するか否かを判定する(ステップS1504)。ステップS1504の判定の結果、物体が対象GUI部品上に存在していない場合、対象GUI部品に関連付けられた処理の実行を許可する(ステップS1506)。なお、対象GUI部品に処理が関連付けられていなければ、ステップS1506をスキップする。その後、メイン制御部602は、対象GUI部品を操作平面上に通常モードで表示する(ステップS1507)。本実施の形態において、「通常モード」は、対象GUI部品をユーザのジェスチャー操作を受付可能な状態で表示するモードを示す。ステップS1504の判定の結果、物体が対象GUI部品上に存在している場合、メイン制御部602は、対象GUI部品に処理が関連付けられているかどうかを判定する(ステップS1508)。ステップS1508の判定の結果、対象GUI部品に処理が関連付けられていなければ、ステップS1507へ進む。対象GUI部品に処理が関連付けられていれば、対象GUI部品に関連付けられた処理の実行を禁止する(ステップS1506)。ステップS1506において対象GUI部品に関連付けられた処理の実行が禁止されると、ユーザが対象GUI部品をジェスチャーで操作しても当然、関連付けられた処理は実行されない。すなわち、ユーザの対象GUI部品に対するジェスチャー操作が実質的に無視される。その後、メイン制御部602は、対象GUI部品を操作平面上に操作禁止モードで表示する(ステップS1507)。本実施の形態において、「操作禁止モード」は、対象GUI部品をユーザのジェスチャー操作を受付不可能な状態で表示するモードである。操作禁止モードでは、図16に示すように、ペン804が置かれたために関連付けられた処理の実行が禁止された対象GUI部品であるボタン802が網掛けされて表示される。なお、操作禁止モードでは、関連付けられた処理の実行を禁止された対象GUI部品を点滅表示してもよい。図16では、ボタン803の上に物体が存在していないため、ボタン803は通常モードで表示され、ボタン803に対するユーザのジェスチャー操作は無視されない。ユーザは対象GUI部品の網掛け表示や点滅表示を確認することにより、当該対象GUI部品に対するジェスチャー操作が無視されることを知ることができる。その後、メイン制御部602は、全てのGUI部品についてステップS1506乃至ステップS1510の処理を実行すると、本処理を終了する。   First, the main control unit 602 determines whether or not the object detected in step S1501 exists on the target GUI component for the target GUI component (hereinafter referred to as “target GUI component”) (step S1504). . If the result of determination in step S1504 is that the object does not exist on the target GUI component, execution of processing associated with the target GUI component is permitted (step S1506). If the process is not associated with the target GUI component, step S1506 is skipped. Thereafter, the main control unit 602 displays the target GUI component on the operation plane in the normal mode (step S1507). In the present embodiment, the “normal mode” indicates a mode in which the target GUI component is displayed in a state where the user's gesture operation can be accepted. As a result of the determination in step S1504, when the object exists on the target GUI component, the main control unit 602 determines whether or not the process is associated with the target GUI component (step S1508). If the result of determination in step S1508 is that processing is not associated with the target GUI component, processing proceeds to step S1507. If the process is associated with the target GUI component, execution of the process associated with the target GUI component is prohibited (step S1506). If execution of the process associated with the target GUI component is prohibited in step S1506, the associated process is naturally not performed even if the user operates the target GUI component with a gesture. That is, the user's gesture operation on the target GUI component is substantially ignored. Thereafter, the main control unit 602 displays the target GUI component on the operation plane in the operation prohibition mode (step S1507). In the present embodiment, the “operation prohibition mode” is a mode in which the target GUI component is displayed in a state where the user's gesture operation cannot be accepted. In the operation prohibition mode, as shown in FIG. 16, a button 802 that is a target GUI component for which execution of the associated process is prohibited because the pen 804 is placed is shaded and displayed. In the operation prohibition mode, the target GUI component for which execution of the associated process is prohibited may be displayed in a blinking manner. In FIG. 16, since there is no object on the button 803, the button 803 is displayed in the normal mode, and the user's gesture operation on the button 803 is not ignored. The user can know that the gesture operation on the target GUI component is ignored by confirming the shaded display or blinking display of the target GUI component. After that, when the main control unit 602 executes the processing from step S1506 to step S1510 for all the GUI components, this processing ends.

図17は、本実施の形態に係る表示操作システムの制御方法としてのGUI部品操作許可処理を示すフローチャートである。図17の処理は、図16の処理に続けて実行される。   FIG. 17 is a flowchart showing a GUI component operation permission process as a control method of the display operation system according to the present embodiment. The process of FIG. 17 is executed following the process of FIG.

まず、メイン制御部602は、物体検知部609によって書画台204の操作平面上の物体検知処理を実行し、操作平面上に存在する物体を検知する(ステップS1501)。   First, the main control unit 602 executes object detection processing on the operation plane of the document table 204 by the object detection unit 609, and detects an object existing on the operation plane (step S1501).

次いで、GUI制御部615は、図12のステップS1509において関連付けられた処理の実行を禁止されたGUI部品の各々について、ステップS1702及びステップS1703の間のステップS1704乃至ステップS1706の処理を行う。すなわち、関連付けられた処理の実行を禁止されたGUI部品毎にステップS1704乃至ステップS1706の処理を繰り返す。ステップS1704乃至ステップS1706の処理について以下に説明する。   Next, the GUI control unit 615 performs the processing from step S1704 to step S1706 between step S1702 and step S1703 for each GUI component for which execution of the processing associated in step S1509 in FIG. 12 is prohibited. That is, the processing from step S1704 to step S1706 is repeated for each GUI component for which execution of the associated processing is prohibited. The processing from step S1704 to step S1706 will be described below.

まず、メイン制御部602は、対象となる、関連付けられた処理の実行を禁止されたGUI部品(以下、「禁止GUI部品」という。)について、ステップS1701で検知した物体が禁止GUI部品上に存在するか否かを判定する(ステップS1704)。ステップS1704の判定の結果、物体が禁止GUI部品上に存在していない場合、禁止GUI部品に関連付けられた処理の実行を許可する(ステップS1705)。その後、メイン制御部602は、操作禁止モードから通常モードに修正して禁止GUI部品を操作平面上に表示する(ステップS1706)。ステップS1704の判定の結果、物体が禁止GUI部品上に未だ存在している場合、操作禁止モードを修正しない。その後、メイン制御部602は、全ての禁止GUI部品についてステップS1704乃至ステップS1706の処理を実行すると、全てのGUI部品が通常モードで表示されているか否かを判定する(ステップS1706)。ステップS1706の判定の結果、全てのGUI部品が通常モードで表示されていなければ、ステップS1701に戻り、全てのGUI部品が通常モードで表示されていれば、本処理を終了する。   First, the main control unit 602 detects the object detected in step S1701 on the prohibited GUI component for the target GUI component for which execution of associated processing is prohibited (hereinafter referred to as “prohibited GUI component”). It is determined whether or not to perform (step S1704). If the result of determination in step S1704 is that the object does not exist on the prohibited GUI component, execution of the process associated with the prohibited GUI component is permitted (step S1705). Thereafter, the main control unit 602 corrects the operation prohibited mode to the normal mode and displays the prohibited GUI component on the operation plane (step S1706). If the result of determination in step S1704 is that an object still exists on the prohibited GUI part, the operation prohibit mode is not corrected. Thereafter, when the main control unit 602 executes the processing from step S1704 to step S1706 for all the prohibited GUI components, it determines whether all the GUI components are displayed in the normal mode (step S1706). As a result of the determination in step S1706, if all the GUI parts are not displayed in the normal mode, the process returns to step S1701, and if all the GUI parts are displayed in the normal mode, this process is terminated.

図15及び図17の処理によれば、消灯された短焦点プロジェクタ207を再点灯した場合やカメラスキャナ101の起動時に電源キー210が押下された場合、その上から物体が除去されていないGUI部品に対するユーザのジェスチャー操作が無視される。すなわち、ユーザが意図せずに複数のGUI部品の一つに該当する位置へ手やペンを置いたままの状態で各GUI部品を投影表示させても、手やペンが置かれたGUI部品に対するユーザのジェスチャー操作が無視される。これにより、投影表示される複数のGUI部品の各々に対する誤操作の発生を防止することができる。また、複数のGUI部品の一つの上に手やペンが置かれても、他のGUI部品上に手やペンが置かれていなければ、他のGUI部品に対するユーザのジェスチャー操作が無視されない。その結果、他のGUI部品の操作に関する利便性を確保することができる。なお、本実施の形態においても、その上から物体が除去されていないGUI部品が1つでも存在すれば、物体の除去をユーザに要請するメッセージ1301を表示してもよい。   According to the processing of FIGS. 15 and 17, when the short focus projector 207 that has been turned off is turned on again or when the power key 210 is pressed when the camera scanner 101 is activated, the GUI component from which no object has been removed. The user's gesture operation on is ignored. That is, even if each GUI component is projected and displayed while the hand or pen is placed on a position corresponding to one of the plurality of GUI components unintentionally, the GUI component on which the hand or pen is placed is displayed. User gesture operations are ignored. Thereby, it is possible to prevent the occurrence of an erroneous operation on each of the plurality of GUI parts to be projected and displayed. Further, even if a hand or pen is placed on one of the plurality of GUI parts, if the hand or pen is not placed on another GUI part, the user's gesture operation on the other GUI part is not ignored. As a result, it is possible to ensure convenience related to the operation of other GUI components. Also in this embodiment, if there is even one GUI component from which an object has not been removed, a message 1301 requesting the user to remove the object may be displayed.

本発明は、上述の実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors of the computer of the system or apparatus read the program It can also be realized by processing executed in the above. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101 カメラスキャナ
201 コントローラ部
202 カメラ部
204 書画台
207 短焦点プロジェクタ
208 距離画像センサ部
210 電源キー
211 消灯キー
802,803 ボタン
1301 メッセージ
DESCRIPTION OF SYMBOLS 101 Camera scanner 201 Controller part 202 Camera part 204 Document stand 207 Short focus projector 208 Distance image sensor part 210 Power key 211 Off key 802, 803 button
1301 Message

Claims (13)

操作面へアプリケーションの操作部品を投影表示する表示部と、
前記操作面の上に存在する物体を検知する検知部と、
前記操作部品に対する操作に基づいて前記アプリケーションの動作を制御する制御部とを備える表示操作システムであって、
前記操作部品が表示されていない前記操作面へ前記表示部が前記操作部品を表示した場合において、前記検知部が前記物体を検知したとき、前記制御部は前記操作部品に対する操作を無視することを特徴とする表示操作システム。
A display unit that projects and displays the operation parts of the application on the operation surface;
A detection unit for detecting an object present on the operation surface;
A display operation system including a control unit that controls the operation of the application based on an operation on the operation component,
When the display unit displays the operation component on the operation surface on which the operation component is not displayed, the control unit ignores an operation on the operation component when the detection unit detects the object. Characteristic display operation system.
前記操作部品が表示されていない前記操作面へ前記表示部が前記操作部品を表示した場合に前記検知部が前記物体を検知したとき、前記表示部は、前記物体の前記操作面の上からの除去の要請、又は前記操作部品に対する操作が無視されている旨を表示することを特徴とする請求項1記載の表示操作システム。   When the detection unit detects the object when the display unit displays the operation component on the operation surface on which the operation component is not displayed, the display unit detects the object from above the operation surface. The display operation system according to claim 1, wherein a request for removal or an indication that an operation on the operation component is ignored is displayed. 前記検知部が前記物体の前記操作面の上からの除去を検知したとき、前記表示部は、前記物体の前記操作面の上からの除去の要請、又は前記操作部品に対する操作が無視されている旨の表示を中止することを特徴とする請求項2記載の表示操作システム。   When the detection unit detects removal of the object from the operation surface, the display unit ignores a request for removal of the object from the operation surface or an operation on the operation component. The display operation system according to claim 2, wherein display of the effect is stopped. 前記検知部はカメラ及び3次元距離センサからなることを特徴とする請求項1乃至3のいずれか1項に記載の表示操作システム。   The display operation system according to claim 1, wherein the detection unit includes a camera and a three-dimensional distance sensor. 前記表示部が前記操作部品の投影表示を中断した後に、再度、前記操作部品を投影表示する場合において、前記操作部品の再度の投影表示の後に検知された物体が前記操作部品の投影表示の中断の後に検知された物体の位置から移動していないときは、前記制御部は前記操作部品に対する操作を無視しないことを特徴とする請求項1乃至4のいずれか1項に記載の表示操作システム。   When the display unit displays the operation component again after interrupting the projection display of the operation component, an object detected after the projection display of the operation component again interrupts the projection display of the operation component. 5. The display operation system according to claim 1, wherein the control unit does not ignore the operation on the operation component when the object is not moved from the position of the object detected after the operation. 前記検知部が検知した前記物体が前記操作部品の操作を意図する物であれば、前記制御部は前記操作部品に対する操作を無視しないことを特徴とする請求項1乃至5のいずれか1項に記載の表示操作システム。   6. The control unit according to claim 1, wherein if the object detected by the detection unit is an object intended to operate the operation component, the control unit does not ignore the operation on the operation component. The display operation system described. 前記操作部品の操作を意図する物は、前記操作部品へ向けて移動する手又は指し棒であることを特徴とする請求項6記載の表示操作システム。   The display operation system according to claim 6, wherein the object intended to operate the operation component is a hand or a pointer that moves toward the operation component. 操作面へアプリケーションの複数の操作部品を投影表示する表示部と、
前記操作面の上に存在する物体を検知する検知部と、
前記複数の操作部品の各々に対する操作に基づいて前記アプリケーションの動作を制御する制御部とを備える表示操作システムであって、
前記複数の操作部品が表示されていない前記操作面へ前記表示部が前記複数の操作部品を表示した場合において、前記複数の操作部品の各々に関し、前記検知部が当該操作部品の上に存在する前記物体を検知したとき、前記制御部は当該操作部品に対する操作を無視することを特徴とする表示操作システム。
A display unit that projects and displays a plurality of operation parts of the application on the operation surface;
A detection unit for detecting an object present on the operation surface;
A display operation system including a control unit that controls the operation of the application based on an operation on each of the plurality of operation components;
When the display unit displays the plurality of operation components on the operation surface on which the plurality of operation components are not displayed, the detection unit exists on the operation component for each of the plurality of operation components. When detecting the object, the control unit ignores an operation on the operation component.
前記複数の操作部品が表示されていない前記操作面へ前記表示部が前記複数の操作部品を表示した場合において、前記複数の操作部品の各々に関し、前記検知部が当該操作部品の上に存在する前記物体を検知したとき、前記表示部は、前記物体の当該操作部品の上からの除去の要請、又は当該操作部品に対する操作が無視されている旨を表示することを特徴とする請求項8記載の表示操作システム。   When the display unit displays the plurality of operation components on the operation surface on which the plurality of operation components are not displayed, the detection unit exists on the operation component for each of the plurality of operation components. The said display part displays that the request | requirement of the removal from the said operation component of the said object or the operation with respect to the said operation component is disregarded when the said object is detected. Display operation system. 操作面へアプリケーションの操作部品を投影表示する表示ステップと、
前記操作面の上に存在する物体を検知する検知ステップと、
前記操作部品が表示されていない前記操作面へ前記操作部品が表示された場合において、前記物体が検知されたとき、前記操作部品に対する操作を無視する制御ステップとを有することを特徴とする表示操作システムの制御方法。
A display step for projecting and displaying the operation parts of the application on the operation surface;
A detection step of detecting an object present on the operation surface;
And a control step of ignoring an operation on the operation component when the object is detected when the operation component is displayed on the operation surface on which the operation component is not displayed. How to control the system.
操作面へアプリケーションの複数の操作部品を投影表示する表示ステップと、
前記操作面の上に存在する物体を検知する検知ステップと、
前記複数の操作部品が表示されていない前記操作面へ前記複数の操作部品が表示された場合において、前記複数の操作部品の各々に関し、前記検知ステップにおいて当該操作部品の上に存在する前記物体を検知したとき、当該操作部品に対する操作を無視する制御ステップとを有することを特徴とする表示操作システムの制御方法。
A display step for projecting and displaying a plurality of operation parts of the application on the operation surface;
A detection step of detecting an object present on the operation surface;
In the case where the plurality of operation components are displayed on the operation surface on which the plurality of operation components are not displayed, the object existing on the operation component in the detection step is related to each of the plurality of operation components. And a control step of ignoring an operation on the operation component when detected.
表示操作システムの制御方法をコンピュータに実行させるプログラムであって、
前記表示操作システムの制御方法は、
操作面へアプリケーションの操作部品を投影表示する表示ステップと、
前記操作面の上に存在する物体を検知する検知ステップと、
前記操作部品が表示されていない前記操作面へ前記操作部品が表示された場合において、前記物体が検知されたとき、前記操作部品に対する操作を無視する制御ステップとを有することを特徴とするプログラム。
A program for causing a computer to execute a control method of a display operation system,
The display operation system control method includes:
A display step for projecting and displaying the operation parts of the application on the operation surface;
A detection step of detecting an object present on the operation surface;
And a control step of ignoring an operation on the operation component when the object is detected when the operation component is displayed on the operation surface on which the operation component is not displayed.
表示操作システムの制御方法をコンピュータに実行させるプログラムであって、
操作面へアプリケーションの複数の操作部品を投影表示する表示ステップと、
前記操作面の上に存在する物体を検知する検知ステップと、
前記複数の操作部品が表示されていない前記操作面へ前記複数の操作部品が表示された場合において、前記複数の操作部品の各々に関し、前記検知ステップにおいて当該操作部品の上に存在する前記物体を検知したとき、当該操作部品に対する操作を無視する制御ステップとを有することを特徴とするプログラム。
A program for causing a computer to execute a control method of a display operation system,
A display step for projecting and displaying a plurality of operation parts of the application on the operation surface;
A detection step of detecting an object present on the operation surface;
In the case where the plurality of operation components are displayed on the operation surface on which the plurality of operation components are not displayed, the object existing on the operation component in the detection step is related to each of the plurality of operation components. And a control step of ignoring an operation on the operation component when detected.
JP2017042947A 2017-03-07 2017-03-07 Display operation system, control method of the same, and program Pending JP2018147307A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017042947A JP2018147307A (en) 2017-03-07 2017-03-07 Display operation system, control method of the same, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017042947A JP2018147307A (en) 2017-03-07 2017-03-07 Display operation system, control method of the same, and program

Publications (1)

Publication Number Publication Date
JP2018147307A true JP2018147307A (en) 2018-09-20

Family

ID=63591987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017042947A Pending JP2018147307A (en) 2017-03-07 2017-03-07 Display operation system, control method of the same, and program

Country Status (1)

Country Link
JP (1) JP2018147307A (en)

Similar Documents

Publication Publication Date Title
TWI423096B (en) Projecting system with touch controllable projecting picture
US20120169671A1 (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
TWI559174B (en) Gesture based manipulation of three-dimensional images
KR101446902B1 (en) Method and apparatus for user interraction
US9544556B2 (en) Projection control apparatus and projection control method
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
US10276133B2 (en) Projector and display control method for displaying split images
JP6381361B2 (en) DATA PROCESSING DEVICE, DATA PROCESSING SYSTEM, DATA PROCESSING DEVICE CONTROL METHOD, AND PROGRAM
US9715738B2 (en) Information processing apparatus recognizing multi-touch operation, control method thereof, and storage medium
JP2007207056A (en) Information input system
JP2016103137A (en) User interface system, image processor and control program
US20110193969A1 (en) Object-detecting system and method by use of non-coincident fields of light
US10019919B2 (en) Processing apparatus, command generation method and storage medium
JP2017117373A (en) Operation device and control method of the same, and program
JP2005208991A (en) Position information output device and signal processing method
JP2018112894A (en) System and control method
JP5882270B2 (en) Information processing apparatus and program
JP2017162126A (en) Input system, input method, control program and storage medium
JP2018018308A (en) Information processing device and control method and computer program therefor
JP2017126225A (en) Image processing device, method and program
JP2018147307A (en) Display operation system, control method of the same, and program
WO2021225044A1 (en) Information processing device, information processing method based on user input operation, and computer program for executing said method
JP2018063555A (en) Information processing device, information processing method, and program
TWI444875B (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and imaging sensor
JP5713401B2 (en) User interface device for generating projected image signal for pointer projection, image projection method and program