JP2009070245A - Image projection display device, image projection display method, image projection display program and storage medium - Google Patents

Image projection display device, image projection display method, image projection display program and storage medium Download PDF

Info

Publication number
JP2009070245A
JP2009070245A JP2007239542A JP2007239542A JP2009070245A JP 2009070245 A JP2009070245 A JP 2009070245A JP 2007239542 A JP2007239542 A JP 2007239542A JP 2007239542 A JP2007239542 A JP 2007239542A JP 2009070245 A JP2009070245 A JP 2009070245A
Authority
JP
Japan
Prior art keywords
image
shadow
window
value
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007239542A
Other languages
Japanese (ja)
Other versions
JP4933389B2 (en
Inventor
Masato Aranishi
誠人 新西
Akira Sakurai
彰 桜井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007239542A priority Critical patent/JP4933389B2/en
Publication of JP2009070245A publication Critical patent/JP2009070245A/en
Application granted granted Critical
Publication of JP4933389B2 publication Critical patent/JP4933389B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To allow an operation without using a mouse or the like in a computer having a certain level of screen size. <P>SOLUTION: An image is projected to a projecting surface 13 of a screen 12 by a projector 15 set in a casing 14. When a user views the image projected to the screen 12, and touches a wiring surface 11 on the surface side of the screen 12 by the finger, a CCD camera 16 takes an image of the finger's shadow, and supplies image data thereof to an information processing device 100. The information processing device 100 recognizes the motion of the user's finger based on the image data from the CCD camera 16, and performs activation processing or moving processing of a window displayed on the screen, start-up processing of a program or the like. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は画像投影表示装置、画像投影表示方法および画像投影表示プログラムに関し、特に、テーブルトップ型のコンピュータに用いて好適な画像投影表示装置、画像投影表示方法および画像投影表示プログラムに関するものである。   The present invention relates to an image projection display device, an image projection display method, and an image projection display program, and more particularly to an image projection display device, an image projection display method, and an image projection display program suitable for use in a tabletop computer.

テーブルトップ型のコンピュータを使用する場合、テーブルトップ上に筆記を行ったり、テーブルトップ上のオブジェクトを移動したりするケースにおいて、従来一般に利用されている、マウスと併用するのは、煩わしいという問題がある。また、テーブルトップ型のコンピュータを使用する場合、その形状ゆえの問題点がある。即ち、テーブルの前にユーザが着席して利用するとき、ユーザの手の届く範囲が決まっているため、スクリーン上のユーザから遠い部分に書き込みやオブジェクトの設置をする場合、姿勢に無理を生じる(非特許文献1参照)。
しかし、手が届く範囲の大きさでスクリーンを作ってしまうと、スクリーンが小さくなり、解像度が小さくなるなどの問題がある。そこで、影を利用して、ポインティングおよびユーザの位置を特定する方法もある(例えば、特許文献2、3参照)。
When using a tabletop computer, there is a problem that it is cumbersome to use with a mouse that is generally used in the past when writing on the tabletop or moving an object on the tabletop. is there. Further, when a table top type computer is used, there is a problem due to its shape. That is, when the user sits in front of the table and uses it, the reachable range of the user's hand is fixed, so when writing or installing an object in a portion far from the user on the screen, the posture becomes unreasonable ( Non-patent document 1).
However, if the screen is made in a size that can be reached, the screen becomes smaller and the resolution becomes lower. Therefore, there is a method of specifying the pointing and the position of the user using a shadow (see, for example, Patent Documents 2 and 3).

大画面を利用するときにユーザの姿勢の負担を減らしつつ、限られた画面サイズを有効に利用する方法としては、壁型ディスプレイのインタラクションでいくつかの方法が提案されている(例えば、非特許文献2、特許文献1参照)。
非特許文献2では、距離情報を取得できるカメラをユーザの上部に設置し、距離情報を元にユーザの動作情報を取得して、ディスプレイとのインタラクションを行っている。また、特許文献1の発明では、ポヒマスセンサを用いて、ユーザの動作情報を取得し、ディスプレイとのインタラクションを行っている。
特開2003−280817公報 特開2005−78291公報 特開2005−148555公報 特開2004−109402公報 Aaron Toney,Bruce H.Thomas著「Considering Reach in Tangible and Table Top Design,TABLETOP’」06.2. 深澤哲生、福地健太郎、小池英樹著「壁型ディスプレイとの非接触対話手法に関する研究、119回HI研究会」
As a method for effectively using a limited screen size while reducing the burden on the user's posture when using a large screen, several methods have been proposed for wall-type display interaction (for example, non-patented). Reference 2 and Patent Reference 1).
In Non-Patent Document 2, a camera capable of acquiring distance information is installed on the upper part of the user, and user operation information is acquired based on the distance information to interact with the display. Further, in the invention of Patent Document 1, a user's operation information is acquired using a Pohimass sensor, and interaction with a display is performed.
JP 2003-280817 A JP-A-2005-78291 JP 2005-148555 A JP 2004-109402 A Aaron Toney, Bruce H. Thomas, `` Considering Reach in Tangible and Table Top Design, TABLETOP '''06.2. Tetsuo Fukasawa, Kentaro Fukuchi, Hideki Koike "Study on Non-Contact Dialogue with Wall Display, 119th HI Workshop"

しかしながら、距離情報を取得できるカメラを利用する場合には、天井面にカメラの設置が必要なこと、ポヒマスセンサを利用する場合には、ユーザおよびセンサの可動範囲内に機器を置く必要があるなどの問題があった。
本発明は以上のことを顧みてなされたものであり、ある程度のスクリーンサイズを持ったテーブルトップ型コンピュータにおいて、天井面など、装置以外の場所に特殊な機器の設置を必要とせず、ユーザの動作に合わせてマウスなどを利用せずに操作できる機能を提案するものである。
However, when using a camera that can acquire distance information, it is necessary to install the camera on the ceiling surface. When using a Pohimass sensor, it is necessary to place the device within the movable range of the user and the sensor. There was a problem.
The present invention has been made in view of the above, and in a table top type computer having a certain screen size, it is not necessary to install special equipment in a place other than the apparatus such as a ceiling surface, and the operation of the user A function that can be operated without using a mouse is proposed.

請求項1に記載の画像投影表示装置は、投影面と、所定の画像を前記投影面に投影する投影装置と、前記投影面に投影された画像を、画素が2次元的に配列された撮像部で撮像する撮像手段と、時間を計測する計時手段と、前記撮像手段で撮像された前記画像に含まれる利用者の指の影を検出し、前記影に対応するポインティング位置を検出する検出手段と、前記検出手段によって検出された前記影を前記計時手段によって計時された静止した時間に対応する処理を実行する処理手段と、を備えることを特徴とする。
請求項2は、前記画像投影表示装置は、前記検出手段にて影を検出する際に利用する所定の閾値を記憶する閾値初期設定手段をさらに有し、前記閾値初期設定手段は、前記投影面に投影された画像の所定の範囲内に影を生じさせた状態を前記撮像手段で撮像し、該撮像された前記画像の所定の範囲内の影の輝度値を前記所定の閾値として決定することを特徴とする。
請求項3は、前記処理手段は、前記撮像手段によって撮像された前記影の輝度値と、前記閾値初期設定手段に記憶される前記閾値とを比較して、前記影がポインティング目的であるか否かを判定することを特徴とする。
The image projection display device according to claim 1, a projection surface, a projection device that projects a predetermined image on the projection surface, and an image in which pixels are two-dimensionally arranged on the image projected on the projection surface An image pickup means for picking up an image by a unit, a time measuring means for measuring time, and a detection means for detecting a shadow of a user's finger included in the image picked up by the image pickup means and detecting a pointing position corresponding to the shadow And processing means for executing processing corresponding to the stationary time measured by the time measuring means for the shadow detected by the detecting means.
The image projection display device may further include a threshold initial setting unit that stores a predetermined threshold used when the detection unit detects a shadow, and the threshold initial setting unit includes the projection plane. A state in which a shadow is generated within a predetermined range of the image projected on the image is picked up by the imaging means, and a luminance value of a shadow within the predetermined range of the picked-up image is determined as the predetermined threshold value It is characterized by.
According to a third aspect of the present invention, the processing means compares the luminance value of the shadow imaged by the imaging means with the threshold value stored in the threshold value initial setting means, and determines whether the shadow is for pointing purposes. It is characterized by determining.

請求項4は、ポインティング目的であることが検出された前記影が所定の時間だけ静止することによって、アクティベートされていないウィンドウをアクティベートさせるアクティベート手段をさらに備えることを特徴とする。
請求項5は、前記ウィンドウをアクティベートさせた後、前記検出手段によって検出された前記ポインティング位置の移動により、該ウィンドウを移動させるウィンドウ移動手段をさらに備えることを特徴とする。
請求項6は、前記検出手段によって検出された前記ポインティング位置にクリック可能なオブジェクトがある場合、ポインティング動作が停止したとき、クリックされたと判定するクリック判定手段をさらに備えることを特徴とする。
請求項7は、ポインティング位置が検出されないような十分な輝度値を持たない状態において、前記影の静止が検出された場合、検出されたユーザの位置と、ポインティング位置を結ぶ先にあるウィンドウを引き寄せることを特徴とする。
請求項8は、ポインティング位置が検出されないような十分な輝度値を持たない状態において、前記影の静止が検出された場合、検出されたユーザの位置と、ポインティング位置を結ぶ先にあるウィンドウのスクロールバーを引き寄せることを特徴とする。
請求項9は、前記ウィンドウまたは前記スクロールバーの引き寄せ中に、ポインティング動作を検出すると、直ちに前記ウィンドウまたは前記スクロールバーの引き寄せを停止させることを特徴とする。
According to a fourth aspect of the present invention, the apparatus further comprises an activating unit that activates the window that has not been activated when the shadow detected for the purpose of pointing is stationary for a predetermined time.
According to a fifth aspect of the present invention, the apparatus further comprises window moving means for moving the window by the movement of the pointing position detected by the detecting means after activating the window.
According to a sixth aspect of the present invention, when there is an object that can be clicked at the pointing position detected by the detection unit, the display unit further includes a click determination unit that determines that the click is performed when the pointing operation is stopped.
According to a seventh aspect of the present invention, when the shadow stillness is detected in a state that does not have a sufficient luminance value such that the pointing position is not detected, the detected user's position and the window at the destination connecting the pointing position are drawn. It is characterized by that.
According to an eighth aspect of the present invention, in the state where the shadow position is not detected in a state where the pointing position is not detected, and the stationary position of the shadow is detected, the scrolling of the window at the destination connecting the detected user position and the pointing position is performed. It is characterized by attracting bars.
According to a ninth aspect of the present invention, when a pointing operation is detected during the pulling of the window or the scroll bar, the pulling of the window or the scroll bar is immediately stopped.

請求項10は、投影装置により、所定の画像を投影面に投影する投影ステップと、撮像手段により、前記投影面に投影された画像を、画素が2次元的に配列された撮像部で撮像する撮像ステップと、計時手段により、時間を計測する計時ステップと、検出手段により、前記撮像手段で撮像された前記画像に含まれる利用者の指の影を検出し、前記影に対応するポインティング位置を検出する検出ステップと、処理手段により、前記計時ステップにおいて計時された前記検出ステップにおいて検出された前記影が静止した時間に対応する処理を実行する処理ステップとを備えることを特徴とする。
請求項11は、コンピュータに、所定の画像を投影面に投影する投影ステップと、前記投影面に投影された画像を、画素が2次元的に配列された撮像部で撮像する撮像ステップと、時間を計測する計時ステップと、前記撮像手段で撮像された前記画像に含まれる利用者の指の影を検出し、前記影に対応するポインティング位置を検出する検出ステップと、 前記計時ステップにおいて計時された前記検出ステップにおいて検出された前記影が静止した時間に対応する処理を実行する処理ステップとを実行させることを特徴とする。
請求項12は、請求項11に記載のコンピュータ読み取り可能な記録媒体は、請求項10に記載のプログラムを記録したことを特徴とする。
According to a tenth aspect of the present invention, a projection step of projecting a predetermined image onto a projection plane by a projection device, and an image projected onto the projection plane by an imaging unit is captured by an imaging unit in which pixels are two-dimensionally arranged. An imaging step, a time measuring step for measuring time by a time measuring means, and a detecting means for detecting a shadow of a user's finger included in the image captured by the imaging means and determining a pointing position corresponding to the shadow. A detection step of detecting, and a processing step of executing processing corresponding to a time when the shadow detected in the detection step timed in the time measuring step is stationary by the processing means.
According to an eleventh aspect of the present invention, a projecting step of projecting a predetermined image onto a projection surface on a computer, an imaging step of capturing an image projected on the projection surface with an imaging unit in which pixels are two-dimensionally arranged, and time A timing step for measuring the time, a detecting step for detecting a shadow of a user's finger included in the image captured by the imaging means, and a pointing position corresponding to the shadow, and a timing for the timing And a processing step of executing processing corresponding to the time when the shadow detected in the detection step is stationary.
A twelfth aspect is characterized in that the computer-readable recording medium according to the eleventh aspect records the program according to the tenth aspect.

本発明の画像投影表示装置、画像投影表示方法および画像投影表示プログラムによれば、ある程度のスクリーンサイズを持ったテーブルトップ型コンピュータにおいて、天井面など、装置以外の場所に特殊な機器の設置を必要とせず、ユーザの動作に合わせてマウスなどを利用せずに操作することが可能となる。   According to the image projection display device, the image projection display method, and the image projection display program of the present invention, in a table top type computer having a certain screen size, it is necessary to install special equipment in a place other than the device such as a ceiling surface. It is possible to operate without using a mouse or the like according to the user's operation.

(第1の実施の形態)
図1は、本発明の第1の実施の形態の構成例を示す図である。同図に示すように、本実施の形態としての画像表示装置1は、書込面11と、スクリーン12と、投影面13と、筐体14と、筐体14内に設置されたプロジェクタ15およびCCD(Charge Coupled Device)カメラ16と、プロジェクタ15およびCCDカメラ16が接続された情報処理機器100とから構成されている。
スクリーン12は拡散処理が施されている透過性のあるスクリーンである。プロジェクタ15はスクリーン12に向けて設置されており、スクリーン12上にプロジェクタ15からの画像が投影されるようになっている。CCDカメラ16はスクリーン12を撮影し続けるようになっている。情報処理機器100には、プロジェクタ15およびCCDカメラ16が接続されており、CCDカメラ16からの入力画像と、プロジェクタ15への出力画像を処理するようになっている。書込面11は、デスクとして使用するためのある程度の強度を持った透明な部材からなる。
(First embodiment)
FIG. 1 is a diagram illustrating a configuration example of a first embodiment of the present invention. As shown in the figure, an image display device 1 according to the present embodiment includes a writing surface 11, a screen 12, a projection surface 13, a housing 14, a projector 15 installed in the housing 14, and It comprises a CCD (Charge Coupled Device) camera 16 and an information processing device 100 to which a projector 15 and a CCD camera 16 are connected.
The screen 12 is a transmissive screen that has been subjected to diffusion treatment. The projector 15 is installed toward the screen 12, and an image from the projector 15 is projected on the screen 12. The CCD camera 16 continues to shoot the screen 12. A projector 15 and a CCD camera 16 are connected to the information processing apparatus 100, and an input image from the CCD camera 16 and an output image to the projector 15 are processed. The writing surface 11 is made of a transparent member having a certain level of strength for use as a desk.

以下、本実施の形態について詳細に説明する。図2は、本実施の形態の使用形態を示している。図2に示すように、本実施形態の画像表示装置1は、矩形の平面部(書込面11)を有し、デスク状の表示部(スクリーン12)と、情報処理機器100とを備えている。表示部(スクリーン12)は矩形の平面部(書込面11)の中央部分に、筐体14の内部から投影された画像が表示されるようになっている。
また、図1に示すように画像表示装置1は、スクリーン12とスクリーン12を支える筐体14と、筐体14内に設けられ、スクリーン12上に画像を投影するプロジェクタ15と、筐体14内のスクリーン12の裏面側全体が視野角となる位置に配置され、スクリーン12を裏面側から撮影するCCDカメラ16とを備えている。筐体14内に配置されたCCDカメラ16と情報処理機器100とはコードによって接続され、筐体14内に配置されたプロジェクタ15と情報処理機器100とは光学的に結合されている。
Hereinafter, this embodiment will be described in detail. FIG. 2 shows a usage pattern of the present embodiment. As shown in FIG. 2, the image display apparatus 1 according to the present embodiment includes a rectangular plane part (writing surface 11), and includes a desk-like display part (screen 12) and an information processing device 100. Yes. The display unit (screen 12) is configured such that an image projected from the inside of the housing 14 is displayed at the central portion of a rectangular flat surface (writing surface 11).
As shown in FIG. 1, the image display device 1 includes a screen 12, a casing 14 that supports the screen 12, a projector 15 that is provided in the casing 14 and projects an image on the screen 12, and an interior of the casing 14. And a CCD camera 16 for photographing the screen 12 from the back side. The CCD camera 16 disposed in the housing 14 and the information processing device 100 are connected by a cord, and the projector 15 disposed in the housing 14 and the information processing device 100 are optically coupled.

スクリーン12は2重構造をなし、スクリーン12の裏面側には投影画像が投影される投影面13が設けられ、スクリーン12の表面側には水性ペンやホワイトボードマーカなどを用いて描画可能な書込面11が設けられ、投影面13と書込面11とは密着させて一体化されている。
書込面11及び投影面13はともに透明であるが、投影面13の書込面11と密着する側の表面には微細な凹凸が設けられており、投影面13に画像が投影されると、その光はわずかに拡散して透過するので、書込面11が設けられたスクリーン12の表面側からは色々な角度からその投影された画像を視認することができるようになっている。ここで、書込面11の表面には傷がつきにくいように、透明保護シートを被覆するようにしても良いし、透明な塗料などによりコーティングするようにしても良い。
情報処理機器100はCCDカメラ16で撮影された影の画像を撮像して、認識し、取得した画像に応じて、プロジェクタ15からスクリーン12の裏面側に投影される投影画像を操作するようにすることができる。なお、情報処理機器100は、本実施形態の画像表示装置1に専用に作成されたものであっても良いし、パーソナルコンピュータに所定のソフトウェアがインストールされたもので構成しても良い。また、情報処理機器100は、筐体14内に配置しても良い。
The screen 12 has a double structure, a projection surface 13 on which a projection image is projected is provided on the back side of the screen 12, and a drawing that can be drawn using an aqueous pen, a whiteboard marker, or the like on the front side of the screen 12. The insertion surface 11 is provided, and the projection surface 13 and the writing surface 11 are in close contact with each other.
The writing surface 11 and the projection surface 13 are both transparent, but there are fine irregularities on the surface of the projection surface 13 that is in close contact with the writing surface 11, and an image is projected onto the projection surface 13. Since the light is slightly diffused and transmitted, the projected image can be viewed from various angles from the surface side of the screen 12 provided with the writing surface 11. Here, the surface of the writing surface 11 may be covered with a transparent protective sheet so as not to be scratched, or may be coated with a transparent paint or the like.
The information processing apparatus 100 captures and recognizes a shadow image captured by the CCD camera 16 and operates a projection image projected from the projector 15 on the back side of the screen 12 according to the acquired image. be able to. The information processing apparatus 100 may be created exclusively for the image display device 1 of the present embodiment, or may be configured by installing predetermined software on a personal computer. Further, the information processing apparatus 100 may be disposed in the housing 14.

プロジェクタ15は、図示しない反射ミラーやビームスプリッタなどの光学系によって情報処理機器100の図示しないディスプレイと結合され、情報処理機器100で生成された画像をスクリーン12の投影面13に投影することができるようになっている。
CCDカメラ16は、例えばUSB(Universal Serial Bus)インタフェースを介して情報処理機器100にコードで接続され、スクリーン12の表面側、即ち、書込面11に載置された物体や、書込面11に描画された図形や書込面11に映った影などを、スクリーン12の裏面側、即ち投影面13側から所定の時間間隔で撮影し、撮像データを得ることができるようになっている。撮影された画像に対応する画像データは情報処理機器100に供給されるようになっている。
The projector 15 is coupled to a display (not shown) of the information processing device 100 by an optical system such as a reflection mirror and a beam splitter (not shown), and can project an image generated by the information processing device 100 onto the projection surface 13 of the screen 12. It is like that.
The CCD camera 16 is connected to the information processing apparatus 100 by a code via, for example, a USB (Universal Serial Bus) interface, and an object placed on the surface side of the screen 12, that is, the writing surface 11, or the writing surface 11 The image drawn on the writing surface 11 and the shadow reflected on the writing surface 11 are photographed at a predetermined time interval from the back surface side of the screen 12, that is, the projection surface 13 side, and image data can be obtained. Image data corresponding to the photographed image is supplied to the information processing apparatus 100.

図2は本実施の形態としての画像表示装置1の使用形態を示している。ユーザMは、画像表示装置1の前に着席するなどしてこの画像表示装置1を使用する。画像表示装置1は、テーブル状の骨組みの天板に当たる部分にスクリーン12が埋め込まれている。ユーザMは、スクリーン12の表面側にペンで筆記などができるようになっている。
テーブルの下には、プロジェクタ15およびCCDカメラ16が設置されている。プロジェクタ15からの画像がスクリーン12に投影され、また、ユーザMがスクリーン12上にペンで筆記した文字や図形や、スクリーン12上に映ったユーザMの影は、カメラ16によって撮影され、撮影された画像の画像データが情報処理機器100に供給され、処理される。
FIG. 2 shows a usage pattern of the image display apparatus 1 as the present embodiment. The user M uses the image display device 1 by sitting in front of the image display device 1. In the image display device 1, a screen 12 is embedded in a portion corresponding to a table-shaped framework top plate. The user M can write on the surface side of the screen 12 with a pen.
Under the table, a projector 15 and a CCD camera 16 are installed. An image from the projector 15 is projected on the screen 12, and characters and figures written by the user M with the pen on the screen 12 and the shadow of the user M reflected on the screen 12 are photographed and photographed by the camera 16. The image data of the obtained image is supplied to the information processing apparatus 100 and processed.

図3は、情報処理機器100の構成例を示すブロック図である。情報処理機器100は、情報処理機器100全体を制御し、RAM102に格納されているプログラムに従って動作するCPU(Central Processing Unit)101と、一時的にプログラムやデータを記憶する主記憶であるRAM(Random Access Memory)102と、プログラムやデータを記憶する大容量の外部記憶装置であるHDD(ハードディスクドライブ)103と、CPU101の動作結果として出力される画像データのディスプレイへの表示を制御するディスプレイコントローラ104と、後述するCCD(Charge Coupled Device)カメラ16をコントロールするUSB(Universal Serial Bus)コントローラ105等から構成されている。ディスプレイコントローラ104にはプロジェクタ15が接続され、USBコントローラ105にはCCDカメラ16が接続されている。   FIG. 3 is a block diagram illustrating a configuration example of the information processing device 100. The information processing device 100 controls the entire information processing device 100, and operates a CPU (Central Processing Unit) 101 that operates according to a program stored in the RAM 102, and a RAM (Random) that temporarily stores programs and data. Access Memory) 102, HDD (Hard Disk Drive) 103, which is a large-capacity external storage device that stores programs and data, and a display controller 104 that controls display of image data output as an operation result of the CPU 101 on a display. A USB (Universal Serial Bus) controller 105 for controlling a CCD (Charge Coupled Device) camera 16, which will be described later, and the like. A projector 15 is connected to the display controller 104, and a CCD camera 16 is connected to the USB controller 105.

図4は、RAM102に展開され、CPU101によって実行されるソフトウェアの構成例を示している。このソフトウェアは、基本ソフト200と応用ソフト205からなる。基本ソフト200の制御下には、USBデバイスドライバ201と、ウィンドウコントロール202と、ディスプレイコントロールドライバ203とがある。
USBデバイスドライバ201は、CCDカメラ16をコントロールし、ウィンドウコントロール202は、基本ソフト200上で実行されている各種アプリケーション207のウィンドウの位置および大きさ、ウィンドウ同士の前後関係、ウィンドウのアクティブ/非アクティブを管理し制御している。
ディスプレイコントロールドライバ203は、映像を生成し、その出力を制御する。画像処理プログラム206は、必要に応じてHDD103から読み出され、RAM102に展開されて実行される。そして、USBデバイスドライバ201を介して得られたCCDカメラ16からの画像に対して所定の演算処理を施し、その演算結果をウィンドウコントロール202に渡す。
各種アプリケーション207は、ワープロソフトや、表計算ソフト、インターネット閲覧ソフトなどのいわゆる業務アプリケーションであり、基本ソフト200の上で個別に動作している。
FIG. 4 shows a configuration example of software developed in the RAM 102 and executed by the CPU 101. This software includes basic software 200 and application software 205. Under the control of the basic software 200, there are a USB device driver 201, a window control 202, and a display control driver 203.
The USB device driver 201 controls the CCD camera 16, and the window control 202 is a window position and size of various applications 207 executed on the basic software 200, the front-to-back relationship between windows, and active / inactive of windows. Manage and control.
The display control driver 203 generates a video and controls its output. The image processing program 206 is read from the HDD 103 as necessary, developed in the RAM 102, and executed. Then, a predetermined calculation process is performed on the image from the CCD camera 16 obtained via the USB device driver 201, and the calculation result is passed to the window control 202.
The various applications 207 are so-called business applications such as word processing software, spreadsheet software, and Internet browsing software, and operate individually on the basic software 200.

図5は、各手段の処理手順を示している。本実施の形態は、撮像手段としてのCCDカメラ16、画像取り込み手段としてのUSBデバイスコントローラ201、画像処理手段としての画像処理プログラム206、ウィンドウ処理手段としてのウィンドウコントロール202、画像生成手段としてのディスプレイコントロールドライバ203、投影手段としてのプロジェクタ15等から構成されている。
上述したように、撮像手段はCCDカメラ16を表し、画像取り込み手段はUSBデバイスコントローラ201を表し、画像処理手段は情報処理機器100内部にソフトウェアとして構成される画像処理プログラム206を表し、ウィンドウ処理手段は基本ソフト200のウィンドウコントロール202を表し、画像生成手段は基本ソフト200のディスプレイコントロールドライバ203を表し、投影手段はプロジェクタ15を表す。
撮像手段で撮影されたデータは、画像取り込み手段によって情報処理機器100に取り込まれる。取り込まれたデータは画像処理手段によって画像処理され解析される。解析内容に応じて、ウィンドウ処理手段によって各種ウィンドウの管理制御が行われ、その結果、画像生成手段の出力画像に変化を生じさせる。変化したデータは投影手段に出力され、スクリーン上に投影される。
FIG. 5 shows the processing procedure of each means. In this embodiment, a CCD camera 16 as an imaging unit, a USB device controller 201 as an image capturing unit, an image processing program 206 as an image processing unit, a window control 202 as a window processing unit, and a display control as an image generation unit It comprises a driver 203, a projector 15 as projection means, and the like.
As described above, the imaging unit represents the CCD camera 16, the image capturing unit represents the USB device controller 201, the image processing unit represents the image processing program 206 configured as software in the information processing apparatus 100, and the window processing unit. Represents the window control 202 of the basic software 200, the image generation means represents the display control driver 203 of the basic software 200, and the projection means represents the projector 15.
Data captured by the image capturing unit is captured by the information processing device 100 by the image capturing unit. The captured data is subjected to image processing and analysis by the image processing means. Depending on the analysis contents, various windows are managed and controlled by the window processing means, and as a result, the output image of the image generating means is changed. The changed data is output to the projection means and projected on the screen.

次に、本発明の実施の形態において、ウィンドウをアクティベートして引き寄せる方法について示す。ウィンドウのアクティベートは、ユーザMがスクリーン12をある一定期間指差すことによって行われる。
図6は、デスクトップW0の現状の様子を示している。デスクトップW0には、アクティブウィンドウW1と背景にあるウィンドウW2が重なって配置されている。なお、これらのウィンドウW1,W2は、ウィンドウコントロール202によって制御されている。
図7は、ウィンドウのアクティベートの概念図を示している。アクティベートさせる対象となるウィンドウW1内のある位置のスクリーン12をタッチする。それにより、撮像手段(CCDカメラ16)によって指先の大きさの影の画像が撮像され、指先の大きさの影の画像の画像データが画像取り込み手段(USBデバイスコントローラ201)によって取り込まれ、画像処理手段(画像処理プログラム206)に供給される。これにより、ウィンドウ処理手段(ウィンドウコントロール202)は、指先の影の位置にあるアクティブウィンドウW1をアクティベートする。
Next, a method for activating and attracting a window in the embodiment of the present invention will be described. The window is activated by the user M pointing at the screen 12 for a certain period.
FIG. 6 shows the current state of the desktop W0. On the desktop W0, an active window W1 and a window W2 in the background are overlapped. These windows W1 and W2 are controlled by the window control 202.
FIG. 7 shows a conceptual diagram of window activation. Touch the screen 12 at a certain position in the window W1 to be activated. As a result, a shadow image of the fingertip size is captured by the imaging means (CCD camera 16), and image data of the fingertip size shadow image is captured by the image capturing means (USB device controller 201) for image processing. Supplied to the means (image processing program 206). As a result, the window processing means (window control 202) activates the active window W1 at the position of the shadow of the fingertip.

図8は、アクティベートの処理手順を示すフローチャートである。まず、ステップS11において、画像差分と影のサイズを取得する。即ち、CCDカメラ16から画像取り込み手段(USBデバイスコントローラ201)を介して取得した画像と、RAM102に保存されている参照画像とから画像処理プログラム206によって差分画像が取得される。
図9は、差分画像を取得する手順を示すフローチャートである。まず、ステップS31において、画像処理プログラム206は、RAM102から参照画像を読み出す。図10は、参照画像の例を示している。次に、ステップS32において、CCDカメラ16によって撮像された現在の画像を取得する。図11は、スクリーン12に接地して指差している場合に撮像された画像の例を示している。
次に、ステップS33において、画像処理プログラム206は、参照画像と現在の画像の同位置の輝度の差分を演算する。図12は、図10に示した参照画像と図11に示した現在の画像との差分を演算して得られた差分画像を示している。ユーザMの位置は点P1で表され、指先の位置は点P2で表されている。次に、ステップS34において、演算によって得られた差分画像がRAM102に供給され、格納される。
FIG. 8 is a flowchart showing an activation processing procedure. First, in step S11, an image difference and a shadow size are acquired. That is, a difference image is acquired by the image processing program 206 from the image acquired from the CCD camera 16 via the image capturing means (USB device controller 201) and the reference image stored in the RAM 102.
FIG. 9 is a flowchart illustrating a procedure for acquiring a difference image. First, in step S <b> 31, the image processing program 206 reads a reference image from the RAM 102. FIG. 10 shows an example of a reference image. Next, in step S32, a current image captured by the CCD camera 16 is acquired. FIG. 11 shows an example of an image captured when the user touches the screen 12 while touching it.
Next, in step S33, the image processing program 206 calculates a difference in luminance at the same position between the reference image and the current image. FIG. 12 shows a difference image obtained by calculating the difference between the reference image shown in FIG. 10 and the current image shown in FIG. The position of the user M is represented by a point P1, and the position of the fingertip is represented by a point P2. Next, in step S34, the difference image obtained by the calculation is supplied to the RAM 102 and stored.

図13は、影のサイズ取得手順を示すフローチャートである。まず、ステップS41において、画像処理プログラム206は、図9のステップS34においてRAM102に格納された差分画像をRAM102から読み出す。次に、ステップS42において、RAM102から読み出した差分画像の各画素の輝度が閾値以上であるか否かが判定される。
その結果、差分画像の各画素の輝度が閾値以上であると判定された場合、ステップS43に進み、サイズカウンタを加算し、ステップS44において、その該当部分の輝度を影画像としてRAM102に格納する。閾値は例えば、256階調に対して40程度とされる。一方、ステップS42において、RAM102から読み出した差分画像の各画素の輝度が閾値以下であると判定された場合、何も処理をせず、終了する。
その後、図8のステップS12に戻り、画像処理プログラム206は、影画像の画素の面積が基準値A1よりも大きく、かつ基準値A2よりも小さいか否かを判定し、影画像の画素の面積が基準値A1よりも大きく、かつ基準値A2よりも小さい場合、ユーザMが操作をしていると認識し、ステップS13の処理へ進む。ステップS13においては、閾値を用いて影領域が抽出される。
FIG. 13 is a flowchart showing a shadow size acquisition procedure. First, in step S41, the image processing program 206 reads from the RAM 102 the difference image stored in the RAM 102 in step S34 of FIG. Next, in step S42, it is determined whether or not the luminance of each pixel of the difference image read from the RAM 102 is equal to or higher than a threshold value.
As a result, when it is determined that the luminance of each pixel of the difference image is equal to or higher than the threshold value, the process proceeds to step S43, the size counter is added, and the luminance of the corresponding part is stored in the RAM 102 as a shadow image in step S44. For example, the threshold is about 40 for 256 gradations. On the other hand, if it is determined in step S42 that the luminance of each pixel of the difference image read from the RAM 102 is equal to or lower than the threshold value, no processing is performed and the process ends.
Thereafter, returning to step S12 in FIG. 8, the image processing program 206 determines whether or not the area of the shadow image pixel is larger than the reference value A1 and smaller than the reference value A2, and the shadow image pixel area is determined. Is larger than the reference value A1 and smaller than the reference value A2, it is recognized that the user M is operating, and the process proceeds to step S13. In step S13, a shadow area is extracted using a threshold value.

一方、差分画像の画素の面積(影画像の画素の面積)が基準値A1よりも小さいか、または基準値A2よりも大きいと判定された場合、ステップS13の処理には進まず、エラーあるいはユーザMが他の操作をしていると判断し、ステップS20に進み、カウンタをリセットして待機する。
なお、基準値A1およびA2は、キャリブレーションによって設定されるか、または任意の値として設定される。図示しないが、キャリブレーションの方法としては、スクリーン12の上に接触せずに手をかざす場合と、スクリーン12の上に手を置く場合の影情報をそれぞれ読み取り、スクリーン12の上に接触せずに手をかざす場合には認識される影の面積がほとんど無くなり、かつ、スクリーン12の上に手を置くと認識される影の面積があるような閾値A1および閾値A2をキャリブレーションプログラムによって設定し、RAM102やHDD103などに保存される。
On the other hand, if it is determined that the pixel area of the difference image (pixel area of the shadow image) is smaller than the reference value A1 or larger than the reference value A2, the process does not proceed to step S13, and an error or user It is determined that M is performing another operation, and the process proceeds to step S20 to reset the counter and wait.
The reference values A1 and A2 are set by calibration or are set as arbitrary values. Although not shown, as a calibration method, shadow information when a hand is held without touching the screen 12 and when a hand is placed on the screen 12 is read, and the touch information is not touched on the screen 12. The threshold value A1 and the threshold value A2 are set by the calibration program so that the area of the shadow that is recognized is almost eliminated when the hand is held over and the area of the shadow that is recognized when the hand is placed on the screen 12 is present. Stored in the RAM 102, the HDD 103, and the like.

図14は、影画像のサイズを閾値によって分別する手順を示すフローチャートである。まず、ステップS51において、画像処理プログラム206は、影画像をRAM102から読み出す。次に、ステップS52において、画像処理プログラム206により、影画像を構成する各画素の輝度値と閾値が比較され、各画素の輝度値が閾値より大きいか否かが判定される。
その結果、画素の輝度値が閾値より大きい(値が上である)と判定された場合、閾値上影カウンタの値に1だけ加算し、画素の輝度値が閾値以下である場合、閾値下影カウンタの値に1だけ加算する。なお、画素の輝度値は例えば256階調の値とされる。影画像を構成する全ての画素について上記判定が行われ、閾値上影カウンタの値および閾値下影カウンタの値がセットされる。
次に、図8のステップS14に戻り、閾値よりも下の画素の数が、閾値よりも上の画素の数よりも少ないか否かが判定され、閾値よりも下の画素の数が、閾値よりも上の画素の数よりも少ないと判定された場合、画像処理プログラム206により、手がスクリーン12に接地している面積が多いと判断され、ステップS15の処理へ進む。
FIG. 14 is a flowchart showing a procedure for separating the size of the shadow image according to the threshold value. First, in step S <b> 51, the image processing program 206 reads a shadow image from the RAM 102. Next, in step S52, the image processing program 206 compares the luminance value of each pixel constituting the shadow image with a threshold value, and determines whether the luminance value of each pixel is larger than the threshold value.
As a result, when it is determined that the luminance value of the pixel is larger than the threshold value (the value is above), 1 is added to the value of the threshold value upper shadow counter. Add 1 to the counter value. Note that the luminance value of the pixel is, for example, a value of 256 gradations. The above determination is made for all the pixels constituting the shadow image, and the value of the upper threshold shadow counter and the lower threshold counter are set.
Next, returning to step S14 in FIG. 8, it is determined whether the number of pixels below the threshold is less than the number of pixels above the threshold, and the number of pixels below the threshold is If it is determined that the number is lower than the number of pixels above, it is determined by the image processing program 206 that there is a large area where the hand is in contact with the screen 12, and the process proceeds to step S15.

一方、閾値よりも下の画素の数が、閾値よりも上の画素の数よりも少なくない場合(閾値よりも上の画素の数が、閾値よりも下の画素の数以上である場合)には、手がスクリーン12に接地している面積が少ないと判断され、次のステップS15の処理には進まず、ステップS20に進み、カウンタをリセットして待機する。上記閾値はキャリブレーションや任意の値として設定される。
次に、ステップS15において、画像処理プログラム206は、差分画像を構成する各画素のうちスクリーン12の縁に接地している画素の位置を認識する。また、縁にある連続する画素の中間地点をユーザMの位置として認識する。次に、ステップS16において、影画像の先端部分の位置を指の位置として認識し、RAM102に保存する。
On the other hand, when the number of pixels below the threshold is not less than the number of pixels above the threshold (when the number of pixels above the threshold is greater than or equal to the number of pixels below the threshold). It is determined that the area where the hand is in contact with the screen 12 is small, and the process does not proceed to the next step S15, but proceeds to step S20, resets the counter and waits. The threshold value is set as calibration or an arbitrary value.
Next, in step S <b> 15, the image processing program 206 recognizes the position of the pixel that is grounded to the edge of the screen 12 among the pixels constituting the difference image. In addition, an intermediate point between successive pixels at the edge is recognized as the position of the user M. Next, in step S <b> 16, the position of the tip portion of the shadow image is recognized as the finger position and stored in the RAM 102.

図15は、図8のステップS16において、指先の影のサイズおよび位置を取得する手順を示すフローチャートである。まず、ステップS61において、画像処理プログラム206は、影画像をRAM102から読み出す。次に、ステップS62において、ユーザMの位置から一番遠い影の先端部分の位置を指の位置として認識し、RAM102に保存する。
次に、ステップS63において、影の先端部分の各画素の輝度値を閾値と比較し、輝度値が閾値より大きいか否かが判定される。その結果、輝度値が閾値よりも大きいと判定された場合、ステップS64に進み、サイズカウンタの値に1だけ加算する。一方、輝度値が閾値よりも大きくないと判定された場合、サイズカウンタへの加算は行わない。全画素についてステップS63およびステップS64の処理を実行することにより、先端部の面積がサイズカウンタの値として求められる。
次に、図8のステップS17に戻り、画像処理プログラム206により、影画像の先端部分の面積が基準値C1よりも大きくかつ基準値C2よりも小さいか否かが判定される。その結果、影画像の先端部分の面積が基準値C1よりも大きくかつ基準値C2よりも小さいと判定された場合、画像処理プログラム206はある箇所を指差していると認識し、次のステップS18の処理へ進む。
FIG. 15 is a flowchart showing a procedure for acquiring the size and position of the shadow of the fingertip in step S16 of FIG. First, in step S <b> 61, the image processing program 206 reads a shadow image from the RAM 102. Next, in step S 62, the position of the tip of the shadow farthest from the position of the user M is recognized as the finger position and stored in the RAM 102.
Next, in step S63, the luminance value of each pixel at the tip of the shadow is compared with a threshold value to determine whether the luminance value is greater than the threshold value. As a result, when it is determined that the luminance value is larger than the threshold value, the process proceeds to step S64, and 1 is added to the value of the size counter. On the other hand, when it is determined that the luminance value is not greater than the threshold value, addition to the size counter is not performed. By executing the processing of step S63 and step S64 for all the pixels, the area of the tip is obtained as the value of the size counter.
Next, returning to step S17 in FIG. 8, the image processing program 206 determines whether or not the area of the tip portion of the shadow image is larger than the reference value C1 and smaller than the reference value C2. As a result, when it is determined that the area of the tip portion of the shadow image is larger than the reference value C1 and smaller than the reference value C2, the image processing program 206 recognizes that a certain point is pointed, and the next step S18. Proceed to the process.

一方、先端部分の面積が基準値C1よりも小さいか、または基準値C2よりも大きいと判定された場合、次のステップS18の処理には進まず、ステップS20に進み、画像処理プログラム206は、カウンタをリセットして待機する。
ステップS18においては、画像処理プログラム206は、今回認識した先端の位置と、前回認識した先端の位置とを比較し、今回認識した先端の位置と前回認識した先端の位置とが等しいか否かを判定する。その結果、画像処理プログラム206により、前回認識した先端の位置と今回認識した先端の位置とがほぼ等しいと判定された場合、次のステップS19の処理へ進む。一方、前回認識した先端の位置と今回認識した先端の位置とが等しくないと判定された場合、ユーザMの意図が無いと判断され、次のステップS19の処理には進まず、ステップS20に進み、カウンタをリセットして待機する。
ステップS19においては、画像処理プログラム206により、カウンタの値に1だけ加算される。次に、ステップS21において、カウンタの値と、基準値Bとが比較され、カウンタの値が基準値Bより大きいか否かが判定される。その結果、カウンタの値が基準値Bより大きいと判定された場合、ステップS22に進む。一方、カウンタの値が基準値B以下であると判定された場合、この時点では、意図が判断できないため、待機する。Bは任意の値として設定され、本処理を終了する。ここまでが、画像処理プログラム206の動作範囲である。
ステップS22においては、ウィンドウのアクティベート処理が行われる。ウィンドウのアクティベート処理は、ウィンドウコントロール202によって行われる。
On the other hand, when it is determined that the area of the tip portion is smaller than the reference value C1 or larger than the reference value C2, the process does not proceed to the next step S18 but proceeds to step S20, and the image processing program 206 Reset the counter and wait.
In step S18, the image processing program 206 compares the position of the tip recognized this time with the position of the tip recognized last time, and determines whether or not the position of the tip recognized this time is equal to the position of the tip recognized last time. judge. As a result, if the image processing program 206 determines that the position of the tip recognized last time and the position of the tip recognized this time are substantially equal, the process proceeds to the next step S19. On the other hand, if it is determined that the position of the tip recognized last time is not equal to the position of the tip recognized this time, it is determined that there is no intention of the user M, and the process proceeds to step S20 without proceeding to the next step S19. Reset the counter and wait.
In step S19, the image processing program 206 adds 1 to the counter value. Next, in step S21, the counter value is compared with the reference value B, and it is determined whether or not the counter value is greater than the reference value B. As a result, if it is determined that the counter value is greater than the reference value B, the process proceeds to step S22. On the other hand, if it is determined that the value of the counter is equal to or smaller than the reference value B, since the intention cannot be determined at this point, the process waits. B is set as an arbitrary value, and this process ends. This is the operation range of the image processing program 206.
In step S22, a window activation process is performed. The window activation process is performed by the window control 202.

図16は、ウィンドウをアクティベートする手順を示すフローチャートである。図8の処理により、画像処理プログラム206は、影画像からユーザMの指の位置を推測して、その位置をウィンドウコントロール202に渡す。
ステップS71において、ウィンドウコントロール202は、画像処理プログラム206から渡されたユーザMの指の位置を取得する。次に、ステップS72において、ウィンドウコントロール202により、ユーザMの指の位置にウィンドウが存在するか否かが判定される。その結果、指の位置にウィンドウが存在すると判定された場合、ステップS73に進み、そのウィンドウを対象ウィンドウとし、アクティベートする。一方、ステップS72において、指の位置にウィンドウが存在しないと判定された場合、ウィンドウのアクティベート処理は行わず、処理を終了する。
FIG. 16 is a flowchart showing a procedure for activating a window. With the processing in FIG. 8, the image processing program 206 estimates the position of the finger of the user M from the shadow image and passes the position to the window control 202.
In step S <b> 71, the window control 202 acquires the position of the finger of the user M passed from the image processing program 206. Next, in step S72, the window control 202 determines whether or not a window exists at the position of the finger of the user M. As a result, if it is determined that a window exists at the position of the finger, the process proceeds to step S73, where the window is set as the target window and activated. On the other hand, if it is determined in step S72 that there is no window at the position of the finger, the window activation process is not performed and the process ends.

(第2の実施の形態)
次に、第2の実施の形態として、アクティベートしたウィンドウを指で移動させる方法について説明する。図17は、アクティベートしたウィンドウを指で移動させる方法を示す概要図である。
ユーザMの位置P1および手の指先の位置P2は、第1の実施の形態に示した手順で取得する。指をスクリーン12にタッチしたまま移動させることにより、アクティベートしたウィンドウW3を移動させることができる。
図18は、ウィンドウを移動させるときの処理手順を示すフローチャートである。まず、ステップS81において、画像処理プログラム206は、CCDカメラ16から画像取り込み手段を通して取得した画像と、RAM102に保存されている参照画像とを差分し、差分画像を取得し、そのサイズを算出する。
図9は、差分画像取得手順を示すフローチャートである。まず、ステップS31において、画像処理プログラム206は、参照画像をRAM102から読み出す。次に、ステップS32において、CCDカメラ16から現在の画像を取得する。次に、ステップS33において、参照画像と現在の画像の同位置の輝度の差分を演算する。次に、ステップS34において、演算した差分画像をRAM102に格納する。
(Second Embodiment)
Next, a method for moving an activated window with a finger will be described as a second embodiment. FIG. 17 is a schematic diagram showing a method of moving an activated window with a finger.
The position P1 of the user M and the position P2 of the fingertip of the hand are acquired by the procedure shown in the first embodiment. By moving the finger while touching the screen 12, the activated window W3 can be moved.
FIG. 18 is a flowchart showing a processing procedure when moving a window. First, in step S81, the image processing program 206 compares the image acquired from the CCD camera 16 through the image capturing unit and the reference image stored in the RAM 102, acquires a difference image, and calculates its size.
FIG. 9 is a flowchart showing the difference image acquisition procedure. First, in step S <b> 31, the image processing program 206 reads a reference image from the RAM 102. Next, in step S32, the current image is acquired from the CCD camera 16. Next, in step S33, a difference in luminance at the same position between the reference image and the current image is calculated. Next, in step S <b> 34, the calculated difference image is stored in the RAM 102.

図13は、影のサイズ取得手順を示すフローチャートである。まず、ステップS41において、画像処理プログラム206は、差分画像をRAM102から読み出す。次に、ステップS42において、各画素の輝度値と閾値を比較し、各画素の輝度値が閾値より大きいか否かが判定される。その結果、各画素の輝度値が閾値より大きいと判定された場合、ステップS43に進み、サイズカウンタの値に1だけを加算する。次に、ステップS44において、その該当部分の輝度値を影画像(差分画像)としてRAM102に格納する。一方、ステップS42において、RAM102から読み出した差分画像の各画素の輝度値が閾値以下であると判定された場合、何も処理をせずに終了する。
次に、図18のステップS82に戻り、影画像(差分画像)の画素の面積が基準値A1よりも大きく、かつ基準値A2よりも小さいか否かが判定される。その結果、差分画像の画素の面積が基準値A1よりも大きく、かつ基準値A2よりも小さいと判定された場合、画像処理プログラム206は、ユーザMが操作をしていると認識し、次のステップS83の処理へ進む。ステップS83においては、閾値を用いて影領域が抽出される。
一方、差分画像の画素の面積が基準値A1よりも小さいか、または基準値A2よりも大きいと判定された場合、エラーあるいはユーザMが他の操作をしていると判断され、ステップS90に進み、カウンタとアクティベート状態をリセットして待機する。なお、基準値A1および基準値A2は、キャリブレーションによって設定されるか、または任意の値として設定される。キャリブレーション手段については第1の実施の形態で述べた通りであるので、ここではその説明は省略する。
FIG. 13 is a flowchart showing a shadow size acquisition procedure. First, in step S <b> 41, the image processing program 206 reads the difference image from the RAM 102. Next, in step S42, the luminance value of each pixel is compared with a threshold value to determine whether the luminance value of each pixel is greater than the threshold value. As a result, when it is determined that the luminance value of each pixel is larger than the threshold value, the process proceeds to step S43, and only 1 is added to the value of the size counter. In step S44, the luminance value of the corresponding part is stored in the RAM 102 as a shadow image (difference image). On the other hand, if it is determined in step S42 that the luminance value of each pixel of the difference image read from the RAM 102 is equal to or less than the threshold value, the process ends without performing any processing.
Next, returning to step S82 in FIG. 18, it is determined whether or not the pixel area of the shadow image (difference image) is larger than the reference value A1 and smaller than the reference value A2. As a result, when it is determined that the pixel area of the difference image is larger than the reference value A1 and smaller than the reference value A2, the image processing program 206 recognizes that the user M is operating, and The process proceeds to step S83. In step S83, a shadow area is extracted using a threshold value.
On the other hand, when it is determined that the pixel area of the difference image is smaller than the reference value A1 or larger than the reference value A2, it is determined that an error or the user M is performing another operation, and the process proceeds to step S90. , Reset the counter and activate state and wait. The reference value A1 and the reference value A2 are set by calibration or are set as arbitrary values. Since the calibration means is as described in the first embodiment, its description is omitted here.

図14は、影画像のサイズを閾値によって分別する手順を示すフローチャートである。まず、ステップS51において、画像処理プログラム206は、影画像をRAM102から読み出す。次に、ステップS52において、画像処理プログラム206により、影画像を構成する各画素の輝度値と閾値が比較され、各画素の輝度値が閾値より大きいか否かが判定される。
その結果、画素の輝度値が閾値より大きい(値が上である)と判定された場合、閾値上影カウンタの値に1だけ加算し、画素の輝度値が閾値以下である場合、閾値下影カウンタの値に1だけ加算する。なお、画素の輝度値は例えば256階調の値とされる。影画像を構成する全ての画素について上記判定が行われ、閾値上影カウンタの値および閾値下影カウンタの値がセットされる。
次に、図18のステップS84に戻り、閾値よりも下の画素(輝度値が閾値より小さい画素)の数が、閾値よりも上の画素(輝度値が閾値より大きい画素)の数よりも少ない場合、画像処理プログラム206は、手がスクリーン12に接地している面積が多いと判断し、次のステップS85の処理へ進む。
FIG. 14 is a flowchart showing a procedure for separating the size of the shadow image according to the threshold value. First, in step S <b> 51, the image processing program 206 reads a shadow image from the RAM 102. Next, in step S52, the image processing program 206 compares the luminance value of each pixel constituting the shadow image with a threshold value, and determines whether the luminance value of each pixel is larger than the threshold value.
As a result, when it is determined that the luminance value of the pixel is larger than the threshold value (the value is above), 1 is added to the value of the threshold value upper shadow counter. Add 1 to the counter value. Note that the luminance value of the pixel is, for example, a value of 256 gradations. The above determination is made for all the pixels constituting the shadow image, and the value of the upper threshold shadow counter and the lower threshold counter are set.
Next, returning to step S84 in FIG. 18, the number of pixels below the threshold (pixels with a luminance value smaller than the threshold) is smaller than the number of pixels above the threshold (pixels with a luminance value greater than the threshold). In this case, the image processing program 206 determines that the area where the hand is in contact with the screen 12 is large, and proceeds to the processing of the next step S85.

一方、閾値よりも下の画素(輝度値が閾値より小さい画素)の数が、閾値よりも上の画素(輝度値が閾値より大きい画素)の数よりも多いと判定された場合、手がスクリーン12に接地している面積が少ないと判断され、次のステップS85の処理には進まず、ステップS90に進み、カウンタとアクティベート状態をリセットして待機する。閾値はキャリブレーションや任意の値として設定される。
次に、ステップS85において、画像処理プログラム206は、差分画像の画素のうちスクリーン12の縁に接地している位置を認識する。次に、画像処理プログラム206は、縁にある連続する画素の中間地点をユーザMの位置として認識する。次に、ステップS86において、影画像の先端部分の位置を指の位置として認識し、RAM102に保存する。
On the other hand, if it is determined that the number of pixels below the threshold (pixels whose luminance value is smaller than the threshold) is larger than the number of pixels above the threshold (pixels whose luminance value is larger than the threshold), the hand is on the screen. 12, it is determined that the area that is in contact with the ground is small, and the process does not proceed to the next step S <b> 85 but proceeds to step S <b> 90 to reset the counter and the activated state and wait. The threshold value is set as calibration or an arbitrary value.
Next, in step S85, the image processing program 206 recognizes a position of the pixels of the difference image that are in contact with the edge of the screen 12. Next, the image processing program 206 recognizes an intermediate point between successive pixels at the edge as the position of the user M. Next, in step S <b> 86, the position of the tip portion of the shadow image is recognized as the finger position and stored in the RAM 102.

図15は、図18のステップS86において、指先の影のサイズおよび位置を取得する手順を示すフローチャートである。まず、ステップS61において、画像処理プログラム206は、影画像をRAM102から読み出す。次に、ステップS62において、ユーザMの位置から一番遠い影の先端部分の位置を指の位置として認識し、RAM102に保存する。
次に、ステップS63において、影の先端部分の各画素の輝度値を閾値と比較し、輝度値が閾値より大きいか否かが判定される。その結果、輝度値が閾値よりも大きいと判定された場合、ステップS64に進み、サイズカウンタの値に1だけ加算する。一方、輝度値が閾値よりも大きくないと判定された場合、サイズカウンタへの加算は行わない。全画素についてステップS63およびステップS64の処理を実行することにより、先端部の面積がサイズカウンタの値として求められる。
次に、図18のステップS87に戻り、画像処理プログラム206により、影画像の先端部分の面積が基準値C1よりも大きくかつ基準値C2よりも小さいか否かが判定される。その結果、影画像の先端部分の面積が基準値C1よりも大きくかつ基準値C2よりも小さいと判定された場合、画像処理プログラム206はある箇所を指差していると認識し、次のステップS88の処理へ進む。
FIG. 15 is a flowchart showing a procedure for acquiring the size and position of the shadow of the fingertip in step S86 of FIG. First, in step S <b> 61, the image processing program 206 reads a shadow image from the RAM 102. Next, in step S 62, the position of the tip of the shadow farthest from the position of the user M is recognized as the finger position and stored in the RAM 102.
Next, in step S63, the luminance value of each pixel at the tip of the shadow is compared with a threshold value to determine whether the luminance value is greater than the threshold value. As a result, when it is determined that the luminance value is larger than the threshold value, the process proceeds to step S64, and 1 is added to the value of the size counter. On the other hand, when it is determined that the luminance value is not greater than the threshold value, addition to the size counter is not performed. By executing the processing of step S63 and step S64 for all the pixels, the area of the tip is obtained as the value of the size counter.
Next, returning to step S87 in FIG. 18, the image processing program 206 determines whether the area of the tip portion of the shadow image is larger than the reference value C1 and smaller than the reference value C2. As a result, when it is determined that the area of the tip portion of the shadow image is larger than the reference value C1 and smaller than the reference value C2, the image processing program 206 recognizes that a certain point is pointed, and the next step S88. Proceed to the process.

一方、先端部分の面積が基準値C1よりも小さいか、または基準値C2よりも大きいと判定された場合、次のステップS88の処理には進まず、ステップS90に進み、画像処理プログラム206は、カウンタとアクティベート状態をリセットして待機する。
ステップS88においては、画像処理プログラム206は、今回認識した先端の位置と、前回認識した先端の位置とを比較し、今回認識した先端の位置と前回認識した先端の位置とが等しいか否かを判定する。その結果、画像処理プログラム206により、前回認識した先端の位置と今回認識した先端の位置とがほぼ等しいと判定された場合、次のステップS91の処理へ進む。
一方、前回認識した先端の位置と今回認識した先端の位置とが等しくないと判定された場合、ユーザMの意図が無いと判断され、次のステップS91の処理には進まず、ステップS89に進む。ステップS89においては、ウィンドウはアクティベート済であるか否かが判定される。その結果、アクティベート済ではないと判定された場合、ステップS90に進み、画像処理プログラム206は、カウンタとアクティベート状態とをリセットして待機する。
一方、アクティベート済であると判定された場合、ステップS92に進み、先程認識した先端位置へウィンドウを移動させるために、ウィンドウコントロール202へ先端位置と移動させるべきウィンドウの識別情報を送る。画像処理プログラム206から上記情報を受け取ったウィンドウコントロール202は、該当するウィンドウを先端位置へ移動させる。
On the other hand, when it is determined that the area of the tip portion is smaller than the reference value C1 or larger than the reference value C2, the process does not proceed to the next step S88 but proceeds to step S90, and the image processing program 206 Reset the counter and activate status and wait.
In step S88, the image processing program 206 compares the tip position recognized this time with the tip position recognized last time, and determines whether or not the tip position recognized this time and the tip position recognized last time are equal. judge. As a result, if it is determined by the image processing program 206 that the position of the tip recognized last time is substantially equal to the position of the tip recognized this time, the process proceeds to the next step S91.
On the other hand, if it is determined that the position of the tip recognized last time is not equal to the position of the tip recognized this time, it is determined that there is no intention of the user M, and the process proceeds to step S89 without proceeding to the next step S91. . In step S89, it is determined whether the window has been activated. As a result, when it is determined that it has not been activated, the process proceeds to step S90, and the image processing program 206 resets the counter and the activated state and waits.
On the other hand, if it is determined that it has been activated, the process proceeds to step S92, and the tip position and the identification information of the window to be moved are sent to the window control 202 in order to move the window to the tip position recognized previously. The window control 202 that has received the information from the image processing program 206 moves the corresponding window to the tip position.

ステップS91においては、画像処理プログラム206により、カウンタの値に1だけ加算される。次に、ステップS93において、カウンタの値と、基準値Bとが比較され、カウンタの値が基準値Bより大きいか否かが判定される。その結果、カウンタの値が基準値Bより大きいと判定された場合、ステップS94に進む。一方、カウンタの値が基準値B以下であると判定された場合、この時点では、意図が判断できないため、待機する。基準値Bは任意の値として設定される。その後、本処理を終了する。ここまでが、画像処理プログラム206の動作範囲である。
ステップS94においては、ウィンドウのアクティベート処理が行われる。ウィンドウのアクティベート処理は、ウィンドウコントロール202によって行われ、アクティベート状態が保存される。
In step S91, the image processing program 206 adds 1 to the counter value. Next, in step S93, the counter value is compared with the reference value B to determine whether or not the counter value is greater than the reference value B. As a result, if it is determined that the counter value is greater than the reference value B, the process proceeds to step S94. On the other hand, if it is determined that the value of the counter is equal to or smaller than the reference value B, since the intention cannot be determined at this point, the process waits. The reference value B is set as an arbitrary value. Thereafter, this process is terminated. This is the operation range of the image processing program 206.
In step S94, a window activation process is performed. The window activation process is performed by the window control 202, and the activation state is saved.

(第3の実施の形態)
次に、第3の実施の形態として、プログラムを起動する手順について説明する。図19は、プログラムを起動する方法を示す概念図である。ユーザMの位置P1および手の指先の位置P2は、第1の実施の形態で示した方法で取得される。
一定時間指先でタッチしたところがクリッカブルであるとウィンドウコントロール202によって判断されるならば、マウスのクリック動作と同様に、カテゴリが順次表示され、それを選択していくことで、目的とするプログラムを起動することができる。もちろん、指先を認識し、一定時間止まったところでポイントし、指先を離したところで実行する手法は、プログラムの起動だけではなく、ウィンドウに付随するメニューの操作など、他の用途にも利用できることは言うまでもない。
(Third embodiment)
Next, a procedure for starting a program will be described as a third embodiment. FIG. 19 is a conceptual diagram showing a method for starting a program. The position P1 of the user M and the position P2 of the fingertip of the hand are acquired by the method described in the first embodiment.
If the window control 202 determines that the position touched with the fingertip for a certain period of time is clickable, the category is sequentially displayed as in the case of the mouse click operation, and the target program is started by selecting the category. can do. Of course, the method of recognizing the fingertip, pointing when it stops for a certain period of time, and executing it when the fingertip is released can be used not only for starting the program but also for other purposes such as menu operations associated with windows. Yes.

図20は、プログラム起動の処理手順を示すフローチャートである。まず、ステップS101において、画像処理プログラム206は、カメラ16から画像取り込み手段を通して取得した画像とRAM102に保存されている参照画像の差分画像を取得する。
図9は、差分画像を取得する手順を示すフローチャートである。まず、ステップS31において、画像処理プログラム206は、RAM102から参照画像を読み出す。次に、ステップS32において、CCDカメラ16によって撮像された現在の画像を取得する。次に、ステップS33において、画像処理プログラム206は、参照画像と現在の画像の同位置の輝度の差分を演算する。次に、ステップS34において、演算によって得られた差分画像がRAM102に供給され、格納される。
FIG. 20 is a flowchart showing a program start processing procedure. First, in step S <b> 101, the image processing program 206 acquires a difference image between an image acquired from the camera 16 through an image capturing unit and a reference image stored in the RAM 102.
FIG. 9 is a flowchart illustrating a procedure for acquiring a difference image. First, in step S <b> 31, the image processing program 206 reads a reference image from the RAM 102. Next, in step S32, a current image captured by the CCD camera 16 is acquired. Next, in step S33, the image processing program 206 calculates a difference in luminance at the same position between the reference image and the current image. Next, in step S34, the difference image obtained by the calculation is supplied to the RAM 102 and stored.

図13は、影のサイズ取得手順を示すフローチャートである。まず、ステップS41において、画像処理プログラム206は、図9のステップS34においてRAM102に格納された差分画像をRAM102から読み出す。次に、ステップS42において、RAM102から読み出した差分画像の各画素の輝度値が閾値より大きいか否かが判定される。
その結果、差分画像の各画素の輝度が閾値より大きい場合、ステップS43に進み、サイズカウンタを加算し、ステップS44において、その該当部分の輝度を影画像としてRAM102に格納する。閾値は例えば、256階調に対して40程度とされる。一方、ステップS42において、RAM102から読み出した差分画像の各画素の輝度値が閾値以下である場合、何も処理はせず、終了する。
FIG. 13 is a flowchart showing a shadow size acquisition procedure. First, in step S41, the image processing program 206 reads from the RAM 102 the difference image stored in the RAM 102 in step S34 of FIG. Next, in step S42, it is determined whether or not the luminance value of each pixel of the difference image read from the RAM 102 is greater than a threshold value.
As a result, if the luminance of each pixel of the difference image is larger than the threshold value, the process proceeds to step S43, the size counter is added, and the luminance of the corresponding part is stored in the RAM 102 as a shadow image in step S44. For example, the threshold is about 40 for 256 gradations. On the other hand, if the luminance value of each pixel of the difference image read from the RAM 102 is equal to or less than the threshold value in step S42, no processing is performed and the process ends.

次に、図20のステップS102に戻り、影画像(差分画像)の画素の面積が基準値A1よりも大きく、かつ基準値A2よりも小さいか否かが判定される。その結果、差分画像の画素の面積が基準値A1よりも大きく、かつ基準値A2よりも小さいと判定された場合、画像処理プログラム206は、ユーザMが操作をしていると認識し、次のステップS103の処理へ進む。ステップS103においては、閾値を用いて影領域が抽出される。
一方、差分画像の画素の面積が基準値A1よりも小さいか、または基準値A2よりも大きいと判定された場合、エラーあるいはユーザMが他の操作をしていると判断され、ステップS110に進み、カウンタとアクティベート状態をリセットして待機する。なお、基準値A1および基準値A2は、キャリブレーションによって設定されるか、または任意の値として設定される。キャリブレーション手段については第1の実施の形態で述べた通りであるので、ここではその説明は省略する。
Next, returning to step S102 in FIG. 20, it is determined whether or not the pixel area of the shadow image (difference image) is larger than the reference value A1 and smaller than the reference value A2. As a result, when it is determined that the pixel area of the difference image is larger than the reference value A1 and smaller than the reference value A2, the image processing program 206 recognizes that the user M is operating, and The process proceeds to step S103. In step S103, a shadow area is extracted using a threshold value.
On the other hand, when it is determined that the pixel area of the difference image is smaller than the reference value A1 or larger than the reference value A2, it is determined that an error or the user M is performing another operation, and the process proceeds to step S110. , Reset the counter and activate state and wait. The reference value A1 and the reference value A2 are set by calibration or are set as arbitrary values. Since the calibration means is as described in the first embodiment, its description is omitted here.

図14は、影画像のサイズを閾値によって分別する手順を示すフローチャートである。まず、ステップS51において、画像処理プログラム206は、影画像をRAM102から読み出す。次に、ステップS52において、画像処理プログラム206により、影画像を構成する各画素の輝度値と閾値が比較され、各画素の輝度値が閾値より大きいか否かが判定される。
その結果、画素の輝度値が閾値より大きい(値が上である)と判定された場合、閾値上影カウンタの値に1だけ加算し、画素の輝度値が閾値以下である場合、閾値下影カウンタの値に1だけ加算する。なお、画素の輝度値は例えば256階調の値とされる。影画像を構成する全ての画素について上記判定が行われ、閾値上影カウンタの値および閾値下影カウンタの値がセットされる。
次に、図20のステップS104に戻り、閾値よりも下の画素(輝度値が閾値より小さい画素)の数が、閾値よりも上の画素(輝度値が閾値より大きい画素)の数よりも少ない場合、画像処理プログラム206は、手がスクリーン12に接地している面積が多いと判断し、次のステップS105の処理へ進む。
FIG. 14 is a flowchart showing a procedure for separating the size of the shadow image according to the threshold value. First, in step S <b> 51, the image processing program 206 reads a shadow image from the RAM 102. Next, in step S52, the image processing program 206 compares the luminance value of each pixel constituting the shadow image with a threshold value, and determines whether the luminance value of each pixel is larger than the threshold value.
As a result, when it is determined that the luminance value of the pixel is larger than the threshold value (the value is above), 1 is added to the value of the threshold value upper shadow counter. Add 1 to the counter value. Note that the luminance value of the pixel is, for example, a value of 256 gradations. The above determination is made for all the pixels constituting the shadow image, and the value of the upper threshold shadow counter and the lower threshold counter are set.
Next, returning to step S104 in FIG. 20, the number of pixels below the threshold (pixels with a luminance value smaller than the threshold) is smaller than the number of pixels above the threshold (pixels with a luminance value greater than the threshold). In this case, the image processing program 206 determines that the area where the hand is in contact with the screen 12 is large, and proceeds to the processing of the next step S105.

一方、閾値よりも下の画素(輝度値が閾値より小さい画素)の数が、閾値よりも上の画素(輝度値が閾値より大きい画素)の数よりも多いと判定された場合、手がスクリーン12に接地している面積が少ないと判断され、次のステップS105の処理には進まず、ステップS110に進み、カウンタとアクティベート状態をリセットして待機する。閾値はキャリブレーションや任意の値として設定される。
次に、ステップS105において、画像処理プログラム206は、差分画像の画素のうちスクリーン12の縁に接地している位置を認識する。次に、画像処理プログラム206は、縁にある連続する画素の中間地点をユーザMの位置として認識する。次に、ステップS106において、影画像の先端部分の位置を指の位置として認識し、RAM102に保存する。
On the other hand, if it is determined that the number of pixels below the threshold (pixels whose luminance value is smaller than the threshold) is larger than the number of pixels above the threshold (pixels whose luminance value is larger than the threshold), the hand is on the screen. 12, it is determined that the area that is in contact with the ground is small, and the process does not proceed to the next step S <b> 105, but proceeds to step S <b> 110 to reset the counter and the activated state and wait. The threshold value is set as calibration or an arbitrary value.
Next, in step S <b> 105, the image processing program 206 recognizes the position of the pixels of the difference image that are in contact with the edge of the screen 12. Next, the image processing program 206 recognizes an intermediate point between successive pixels at the edge as the position of the user M. Next, in step S <b> 106, the position of the tip portion of the shadow image is recognized as the finger position and stored in the RAM 102.

図15は、図20のステップS106において、指先の影のサイズおよび位置を取得する手順を示すフローチャートである。まず、ステップS61において、画像処理プログラム206は、影画像をRAM102から読み出す。次に、ステップS62において、ユーザMの位置から一番遠い影の先端部分の位置を指の位置として認識し、RAM102に保存する。
次に、ステップS63において、影の先端部分の各画素の輝度値を閾値と比較し、輝度値が閾値より大きいか否かが判定される。その結果、輝度値が閾値よりも大きいと判定された場合、ステップS64に進み、サイズカウンタの値に1だけ加算する。一方、輝度値が閾値よりも大きくないと判定された場合、サイズカウンタへの加算は行わない。全画素についてステップS63およびステップS64の処理を実行することにより、先端部の面積がサイズカウンタの値として求められる。
次に、図20のステップS107に戻り、画像処理プログラム206により、影画像の先端部分の面積が基準値C1よりも大きくかつ基準値C2よりも小さいか否かが判定される。その結果、影画像の先端部分の面積が基準値C1よりも大きくかつ基準値C2よりも小さいと判定された場合、画像処理プログラム206はある箇所を指差していると認識し、次のステップS108の処理へ進む。
FIG. 15 is a flowchart showing a procedure for acquiring the size and position of the shadow of the fingertip in step S106 of FIG. First, in step S <b> 61, the image processing program 206 reads a shadow image from the RAM 102. Next, in step S 62, the position of the tip of the shadow farthest from the position of the user M is recognized as the finger position and stored in the RAM 102.
Next, in step S63, the luminance value of each pixel at the tip of the shadow is compared with a threshold value to determine whether the luminance value is greater than the threshold value. As a result, when it is determined that the luminance value is larger than the threshold value, the process proceeds to step S64, and 1 is added to the value of the size counter. On the other hand, when it is determined that the luminance value is not greater than the threshold value, addition to the size counter is not performed. By executing the processing of step S63 and step S64 for all the pixels, the area of the tip is obtained as the value of the size counter.
Next, returning to step S107 in FIG. 20, the image processing program 206 determines whether the area of the tip portion of the shadow image is larger than the reference value C1 and smaller than the reference value C2. As a result, when it is determined that the area of the tip portion of the shadow image is larger than the reference value C1 and smaller than the reference value C2, the image processing program 206 recognizes that a certain point is pointed, and the next step S108. Proceed to the process.

一方、先端部分の面積が基準値C1よりも小さいか、または基準値C2よりも大きいと判定された場合、次のステップS88の処理には進まず、ステップS110に進み、画像処理プログラム206は、カウンタとアクティベート状態をリセットして待機する。
ステップS108においては、画像処理プログラム206は、今回認識した先端の位置と、前回認識した先端の位置とを比較し、今回認識した先端の位置と前回認識した先端の位置とが等しいか否かを判定する。その結果、画像処理プログラム206により、前回認識した先端の位置と今回認識した先端の位置とがほぼ等しいと判定された場合、次のステップS109の処理へ進む。
一方、前回認識した先端の位置と今回認識した先端の位置とが等しくないと判定された場合、ユーザMの意図が無いと判断され、次のステップS109の処理には進まず、ステップS110に進む。
On the other hand, when it is determined that the area of the tip portion is smaller than the reference value C1 or larger than the reference value C2, the process does not proceed to the next step S88 but proceeds to step S110, and the image processing program 206 Reset the counter and activate status and wait.
In step S108, the image processing program 206 compares the position of the tip recognized this time with the position of the tip recognized last time, and determines whether or not the position of the tip recognized this time is equal to the position of the tip recognized last time. judge. As a result, if the image processing program 206 determines that the position of the tip recognized last time and the position of the tip recognized this time are approximately equal, the process proceeds to the next step S109.
On the other hand, if it is determined that the position of the tip recognized last time is not equal to the position of the tip recognized this time, it is determined that the user M has no intention, and the process proceeds to step S110 without proceeding to the next step S109. .

ステップS109においては、画像処理プログラム206により、カウンタの値に1だけ加算される。次に、ステップS111において、カウンタの値と、基準値Bとが比較され、カウンタの値が基準値Bより大きいか否かが判定される。その結果、カウンタの値が基準値Bより大きいと判定された場合、ステップS112に進む。一方、カウンタの値が基準値B以下であると判定された場合、この時点では、意図が判断できないため、待機する。基準値Bは任意の値として設定される。その後、本処理を終了する。
ステップS112においては、ウィンドウコントロール202により、対象となる場所がクリッカブルであるか否かが判定される。ウィンドウコントロール202により、クリッカブルであると判定された場合、クリックした結果を表示し、プログラムを起動処理を実行する。一方、クリックできないと判定された場合、待機する。その後、本処理を終了する。
In step S109, the image processing program 206 adds 1 to the counter value. Next, in step S111, the value of the counter is compared with the reference value B, and it is determined whether or not the value of the counter is larger than the reference value B. As a result, when it is determined that the counter value is greater than the reference value B, the process proceeds to step S112. On the other hand, if it is determined that the value of the counter is equal to or smaller than the reference value B, since the intention cannot be determined at this point, the process waits. The reference value B is set as an arbitrary value. Thereafter, this process is terminated.
In step S112, the window control 202 determines whether or not the target location is clickable. If it is determined by the window control 202 that it is clickable, the clicked result is displayed and the program is activated. On the other hand, if it is determined that it cannot be clicked, it waits. Thereafter, this process is terminated.

(第4の実施の形態)
次に、対象ウィンドウの引き寄せ方法について説明する。図21、図22は、対象ウィンドウの引き寄せ方法を示す概念図である。図21に示した方法では、対象ウィンドウW4をウィンドウW4ごと引き寄せる。図22に示した方法では、対象ウィンドウW4のスクロールバーB1、B2をスクロールすることで引き寄せる。これらの引き寄せ方法は、ウィンドウW4の状態とユーザMの手の位置などにより選択することができる。
図23は、対象ウィンドウの引き寄せ処理の手順を示すフローチャートである。対象ウィンドウW4の引き寄せは、ユーザMの手の位置がスクリーン12から離れていて、一定時間同じ場所にとどまっているときに行われる処理である。
まず、ステップS121において、画像差分と影のサイズを取得する。即ち、CCDカメラ16から画像取り込み手段(USBデバイスコントローラ201)を介して取得した画像と、RAM102に保存されている参照画像とから画像処理プログラム206によって差分画像(画像差分)が取得される。
(Fourth embodiment)
Next, a method for drawing the target window will be described. FIG. 21 and FIG. 22 are conceptual diagrams showing the target window drawing method. In the method shown in FIG. 21, the target window W4 is drawn together with the window W4. In the method shown in FIG. 22, the scroll bars B1 and B2 of the target window W4 are drawn by scrolling. These pulling methods can be selected depending on the state of the window W4, the position of the hand of the user M, and the like.
FIG. 23 is a flowchart showing the procedure of the target window drawing process. The drawing of the target window W4 is a process performed when the position of the hand of the user M is away from the screen 12 and stays at the same place for a certain time.
First, in step S121, an image difference and a shadow size are acquired. That is, a difference image (image difference) is acquired by the image processing program 206 from the image acquired from the CCD camera 16 via the image capturing means (USB device controller 201) and the reference image stored in the RAM 102.

図9は、差分画像を取得する手順を示すフローチャートである。まず、ステップS31において、画像処理プログラム206は、RAM102から参照画像を読み出す。図10は、参照画像の例を示している。次に、ステップS32において、CCDカメラ16によって撮像された現在の画像を取得する。図11は、スクリーン12に接地して指差している場合に撮像された画像を示している。
次に、ステップS33において、画像処理プログラム206は、参照画像と現在の画像の同位置の輝度の差分を演算する。図12は、図10に示した参照画像と図11に示した現在の画像との差分を演算して得られた差分画像を示している。次に、ステップS34において、演算によって得られた差分画像がRAM102に供給され、格納される。
FIG. 9 is a flowchart illustrating a procedure for acquiring a difference image. First, in step S <b> 31, the image processing program 206 reads a reference image from the RAM 102. FIG. 10 shows an example of a reference image. Next, in step S32, a current image captured by the CCD camera 16 is acquired. FIG. 11 shows an image captured when the user touches the screen 12 while touching it.
Next, in step S33, the image processing program 206 calculates a difference in luminance at the same position between the reference image and the current image. FIG. 12 shows a difference image obtained by calculating the difference between the reference image shown in FIG. 10 and the current image shown in FIG. Next, in step S34, the difference image obtained by the calculation is supplied to the RAM 102 and stored.

図13は、影のサイズ取得手順を示すフローチャートである。まず、ステップS41において、画像処理プログラム206は、図9のステップS34においてRAM102に格納された差分画像をRAM102から読み出す。次に、ステップS42において、RAM102から読み出した差分画像の各画素の輝度が閾値以上であるか否かが判定される。
その結果、差分画像の各画素の輝度が閾値以上であると判定された場合、ステップS43に進み、サイズカウンタを加算し、ステップS44において、その該当部分の輝度を影画像としてRAM102に格納する。閾値は例えば、256階調に対して40程度とされる。一方、ステップS42において、RAM102から読み出した差分画像の各画素の輝度が閾値以下であると判定された場合、何も処理をせず、終了する。
その後、図23のステップS122に戻り、画像処理プログラム206は、影画像の画素の面積が基準値A1よりも大きく、かつ基準値A2よりも小さいか否かを判定し、影画像の画素の面積が基準値A1よりも大きく、かつ基準値A2よりも小さい場合、ユーザMが操作をしていると認識し、ステップS123の処理へ進む。ステップS123においては、閾値を用いて影領域が抽出される。
FIG. 13 is a flowchart showing a shadow size acquisition procedure. First, in step S41, the image processing program 206 reads from the RAM 102 the difference image stored in the RAM 102 in step S34 of FIG. Next, in step S42, it is determined whether or not the luminance of each pixel of the difference image read from the RAM 102 is equal to or higher than a threshold value.
As a result, when it is determined that the luminance of each pixel of the difference image is equal to or higher than the threshold value, the process proceeds to step S43, the size counter is added, and the luminance of the corresponding part is stored in the RAM 102 as a shadow image in step S44. For example, the threshold is about 40 for 256 gradations. On the other hand, if it is determined in step S42 that the luminance of each pixel of the difference image read from the RAM 102 is equal to or lower than the threshold value, no processing is performed and the process ends.
Thereafter, the process returns to step S122 in FIG. 23, and the image processing program 206 determines whether or not the area of the shadow image pixel is larger than the reference value A1 and smaller than the reference value A2, and the shadow image pixel area is determined. Is larger than the reference value A1 and smaller than the reference value A2, it is recognized that the user M is operating, and the process proceeds to step S123. In step S123, a shadow region is extracted using a threshold value.

一方、差分画像の画素の面積(影画像の画素の面積)が基準値A1よりも小さいか、または基準値A2よりも大きいと判定された場合、ステップS123の処理には進まず、エラーあるいはユーザMが他の操作をしていると判断し、ステップS129に進み、カウンタをリセットして待機する。
なお、基準値A1およびA2は、キャリブレーションによって設定されるか、または任意の値として設定される。図示しないが、キャリブレーションの方法としては、スクリーン12の上に接触せずに手をかざす場合と、スクリーン12の上に手を置く場合の影情報をそれぞれ読み取り、スクリーン12の上に接触せずに手をかざす場合には認識される影の面積がほとんど無くなり、かつ、スクリーン12の上に手を置くと認識される影の面積があるような閾値A1および閾値A2をキャリブレーションプログラムによって設定し、RAM102やHDD103などに保存される。
On the other hand, if it is determined that the pixel area of the difference image (pixel area of the shadow image) is smaller than the reference value A1 or larger than the reference value A2, the process does not proceed to step S123, and an error or user It is determined that M is performing another operation, and the process proceeds to step S129 to reset the counter and wait.
The reference values A1 and A2 are set by calibration or are set as arbitrary values. Although not shown, as a calibration method, shadow information when a hand is held without touching the screen 12 and when a hand is placed on the screen 12 is read, and the touch information is not touched on the screen 12. The threshold value A1 and the threshold value A2 are set by the calibration program so that the area of the shadow that is recognized is almost eliminated when the hand is held over and the area of the shadow that is recognized when the hand is placed on the screen 12 is present. Stored in the RAM 102, the HDD 103, and the like.

図14は、影画像のサイズを閾値によって分別する手順を示すフローチャートである。まず、ステップS51において、画像処理プログラム206は、影画像をRAM102から読み出す。次に、ステップS52において、画像処理プログラム206により、影画像を構成する各画素の輝度値と閾値が比較され、各画素の輝度値が閾値より大きいか否かが判定される。
その結果、画素の輝度値が閾値より大きい(値が上である)と判定された場合、閾値上影カウンタの値に1だけ加算し、画素の輝度値が閾値以下である場合、閾値下影カウンタの値に1だけ加算する。なお、画素の輝度値は例えば256階調の値とされる。影画像を構成する全ての画素について上記判定が行われ、閾値上影カウンタの値および閾値下影カウンタの値がセットされる。
次に、図23のステップS124に戻り、閾値よりも下の画素の数が、閾値よりも上の画素の数よりも少ないか否かが判定され、閾値よりも下の画素の数が、閾値よりも上の画素の数よりも少ないと判定された場合、画像処理プログラム206により、手がスクリーン12に接地している面積が多いと判断され、ステップS125の処理へ進む。
FIG. 14 is a flowchart showing a procedure for separating the size of the shadow image according to the threshold value. First, in step S <b> 51, the image processing program 206 reads a shadow image from the RAM 102. Next, in step S52, the image processing program 206 compares the luminance value of each pixel constituting the shadow image with a threshold value, and determines whether the luminance value of each pixel is larger than the threshold value.
As a result, when it is determined that the luminance value of the pixel is larger than the threshold value (the value is above), 1 is added to the value of the threshold value upper shadow counter. Add 1 to the counter value. Note that the luminance value of the pixel is, for example, a value of 256 gradations. The above determination is made for all the pixels constituting the shadow image, and the value of the upper threshold shadow counter and the lower threshold counter are set.
Next, returning to step S124 in FIG. 23, it is determined whether or not the number of pixels below the threshold is smaller than the number of pixels above the threshold, and the number of pixels below the threshold is If it is determined that the number is lower than the number of pixels above, it is determined by the image processing program 206 that there is a large area where the hand is in contact with the screen 12, and the process proceeds to step S125.

一方、閾値よりも下の画素の数が、閾値よりも上の画素の数よりも少なくない場合(閾値よりも上の画素の数が、閾値よりも下の画素の数以上である場合)には、手がスクリーン12に接地している面積が少ないと判断され、次のステップS125の処理には進まず、ステップS129に進み、カウンタをリセットして待機する。上記閾値はキャリブレーションや任意の値として設定される。
次に、ステップS125において、画像処理プログラム206は、差分画像を構成する各画素のうちスクリーン12の縁に接地している画素の位置を認識する。また、縁にある連続する画素の中間地点をユーザMの位置として認識する。次に、ステップS126において、影画像の先端部分の位置を指の位置として認識し、RAM102に保存する。
On the other hand, when the number of pixels below the threshold is not less than the number of pixels above the threshold (when the number of pixels above the threshold is greater than or equal to the number of pixels below the threshold). It is determined that the area where the hand is in contact with the screen 12 is small, and the process does not proceed to the next step S125, but proceeds to step S129, resets the counter and waits. The threshold value is set as calibration or an arbitrary value.
Next, in step S125, the image processing program 206 recognizes the position of the pixel that is grounded to the edge of the screen 12 among the pixels constituting the difference image. In addition, an intermediate point between successive pixels at the edge is recognized as the position of the user M. Next, in step S126, the position of the tip portion of the shadow image is recognized as the finger position and stored in the RAM 102.

図15は、図23のステップS126において、指先の影のサイズおよび位置を取得する手順を示すフローチャートである。まず、ステップS61において、画像処理プログラム206は、影画像をRAM102から読み出す。次に、ステップS62において、ユーザMの位置から一番遠い影の先端部分の位置を指の位置として認識し、RAM102に保存する。
次に、ステップS63において、影の先端部分の各画素の輝度値を閾値と比較し、輝度値が閾値より大きいか否かが判定される。その結果、輝度値が閾値よりも大きいと判定された場合、ステップS64に進み、サイズカウンタの値に1だけ加算する。一方、輝度値が閾値よりも大きくないと判定された場合、サイズカウンタへの加算は行わない。全画素についてステップS63およびステップS64の処理を実行することにより、先端部の面積がサイズカウンタの値として求められる。
次に、図23のステップS127に戻り、画像処理プログラム206は、今回認識した先端の位置と、前回認識した先端の位置とを比較し、今回認識した先端の位置と前回認識した先端の位置とが等しいか否かを判定する。その結果、画像処理プログラム206により、前回認識した先端の位置と今回認識した先端の位置とがほぼ等しいと判定された場合、次のステップS128の処理へ進む。
FIG. 15 is a flowchart showing a procedure for acquiring the size and position of the shadow of the fingertip in step S126 of FIG. First, in step S <b> 61, the image processing program 206 reads a shadow image from the RAM 102. Next, in step S 62, the position of the tip of the shadow farthest from the position of the user M is recognized as the finger position and stored in the RAM 102.
Next, in step S63, the luminance value of each pixel at the tip of the shadow is compared with a threshold value to determine whether the luminance value is greater than the threshold value. As a result, when it is determined that the luminance value is larger than the threshold value, the process proceeds to step S64, and 1 is added to the value of the size counter. On the other hand, when it is determined that the luminance value is not greater than the threshold value, addition to the size counter is not performed. By executing the processing of step S63 and step S64 for all the pixels, the area of the tip is obtained as the value of the size counter.
Next, returning to step S127 in FIG. 23, the image processing program 206 compares the position of the tip recognized this time with the position of the tip recognized last time, and the position of the tip recognized this time and the position of the tip recognized last time are compared. Whether or not are equal. As a result, if the image processing program 206 determines that the position of the tip recognized last time and the position of the tip recognized this time are substantially equal, the process proceeds to the next step S128.

一方、前回認識した先端の位置と今回認識した先端の位置とが等しくないと判定された場合、ユーザMの意図が無いと判断され、次のステップS128の処理には進まず、ステップS129に進み、カウンタをリセットして待機する。
ステップS128においては、画像処理プログラム206により、カウンタの値に1だけ加算される。次に、ステップS130において、カウンタの値と、基準値Bとが比較され、カウンタの値が基準値Bより大きいか否かが判定される。その結果、カウンタの値が基準値Bより大きいと判定された場合、ステップS131に進む。一方、カウンタの値が基準値B以下であると判定された場合、この時点では、意図が判断できないため、待機する。Bは任意の値として設定され、本処理を終了する。ここまでが、画像処理プログラム206の動作範囲である。
次に、ステップS131において、ウィンドウの引き寄せ処理が行われる。図24は、ウィンドウの引き寄せ選択処理を示すフローチャートである。図23に示したフローチャートの処理により、画像処理プログラム206は、影画像からユーザMの手の位置を推測し、ユーザMの手の位置を値としてウィンドウコントロール202に渡す。
On the other hand, if it is determined that the position of the tip recognized last time is not equal to the position of the tip recognized this time, it is determined that there is no intention of the user M, and the process does not proceed to the next step S128 but proceeds to step S129. Reset the counter and wait.
In step S128, the image processing program 206 adds 1 to the counter value. Next, in step S130, the counter value is compared with the reference value B, and it is determined whether or not the counter value is greater than the reference value B. As a result, when it is determined that the counter value is greater than the reference value B, the process proceeds to step S131. On the other hand, if it is determined that the value of the counter is equal to or smaller than the reference value B, since the intention cannot be determined at this point, the process waits. B is set as an arbitrary value, and this process ends. This is the operation range of the image processing program 206.
Next, in step S131, window drawing processing is performed. FIG. 24 is a flowchart showing window drawing selection processing. Through the processing of the flowchart shown in FIG. 23, the image processing program 206 estimates the position of the hand of the user M from the shadow image, and passes the position of the hand of the user M as a value to the window control 202.

図25は、対象ウィンドウを指定する方法を示す概念図である。図25に示したように、ウィンドウコントロール202は、ユーザMの位置P1から手の位置P2に延ばした線の延長線上にあるウィンドウW4を対象ウィンドウとする。対象となるウィンドウが無い場合、引き寄せ選択の処理を終了する。
ウィンドウコントロール202により、対象ウィンドウにスクロールバーがあると判断された場合、手と推測される位置P1と、ウィンドウW4の位置を比較する。手の位置として認識された場所P1とウィンドウW4が重なる場合、ウィンドウコントロール202は、スクロールバーB1、B2がユーザMの方へスクロールできるゆとりがあるか否かを確認する。ゆとりがある場合には、ウィンドウW4をスクロールする(図22)。ゆとりが無い場合には、ウィンドウコントロール202は、ウィンドウを引き寄せる操作をする(図21)。
手とウィンドウW4が重ならない場合、ウィンドウコントロール202は、ウィンドウを引き寄せる(図21)。また、ウィンドウW4にスクロールバーB1、B2が無く、手の位置がウィンドウW4と重ならない場合、ウィンドウコントロール202は、ウィンドウW4を引き寄せる(図21)。手の位置とウィンドウが重なる場合にはウィンドウコントロール202は、ウィンドウW4をスクロールする(図22)。
FIG. 25 is a conceptual diagram showing a method for designating a target window. As shown in FIG. 25, the window control 202 sets a target window to a window W4 on an extension line of the line extending from the position P1 of the user M to the position P2 of the hand. If there is no target window, the drawing selection process is terminated.
When the window control 202 determines that the target window has a scroll bar, the position P1 estimated to be a hand is compared with the position of the window W4. When the place P1 recognized as the position of the hand and the window W4 overlap, the window control 202 confirms whether or not there is room for the scroll bars B1 and B2 to scroll toward the user M. If there is room, the window W4 is scrolled (FIG. 22). When there is no room, the window control 202 performs an operation of pulling the window (FIG. 21).
If the hand and the window W4 do not overlap, the window control 202 draws the window (FIG. 21). When the window W4 does not have the scroll bars B1 and B2 and the position of the hand does not overlap the window W4, the window control 202 pulls the window W4 (FIG. 21). When the hand position and the window overlap, the window control 202 scrolls the window W4 (FIG. 22).

図25は、対象ウィンドウのある方向を検知する方法を示す概念図である。手前にある○印がユーザMの位置P1として認識され、画面中央右にある○印が手の位置P2として画像処理プログラム206により認識されたとする、ウィンドウコントロール202は、ユーザMの位置P1と手の位置P2とを結んだ直線上の先にあるウィンドウW4が対象ウィンドウであるとして認識する。
図26は参照画像を示しており、図27は、スクリーン12から手が離れている場合の実際の画像を示している。図28は、図27に示したスクリーン12から手が離れている場合の実際の画像と、図26に示した参照画像との差分を取った差分画像を示している。図28において、点P1は、ユーザMの位置を表し、点P2は、指先の位置を表している。
FIG. 25 is a conceptual diagram illustrating a method of detecting a certain direction of the target window. The window control 202 assumes that the circle mark in front is recognized as the position P1 of the user M, and the circle mark right in the center of the screen is recognized as the hand position P2 by the image processing program 206. The window W4 on the straight line connecting the position P2 is recognized as the target window.
FIG. 26 shows a reference image, and FIG. 27 shows an actual image when the hand is away from the screen 12. FIG. 28 shows a difference image obtained by taking the difference between the actual image when the hand is separated from the screen 12 shown in FIG. 27 and the reference image shown in FIG. In FIG. 28, the point P1 represents the position of the user M, and the point P2 represents the position of the fingertip.

図29は、スクリーン12にペンで筆記し、手がスクリーン12に接地している場合の実際の画像を示しており、図30は図29に示した手がスクリーン12に接地している場合の実際の画像と、図26に示した参照画像との差分を取った差分画像を示している。図30において、点P1は、ユーザMの位置を表し、点P2は、指先の位置を表している。
このように、画像処理プログラム206は、参照画像との差分により、手の影を取得でき、その輝度によって、ユーザMの手の状態を知ることができる。これにより、ウィンドウコントロール202を通してインタラクションを行うことができる。
以上説明したように、各実施の形態においては、スクリーン12に落ちるユーザMの影を元にユーザMの意図を判断することができる。本実施の形態のポイントは、拡散スクリーン12に落ちる影の形状解析とカウンタを用いた時間推移によるユーザMの動作の判断である。
拡散スクリーン12を利用することで、影の輝度がスクリーン12とユーザMの手との距離によって変化する。また、ユーザMの動作が一時停止するのをユーザMの意図として取得することによって、誤動作を防ぐことができる。例えば、重なっているウィンドウをアクティベートする場合においては、目的のウィンドウの上で指先をポイントすることで、その形状をシステムで読み取り、一定時間過ぎると、アクティベートさせるようにすることができる。
FIG. 29 shows an actual image when the pen is written on the screen 12 and the hand is in contact with the screen 12. FIG. 30 shows the case where the hand shown in FIG. 29 is in contact with the screen 12. The difference image which took the difference of an actual image and the reference image shown in FIG. 26 is shown. In FIG. 30, a point P1 represents the position of the user M, and a point P2 represents the position of the fingertip.
As described above, the image processing program 206 can acquire the shadow of the hand based on the difference from the reference image, and can know the state of the hand of the user M based on the luminance. Thereby, interaction can be performed through the window control 202.
As described above, in each embodiment, the intention of the user M can be determined based on the shadow of the user M falling on the screen 12. The point of the present embodiment is the determination of the operation of the user M based on the shape analysis of the shadow falling on the diffusion screen 12 and the time transition using the counter.
By using the diffusing screen 12, the brightness of the shadow changes depending on the distance between the screen 12 and the hand of the user M. Further, by acquiring the user M's intention that the operation of the user M is temporarily stopped as a result, the malfunction can be prevented. For example, when activating overlapping windows, by pointing the fingertip on the target window, the shape can be read by the system and activated after a certain period of time.

また、ウィンドウを移動させる場合には、アクティベートさせたウィンドウをタッチしたままの指先を目的の場所に移動させることで、ウィンドウを移動させる。タッチしたままスクリーン12上を指で滑らせる操作は、プログラムの起動などにも利用することができる。
スクリーン12上の位置を指先の一時停止動作を含む認識によって辿り、最後にスクリーン12から指を離すことで、プログラムの起動を行うことができる。もちろん、プログラムの起動ばかりではなく、同操作によりウィンドウのメニューの操作も可能である。
あるいは、ユーザMが手を伸ばして空中で一時停止した場合には、ユーザMは手の先にある領域を利用したいのだと判断し、その領域を引き寄せる。領域の引き寄せ方法は、「ウィンドウを引き寄せる」、「ウィンドウをスクロールする」という方法が考えられる。どちらの引き寄せ方法が選択されるかは、対象となる領域にどのような形態で表示されているかを判断して決定される。
対象となる領域の判断は、影を用いてユーザMの位置を特定し、ユーザMの位置と手の先の影を線で結んだ先にある領域であると判断するようにしても良い。ユーザMが利用したい領域が引き寄せられた後、ユーザMがスクリーン12に手を近づけることにより、手の影の違いを判断して、引き寄せを停止させるようにすることができる。
なお、上記実施の形態の構成及び動作は例であって、本発明の趣旨を逸脱しない範囲で適宜変更することができることは言うまでもない。
Further, when moving the window, the window is moved by moving the fingertip while touching the activated window to the target location. The operation of sliding on the screen 12 with a finger while touching can also be used for starting a program.
The program can be started by tracing the position on the screen 12 by recognition including a fingertip pause operation and finally releasing the finger from the screen 12. Of course, it is possible not only to start the program but also to operate the window menu by the same operation.
Alternatively, when the user M reaches out and pauses in the air, the user M determines that he wants to use the area at the tip of the hand and draws the area. As a method for drawing an area, a method of “drawing a window” or “scrolling a window” can be considered. Which drawing method is selected is determined by determining what form is displayed in the target region.
The target area may be determined by identifying the position of the user M using a shadow and determining that the area is the area where the position of the user M and the shadow of the hand are connected by a line. After the area that the user M wants to use is drawn, the user M can approach the screen 12 to determine the difference in the shadow of the hand and stop the drawing.
It should be noted that the configuration and operation of the above-described embodiment are examples, and it goes without saying that they can be changed as appropriate without departing from the spirit of the present invention.

本発明は、例えば、投影型の画像表示装置だけでなく、その他の種々の表示装置にも適用することができる。   The present invention can be applied not only to a projection-type image display device but also to other various display devices.

本発明が適用される画像表示装置の第1の実施の形態の構成例を示す図である。It is a figure which shows the structural example of 1st Embodiment of the image display apparatus with which this invention is applied. 画像表示装置の使用形態を示す斜視図である。It is a perspective view which shows the usage condition of an image display apparatus. 情報処理機器の構成例を示すブロック図である。It is a block diagram which shows the structural example of information processing equipment. ソフトウェアの構成例を示す図である。It is a figure which shows the structural example of software. 各手段の処理手順を示す図である。It is a figure which shows the process sequence of each means. デスクトップの現状の様子を示す図である。It is a figure which shows the present condition of a desktop. ウィンドウのアクティベートの概念図を示す図である。It is a figure which shows the conceptual diagram of activation of a window. アクティベートの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of activation. 差分画像を取得する手順を示すフローチャートである。It is a flowchart which shows the procedure which acquires a difference image. 参照画像の例を示す図である。It is a figure which shows the example of a reference image. スクリーンに接地して指差している場合に撮像された画像の例を示す図である。It is a figure which shows the example of the image imaged when it earth | grounds and points at the screen. 差分画像の例を示す図である。It is a figure which shows the example of a difference image. 影のサイズ取得手順を示すフローチャートである。It is a flowchart which shows the size acquisition procedure of a shadow. 影画像のサイズを閾値によって分別する手順を示すフローチャートである。It is a flowchart which shows the procedure which classifies the size of a shadow image according to a threshold value. 指先の影のサイズおよび位置を取得する手順を示すフローチャートである。It is a flowchart which shows the procedure which acquires the size and position of the shadow of a fingertip. ウィンドウをアクティベートする手順を示すフローチャートである。It is a flowchart which shows the procedure which activates a window. アクティベートしたウィンドウを指で移動させる方法を示す概要図である。It is a schematic diagram which shows the method of moving the activated window with a finger | toe. ウィンドウを移動させるときの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence when moving a window. プログラムを起動する方法を示す概念図である。It is a conceptual diagram which shows the method of starting a program. プログラム起動の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a program starting. 対象ウィンドウの引き寄せ方法を示す概念図である。It is a conceptual diagram which shows the drawing method of an object window. 対象ウィンドウの引き寄せ方法を示す概念図である。It is a conceptual diagram which shows the drawing method of an object window. 対象ウィンドウの引き寄せ処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the drawing process of an object window. ウィンドウの引き寄せ選択処理を示すフローチャートである。It is a flowchart which shows the drawing selection process of a window. 対象ウィンドウを指定する方法を示す概念図である。It is a conceptual diagram which shows the method of designating a target window. 参照画像を示す図である。It is a figure which shows a reference image. スクリーンから手が離れている場合の実際の画像を示す図である。It is a figure which shows an actual image when a hand is separated from the screen. 差分画像の例を示す図である。It is a figure which shows the example of a difference image. スクリーンにペンで筆記し、手がスクリーンに接地している場合の実際の画像を示す図である。It is a figure which shows the actual image when writing with a pen on the screen and the hand is touching the screen. 差分画像の例を示す図である。It is a figure which shows the example of a difference image.

符号の説明Explanation of symbols

1 画像表示装置、11 書込面、12 スクリーン、13 投影面、14 筐体、15 プロジェクタ、16 CCDカメラ、100 情報処理機器、101 CPU、102 RAM、103 ROM、104 ディスプレイコントローラ、105 USBコントローラ、200 基本ソフト、201 USBデバイスドライバ、202 ウィンドウコントロール、203 ディスプレイコントロールドライバ、204 設定値、205 応用ソフト、206 画像処理プログラム、207 各種アプリケーション   DESCRIPTION OF SYMBOLS 1 Image display apparatus, 11 Writing surface, 12 Screen, 13 Projection surface, 14 Housing | casing, 15 Projector, 16 CCD camera, 100 Information processing apparatus, 101 CPU, 102 RAM, 103 ROM, 104 Display controller, 105 USB controller, 200 Basic software, 201 USB device driver, 202 Window control, 203 Display control driver, 204 Setting value, 205 Application software, 206 Image processing program, 207 Various applications

Claims (12)

投影面と、
所定の画像を前記投影面に投影する投影装置と、
前記投影面に投影された画像を、画素が2次元的に配列された撮像部で撮像する撮像手段と、
時間を計測する計時手段と、
前記撮像手段で撮像された前記画像に含まれる利用者の指の影を検出し、前記影に対応するポインティング位置を検出する検出手段と、
前記検出手段によって検出された前記影を前記計時手段によって計時された静止した時間に対応する処理を実行する処理手段と、を備えることを特徴とする画像投影表示装置。
A projection plane;
A projection device for projecting a predetermined image onto the projection plane;
Imaging means for imaging an image projected on the projection plane with an imaging unit in which pixels are two-dimensionally arranged;
A time measuring means for measuring time;
Detecting means for detecting a shadow of a user's finger included in the image picked up by the image pickup means and detecting a pointing position corresponding to the shadow;
An image projection display device comprising: processing means for executing processing corresponding to the stationary time measured by the time measuring means for the shadow detected by the detection means.
前記画像投影表示装置は、前記検出手段にて影を検出する際に利用する所定の閾値を記憶する閾値初期設定手段をさらに有し、
前記閾値初期設定手段は、前記投影面に投影された画像の所定の範囲内に影を生じさせた状態を前記撮像手段で撮像し、該撮像された前記画像の所定の範囲内の影の輝度値を前記所定の閾値として決定すること、を特徴とする請求項1に記載の画像投影表示装置。
The image projection display device further includes a threshold initial setting unit that stores a predetermined threshold used when the detection unit detects a shadow,
The threshold initial setting means captures a state in which a shadow is generated in a predetermined range of the image projected on the projection plane by the imaging means, and the brightness of the shadow within the predetermined range of the captured image The image projection display device according to claim 1, wherein a value is determined as the predetermined threshold value.
前記処理手段は、前記撮像手段によって撮像された前記影の輝度値と、前記閾値初期設定手段に記憶される前記閾値とを比較して、前記影がポインティング目的であるか否かを判定する、ことを特徴とする請求項2に記載の画像投影表示装置。   The processing means compares the brightness value of the shadow imaged by the imaging means with the threshold value stored in the threshold value initial setting means to determine whether or not the shadow is for pointing purposes. The image projection display device according to claim 2. ポインティング目的であることが検出された前記影が所定の時間だけ静止することによって、アクティベートされていないウィンドウをアクティベートさせるアクティベート手段、をさらに備えることを特徴とする請求項2に記載の画像投影表示装置。   The image projection display device according to claim 2, further comprising an activating unit that activates a window that has not been activated when the shadow detected to be a pointing object is stationary for a predetermined time. . 前記ウィンドウをアクティベートさせた後、前記検出手段によって検出された前記ポインティング位置の移動により、該ウィンドウを移動させるウィンドウ移動手段、をさらに備えることを特徴とする請求項4に記載の画像投影表示装置。   The image projection display apparatus according to claim 4, further comprising: a window moving unit that moves the window by moving the pointing position detected by the detecting unit after activating the window. 前記検出手段によって検出された前記ポインティング位置にクリック可能なオブジェクトがある場合、ポインティング動作が停止したとき、クリックされたと判定するクリック判定手段、をさらに備えることを特徴とする請求項4に記載の画像投影表示装置。   The image according to claim 4, further comprising: a click determination unit that determines that a click has been made when a pointing operation is stopped when there is an object that can be clicked at the pointing position detected by the detection unit. Projection display device. ポインティング位置が検出されないような十分な輝度値を持たない状態において、前記影の静止が検出された場合、検出されたユーザの位置と、ポインティング位置を結ぶ先にあるウィンドウを引き寄せる、ことを特徴とする請求項1に記載の画像投影表示装置。   When the shadow stillness is detected in a state that does not have a sufficient luminance value such that the pointing position is not detected, the detected user's position and the window at the destination connecting the pointing position are drawn. The image projection display device according to claim 1. ポインティング位置が検出されないような十分な輝度値を持たない状態において、前記影の静止が検出された場合、検出されたユーザの位置と、ポインティング位置を結ぶ先にあるウィンドウのスクロールバーを引き寄せる、ことを特徴とする請求項1に記載の画像投影表示装置。   In the state where the shadow position is not detected in a state where the pointing position is not detected, and when the stillness of the shadow is detected, the detected user position and the scroll bar of the window at the destination of the pointing position are drawn. The image projection display device according to claim 1. 前記ウィンドウまたは前記スクロールバーの引き寄せ中に、ポインティング動作を検出すると、直ちに前記ウィンドウまたは前記スクロールバーの引き寄せを停止させる、ことを特徴とする請求項7または8に記載の画像投影表示装置。   9. The image projection display device according to claim 7, wherein when the pointing operation is detected during the pulling of the window or the scroll bar, the pulling of the window or the scroll bar is immediately stopped. 投影装置により、所定の画像を投影面に投影する投影ステップと、
撮像手段により、前記投影面に投影された画像を、画素が2次元的に配列された撮像部で撮像する撮像ステップと、
計時手段により、時間を計測する計時ステップと、
検出手段により、前記撮像手段で撮像された前記画像に含まれる利用者の指の影を検出し、前記影に対応するポインティング位置を検出する検出ステップと、
処理手段により、前記計時ステップにおいて計時された前記検出ステップにおいて検出された前記影が静止した時間に対応する処理を実行する処理ステップと、を備えることを特徴とする画像投影表示方法。
A projection step of projecting a predetermined image onto the projection plane by the projection device;
An imaging step of imaging an image projected on the projection plane by an imaging unit with an imaging unit in which pixels are two-dimensionally arranged;
A timing step for measuring time by means of timing;
A detecting step of detecting a shadow of a user's finger included in the image picked up by the image pickup means by a detecting means and detecting a pointing position corresponding to the shadow;
An image projection display method comprising: a processing step of executing a process corresponding to a time when the shadow detected in the detection step measured in the timing step is stationary by a processing unit.
コンピュータに、
所定の画像を投影面に投影する投影ステップと、
前記投影面に投影された画像を、画素が2次元的に配列された撮像部で撮像する撮像ステップと、
時間を計測する計時ステップと、
前記撮像手段で撮像された前記画像に含まれる利用者の指の影を検出し、前記影に対応するポインティング位置を検出する検出ステップと、
前記計時ステップにおいて計時された前記検出ステップにおいて検出された前記影が静止した時間に対応する処理を実行する処理ステップと、を実行させることを特徴とする画像投影表示プログラム。
On the computer,
A projecting step of projecting a predetermined image onto a projection surface;
An imaging step of imaging an image projected on the projection plane with an imaging unit in which pixels are two-dimensionally arranged;
A timing step to measure time;
A detection step of detecting a shadow of a user's finger included in the image captured by the imaging means and detecting a pointing position corresponding to the shadow;
And a processing step of executing a process corresponding to a time when the shadow detected in the detection step measured in the timing step is stationary.
請求項11に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which recorded the program of Claim 11.
JP2007239542A 2007-09-14 2007-09-14 Image projection display device, image projection display method, image projection display program, and recording medium Expired - Fee Related JP4933389B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007239542A JP4933389B2 (en) 2007-09-14 2007-09-14 Image projection display device, image projection display method, image projection display program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007239542A JP4933389B2 (en) 2007-09-14 2007-09-14 Image projection display device, image projection display method, image projection display program, and recording medium

Publications (2)

Publication Number Publication Date
JP2009070245A true JP2009070245A (en) 2009-04-02
JP4933389B2 JP4933389B2 (en) 2012-05-16

Family

ID=40606407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007239542A Expired - Fee Related JP4933389B2 (en) 2007-09-14 2007-09-14 Image projection display device, image projection display method, image projection display program, and recording medium

Country Status (1)

Country Link
JP (1) JP4933389B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101815190A (en) * 2010-04-16 2010-08-25 浙江大学 Projection display system and characteristic analysis method thereof
JP2011022945A (en) * 2009-07-17 2011-02-03 Dainippon Printing Co Ltd Fingertip-manipulation-type information providing system, program, and storage medium
JP2011118533A (en) * 2009-12-01 2011-06-16 Tokyo Denki Univ Device and method for inputting touch position
EP2364013A2 (en) 2010-03-04 2011-09-07 Sony Corporation Information processing apparatus, method and program for imaging device
WO2012043489A1 (en) * 2010-09-30 2012-04-05 シャープ株式会社 Liquid crystal display device and display method employed therein
JP2012118473A (en) * 2010-12-03 2012-06-21 Fujitsu Ltd Projector device, position detection program, image supplying method and projector system
EP2879000A1 (en) 2013-10-31 2015-06-03 Funai Electric Co., Ltd. Projector device
US9417712B2 (en) 2012-05-18 2016-08-16 Ricoh Company, Ltd. Image processing apparatus, computer-readable recording medium, and image processing method
JP2016186656A (en) * 2016-07-13 2016-10-27 日立マクセル株式会社 Projection type image display apparatus
US9927923B2 (en) 2013-11-19 2018-03-27 Hitachi Maxell, Ltd. Projection-type video display device
US9965028B2 (en) 2010-04-07 2018-05-08 Samsung Electronics Co., Ltd. Method for suspension sensing in interactive display, method for processing suspension sensing image, and proximity sensing apparatus
JP2020052917A (en) * 2018-09-28 2020-04-02 株式会社リコー Display terminal, display control method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124839A (en) * 1997-07-07 1999-01-29 Sony Corp Information input device
JP2005078291A (en) * 2003-08-29 2005-03-24 Ricoh Co Ltd Image projecting and displaying device, pointing position detecting method, program and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124839A (en) * 1997-07-07 1999-01-29 Sony Corp Information input device
JP2005078291A (en) * 2003-08-29 2005-03-24 Ricoh Co Ltd Image projecting and displaying device, pointing position detecting method, program and recording medium

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022945A (en) * 2009-07-17 2011-02-03 Dainippon Printing Co Ltd Fingertip-manipulation-type information providing system, program, and storage medium
JP2011118533A (en) * 2009-12-01 2011-06-16 Tokyo Denki Univ Device and method for inputting touch position
EP2364013A3 (en) * 2010-03-04 2014-01-29 Sony Corporation Information processing apparatus, method and program for imaging device
EP2364013A2 (en) 2010-03-04 2011-09-07 Sony Corporation Information processing apparatus, method and program for imaging device
EP3996361A1 (en) 2010-03-04 2022-05-11 Sony Group Corporation Information processing apparatus, information processing method, and program
US9049376B2 (en) 2010-03-04 2015-06-02 Sony Corporation Information processing apparatus, information processing method, and program
US11190678B2 (en) 2010-03-04 2021-11-30 Sony Corporation Information processing apparatus, information processing method, and program
US10659681B2 (en) 2010-03-04 2020-05-19 Sony Corporation Information processing apparatus, information processing method, and program
US10306136B2 (en) 2010-03-04 2019-05-28 Sony Corporation Information processing apparatus, information processing method, and program
US9516206B2 (en) 2010-03-04 2016-12-06 Sony Corporation Information processing apparatus, information processing method, and program
US10015392B2 (en) 2010-03-04 2018-07-03 Sony Corporation Information processing apparatus, information processing method, and program
US9965028B2 (en) 2010-04-07 2018-05-08 Samsung Electronics Co., Ltd. Method for suspension sensing in interactive display, method for processing suspension sensing image, and proximity sensing apparatus
CN101815190A (en) * 2010-04-16 2010-08-25 浙江大学 Projection display system and characteristic analysis method thereof
WO2012043489A1 (en) * 2010-09-30 2012-04-05 シャープ株式会社 Liquid crystal display device and display method employed therein
JP2012118473A (en) * 2010-12-03 2012-06-21 Fujitsu Ltd Projector device, position detection program, image supplying method and projector system
US8827460B2 (en) 2010-12-03 2014-09-09 Fujitsu Limited Projector system and device, recording medium storing position detection program, and image providing method
US9417712B2 (en) 2012-05-18 2016-08-16 Ricoh Company, Ltd. Image processing apparatus, computer-readable recording medium, and image processing method
EP2879000A1 (en) 2013-10-31 2015-06-03 Funai Electric Co., Ltd. Projector device
US9927923B2 (en) 2013-11-19 2018-03-27 Hitachi Maxell, Ltd. Projection-type video display device
US10191594B2 (en) 2013-11-19 2019-01-29 Maxell, Ltd. Projection-type video display device
JP2016186656A (en) * 2016-07-13 2016-10-27 日立マクセル株式会社 Projection type image display apparatus
JP2020052917A (en) * 2018-09-28 2020-04-02 株式会社リコー Display terminal, display control method, and program
JP7284449B2 (en) 2018-09-28 2023-05-31 株式会社リコー Display terminal, display control method and program

Also Published As

Publication number Publication date
JP4933389B2 (en) 2012-05-16

Similar Documents

Publication Publication Date Title
JP4933389B2 (en) Image projection display device, image projection display method, image projection display program, and recording medium
JP6135239B2 (en) Image processing apparatus, image processing program, and image processing method
JP4033582B2 (en) Coordinate input / detection device and electronic blackboard system
US8743089B2 (en) Information processing apparatus and control method thereof
JP4627781B2 (en) Coordinate input / detection device and electronic blackboard system
US20130135199A1 (en) System and method for user interaction with projected content
WO2012026347A1 (en) Electronic blackboard system and program
JP5915143B2 (en) Electronic information board device
US10268277B2 (en) Gesture based manipulation of three-dimensional images
JPH09512656A (en) Interactive video display system
JP2000105671A (en) Coordinate input and detecting device, and electronic blackboard system
US10276133B2 (en) Projector and display control method for displaying split images
JP2011043876A (en) Image display device
US20150242179A1 (en) Augmented peripheral content using mobile device
JP2016103137A (en) User interface system, image processor and control program
JP2000259338A (en) Input system, display system, presentation system and information storage medium
JP6746419B2 (en) Information processing apparatus, control method thereof, and computer program
CA2885950A1 (en) Interactive input system and method for grouping graphical objects
JP4728540B2 (en) Image projection device for meeting support
JP2010272078A (en) System, and control unit of electronic information board, and cursor control method
JP2001067183A (en) Coordinate input/detection device and electronic blackboard system
TWI394063B (en) System of inputting instruction by image identification and method of the same
JP6187547B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP2013134549A (en) Data input device and data input method
JP2018063555A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120216

R150 Certificate of patent or registration of utility model

Ref document number: 4933389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees