JP2009295031A - Image projection device and its control method - Google Patents

Image projection device and its control method Download PDF

Info

Publication number
JP2009295031A
JP2009295031A JP2008149759A JP2008149759A JP2009295031A JP 2009295031 A JP2009295031 A JP 2009295031A JP 2008149759 A JP2008149759 A JP 2008149759A JP 2008149759 A JP2008149759 A JP 2008149759A JP 2009295031 A JP2009295031 A JP 2009295031A
Authority
JP
Japan
Prior art keywords
image
projection
size
user interface
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008149759A
Other languages
Japanese (ja)
Other versions
JP2009295031A5 (en
JP5258399B2 (en
Inventor
Kotaro Kitajima
光太郎 北島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008149759A priority Critical patent/JP5258399B2/en
Publication of JP2009295031A publication Critical patent/JP2009295031A/en
Publication of JP2009295031A5 publication Critical patent/JP2009295031A5/ja
Application granted granted Critical
Publication of JP5258399B2 publication Critical patent/JP5258399B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve an image projection technology with which the visibility or operability of an operation menu can be improved. <P>SOLUTION: An image projection device includes: a projection means for projecting an image and a user interface image on a projection face; an object detection means for detecting information related with a prescribed operation object existing on the projection face; an operation detection means for detecting the operation on the basis of the information related with the operation object detected by the object detection means on the projection face on which the user interface image is projected; a size decision means for deciding the size of an image projected by the projection means; a determination means for determining at least either the display position or size of the user interface image to be projected on the projection face according to the projection image size decided by the size decision means; and a control means for controlling the projection means on the basis of at least either the display position or size determined by the decision means, and for projecting the user interface image with the image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像とともにユーザインタフェース画像を投影面に投影する画像投影技術に関する。   The present invention relates to an image projection technique for projecting a user interface image together with an image onto a projection plane.

従来、プロジェクタなどの画像投影装置とカメラなどの撮像装置とを利用してコンピュータの操作を行うシステムが提案されている(例えば、特許文献1参照)。このシステムでは、ユーザの机上での動作をカメラで撮影し、撮影した画像を画像処理することによってユーザの手・指先の位置を検出する。ここで検出したユーザの手・指先の位置を利用して、ユーザによる机上に置かれたバーコード指示などを認識し、そのバーコードに関連した画像などを机上に投影する。   Conventionally, a system for operating a computer using an image projection apparatus such as a projector and an imaging apparatus such as a camera has been proposed (see, for example, Patent Document 1). In this system, an operation on a user's desk is photographed by a camera, and the position of the user's hand / fingertip is detected by performing image processing on the photographed image. Using the detected position of the user's hand / fingertip, a barcode instruction placed on the desk by the user is recognized, and an image related to the barcode is projected on the desk.

また、画像投影装置の設定メニューの操作を、投影された画像上で行うことができる装置が提案されている(例えば、特許文献2参照)。
特開2001−282456号公報 特開2005−141151号公報
In addition, an apparatus that can perform a setting menu operation of an image projection apparatus on a projected image has been proposed (see, for example, Patent Document 2).
JP 2001-282456 A JP-A-2005-141151

しかしながら、上記特許文献2に記載の技術では投影画像(投影画面)のサイズに関係なく、メニューや操作アイコンなどの表示位置や方向は固定されている。このため、投影画像のサイズによってはユーザによる操作が困難になる場合があるという問題があった。例えば、投影画像のサイズが20インチの場合と同じ位置、サイズで100インチの投影画面にメニューを表示すると、ユーザより高い位置にメニューが表示されてしまう。このため、ユーザが手でメニューを選択するためには手を上方に無理に伸ばす必要が生じたり、メニューの近くまで大きく移動する必要がある。   However, in the technique described in Patent Document 2, the display position and direction of menus and operation icons are fixed regardless of the size of the projection image (projection screen). For this reason, there has been a problem that operation by the user may be difficult depending on the size of the projected image. For example, when a menu is displayed on a projection screen having the same position and size as that of a projected image of 20 inches, the menu is displayed at a position higher than the user. For this reason, in order for the user to select a menu with his / her hand, it is necessary to forcibly extend his / her hand upward, or it is necessary to move to the vicinity of the menu.

本発明は、上記課題に鑑みてなされ、投影画像のサイズやユーザの手の大きさに応じて操作メニューの表示位置やサイズを決定することで、操作メニューの視認性や操作性を向上できる画像投影技術を実現する。   The present invention has been made in view of the above problems, and can determine the visibility and operability of the operation menu by determining the display position and size of the operation menu according to the size of the projection image and the size of the user's hand. Realize projection technology.

上述の課題を解決するために、本発明の画像投影装置は、画像とともにユーザインタフェース画像を投影面に投影する投影手段と、前記投影面上に存在する所定の操作物体に関する情報を検出する物体検出手段と、前記ユーザインタフェース画像が投影された前記投影面において前記物体検出手段により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出手段と、前記投影手段により投影される画像のサイズを判定するサイズ判定手段と、前記サイズ判定手段により判定した投影画像サイズに応じて、前記投影面に投影する前記ユーザインタフェース画像の表示位置及びサイズの少なくともいずれかを決定する決定手段と、前記決定手段が決定した前記表示位置及びサイズの少なくともいずれかに基づいて前記投影手段を制御し、前記ユーザインタフェース画像を前記画像とともに投影させる制御手段と、を有する。   In order to solve the above-described problems, an image projection apparatus according to the present invention includes a projection unit that projects a user interface image together with an image onto a projection plane, and an object detection that detects information about a predetermined operation object existing on the projection plane. Means, operation detection means for detecting an operation based on information on the operation object detected by the object detection means on the projection plane on which the user interface image is projected, and a size of an image projected by the projection means Size determining means for determining, at least one of a display position and a size of the user interface image to be projected on the projection plane according to the projection image size determined by the size determining means, and the determination The projection means based on at least one of the display position and size determined by the means Controlled, and a control means for projecting the user interface image together with the image.

また、本発明の画像投影装置は、画像とともにユーザインタフェース画像を投影面に投影する投影手段と、前記投影面上に存在する所定の操作物体に関する情報を検出する物体検出手段と、前記ユーザインタフェース画像が投影された前記投影面において前記物体検出手段により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出手段と、前記操作物体のサイズを判定するサイズ判定手段と、前記サイズ判定手段により判定した操作物体のサイズに応じて、前記投影面に投影する前記ユーザインタフェース画像の表示位置及びサイズの少なくともいずれかを決定する決定手段と、前記決定手段が決定した前記表示位置及びサイズの少なくともいずれかに基づいて前記投影手段を制御し、前記ユーザインタフェース画像を前記画像とともに投影させる制御手段と、を有する。   The image projection apparatus of the present invention includes a projection unit that projects a user interface image together with an image onto a projection plane, an object detection unit that detects information about a predetermined operation object existing on the projection plane, and the user interface image. An operation detection unit that detects an operation based on information about the operation object detected by the object detection unit on the projection surface on which the object is projected, a size determination unit that determines a size of the operation object, and the size determination unit A determination unit that determines at least one of a display position and a size of the user interface image to be projected onto the projection plane according to the size of the operation object determined by the step, and at least the display position and the size determined by the determination unit Controlling the projection means on the basis of the user interface image And a control means for projecting with serial images.

また、本発明の画像投影装置の制御方法は、投影手段により画像とともにユーザインタフェース画像を投影面に投影する投影工程と、前記投影面上に存在する所定の操作物体に関する情報を検出する物体検出工程と、前記ユーザインタフェース画像が投影された前記投影面において前記物体検出工程により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出工程と、前記投影工程により投影される画像のサイズを判定するサイズ判定工程と、前記サイズ判定工程により判定した投影画像サイズに応じて、前記投影面に投影する前記ユーザインタフェース画像の表示位置及びサイズの少なくともいずれかを決定する決定工程と、前記決定工程が決定した前記表示位置及びサイズの少なくともいずれかに基づいて前記投影手段を制御し、前記ユーザインタフェース画像を前記画像とともに投影させる制御工程と、を有する。   The image projection apparatus control method according to the present invention includes a projection step of projecting a user interface image together with an image on a projection plane by a projection unit, and an object detection step of detecting information related to a predetermined operation object existing on the projection plane. And an operation detection step for detecting an operation based on information on the operation object detected by the object detection step on the projection plane on which the user interface image is projected, and a size of an image projected by the projection step. A size determining step for determining; a determining step for determining at least one of a display position and a size of the user interface image to be projected on the projection plane in accordance with the projection image size determined in the size determining step; and the determining step The projection hand based on at least one of the display position and size determined by Controls, and a control step of projecting the user interface image together with the image.

また、本発明の画像投影装置の制御方法は、投影手段により画像とともにユーザインタフェース画像を投影面に投影する投影工程と、前記投影面上に存在する所定の操作物体に関する情報を検出する物体検出工程と、前記ユーザインタフェース画像が投影された前記投影面において前記物体検出工程により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出工程と、前記操作物体のサイズを判定するサイズ判定工程と、前記サイズ判定工程により判定した操作物体のサイズに応じて、前記投影面に投影する前記ユーザインタフェース画像の表示位置及びサイズの少なくともいずれかを決定する決定工程と、前記決定工程が決定した前記表示位置及びサイズの少なくともいずれかに基づいて前記投影手段を制御し、前記ユーザインタフェース画像を前記画像とともに投影させる制御工程と、を有する。   The image projection apparatus control method according to the present invention includes a projection step of projecting a user interface image together with an image on a projection plane by a projection unit, and an object detection step of detecting information related to a predetermined operation object existing on the projection plane. An operation detecting step for detecting an operation based on information on the operating object detected by the object detecting step on the projection surface on which the user interface image is projected, and a size determining step for determining the size of the operating object And a determination step for determining at least one of a display position and a size of the user interface image to be projected onto the projection plane according to the size of the operation object determined by the size determination step, and the determination step determined by the determination step The projection means is controlled based on at least one of the display position and size, and the user The The interface image and a control step of projected together with the image.

本発明によれば、投影画像のサイズやユーザの手の大きさに応じて、操作メニューの表示位置やサイズを決定することで、操作メニューの視認性や操作性が向上する。   According to the present invention, the visibility and operability of the operation menu are improved by determining the display position and size of the operation menu according to the size of the projection image and the size of the user's hand.

以下に、添付図面を参照して本発明を実施するための最良の形態について詳細に説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.

尚、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

[第1の実施形態]
先ず、第1の実施形態として、投影画像のサイズに応じて操作メニューの表示位置及びサイズの少なくともいずれかを決定する装置について説明する。
[First Embodiment]
First, as a first embodiment, an apparatus that determines at least one of the display position and size of an operation menu according to the size of a projection image will be described.

図1は、本発明に係る第1の実施形態の画像投影装置の概略構成を示すブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of an image projection apparatus according to a first embodiment of the present invention.

図1に示す画像投影装置10において、投影部100は、光源、レンズ、表示デバイス等を含み、投影画像生成部101から供給される画像を投影する。投影画像生成部101は、メモリカード等の記憶媒体102に記憶された画像データから、投影画像を生成し、投影部100に供給する。システム制御部103は例えばCPU、ROM及びRAMを含むマイクロプロセッサであり、CPUがROMに記憶されたプログラムをRAMに読出して実行することにより、画像投影装置10の動作を制御する。   In the image projection apparatus 10 illustrated in FIG. 1, the projection unit 100 includes a light source, a lens, a display device, and the like, and projects an image supplied from the projection image generation unit 101. The projection image generation unit 101 generates a projection image from image data stored in the storage medium 102 such as a memory card and supplies the projection image to the projection unit 100. The system control unit 103 is, for example, a microprocessor including a CPU, a ROM, and a RAM. The CPU reads out a program stored in the ROM and executes the program, thereby controlling the operation of the image projection apparatus 10.

撮像部104は例えば動画像を撮影可能なカメラであり、CCDイメージセンサやCMOSイメージセンサのような撮像素子と、撮像素子に光学被写体像を結像するためのレンズを含む。なお、本実施形態において、撮像部104は赤外光領域のみを撮影可能な赤外線カメラであるものとする。また、本実施形態において撮像部104の撮像範囲は投影部100の投影範囲を包含する範囲であるものとする。撮像部104は、撮像画像を手領域検出部105へ供給する。   The imaging unit 104 is, for example, a camera that can capture a moving image, and includes an imaging element such as a CCD image sensor or a CMOS image sensor, and a lens for forming an optical subject image on the imaging element. In the present embodiment, the imaging unit 104 is an infrared camera that can capture only the infrared light region. In the present embodiment, the imaging range of the imaging unit 104 is a range including the projection range of the projection unit 100. The imaging unit 104 supplies the captured image to the hand region detection unit 105.

手領域検出部105は、撮像部104から供給される撮像画像から、予め定められた特定の被写体の一例として、人間の手、具体的には人間の手と判別される画像領域(手領域)を検出する。手領域検出部105により検出された手領域に関する情報(手の大きさなど)は、ユーザ操作検出部106及びメニュー表示制御部107へ与えられる。   The hand region detection unit 105 is an image region (hand region) that is identified as a human hand, specifically a human hand, as an example of a predetermined specific subject from the captured image supplied from the imaging unit 104. Is detected. Information regarding the hand area (hand size, etc.) detected by the hand area detection unit 105 is given to the user operation detection unit 106 and the menu display control unit 107.

ユーザ操作検出部106は、手領域に関する情報に基づいて、ユーザの操作を検出する。投影画像サイズ判定部110は、投影部100により投影される画像サイズを判定し、判定結果をメニュー表示制御部107へ出力する。メニュー表示制御部107は、投影画像のサイズと手領域に関する情報に基づいてユーザインタフェース画像としてのメニュー表示を制御する。   The user operation detection unit 106 detects a user operation based on information on the hand area. The projection image size determination unit 110 determines the image size projected by the projection unit 100 and outputs the determination result to the menu display control unit 107. The menu display control unit 107 controls menu display as a user interface image based on information on the size of the projection image and the hand area.

図2は、図1に示した画像投影装置による画像の投影と撮像の様子を模式的に示す図である。   FIG. 2 is a diagram schematically showing how an image is projected and captured by the image projection apparatus shown in FIG.

図2に示す例では、投影面210は机又はテーブルで形成される水平面であり、投影面210上に投影画像211が投影された状態を示している。なお、投影面210はユーザの使用環境に応じて壁などでもよい。   In the example shown in FIG. 2, the projection plane 210 is a horizontal plane formed by a desk or table, and shows a state in which the projection image 211 is projected on the projection plane 210. The projection surface 210 may be a wall or the like according to the user's usage environment.

撮像部104は投影された投影画像211を含む領域を撮像するものとする。投影画像のサイズは投影面210との距離や投影部100のズーム状態によって変化する。そのため、撮像部104は撮像画像中における投影画像211の領域の割合が常に同じになるように画角を変更する。具体的には、投影画像のサイズが小さい場合は望遠側で撮影し、投影画像のサイズが大きい場合は広角側で撮像することで撮像画像と投影画像との関係を一定に保持する。さらに、図示していないが、ユーザは投影画像211の領域に手を挿入することで装置10の操作が可能である。   The imaging unit 104 captures an area including the projected image 211 projected. The size of the projection image changes depending on the distance from the projection plane 210 and the zoom state of the projection unit 100. Therefore, the imaging unit 104 changes the angle of view so that the ratio of the area of the projected image 211 in the captured image is always the same. Specifically, when the size of the projected image is small, the image is taken on the telephoto side, and when the size of the projected image is large, the image is taken on the wide-angle side to keep the relationship between the captured image and the projected image constant. Further, although not shown, the user can operate the apparatus 10 by inserting a hand into the region of the projection image 211.

(画像投影動作)
再度図1を参照して、本実施形態の画像投影装置の画像投影動作について説明する。
(Image projection operation)
With reference to FIG. 1 again, the image projecting operation of the image projecting device of the present embodiment will be described.

記憶媒体102には複数の画像データが記録されている。システム制御部103は記憶媒体102に記録された複数の画像データのいずれかを指定し、投影画像生成部101へ読み出し要求を出す。投影画像生成部101は指定された画像データを記憶媒体102から読み出し、例えば画像データが符号化されていれば復号化処理を行うなど、投影部100に表示するための画像データ(表示用画像データ)を生成する処理を行う。表示用画像データは投影部100に供給され、投影部100は表示用画像データに基づく画像を投影する。   A plurality of image data is recorded in the storage medium 102. The system control unit 103 designates any of a plurality of image data recorded in the storage medium 102 and issues a read request to the projection image generation unit 101. The projection image generation unit 101 reads the designated image data from the storage medium 102, and performs image data (display image data for display) on the projection unit 100, for example, performs decoding processing if the image data is encoded. ) Is generated. The display image data is supplied to the projection unit 100, and the projection unit 100 projects an image based on the display image data.

なお、投影する画像は、例えば記憶媒体102に記憶されている複数の画像データの中からユーザが指定しても良い。この指定は基本ソフトが提供するファイルブラウザを用いるなど、周知の任意の方法を用いて行いうる。   Note that the image to be projected may be designated by the user from among a plurality of image data stored in the storage medium 102, for example. This designation can be performed using any known method such as using a file browser provided by the basic software.

(ユーザ操作検出動作)
次に、本実施形態の画像投影装置におけるユーザ操作の検出動作について説明する。
(User operation detection operation)
Next, a detection operation of a user operation in the image projection apparatus of this embodiment will be described.

上述のように、撮像部104は赤外光領域のみを撮影可能な赤外線カメラであり、投影範囲、すなわち投影画像を含む投影面上の領域を撮像する。撮像部104は、1秒当たりnフレームの画像を撮影し、撮像により得られた画像データを、例えばフレーム単位で手領域検出部105に出力する。ここで、nは1以上の整数であればよいが、10〜30程度が望ましい。   As described above, the imaging unit 104 is an infrared camera that can capture only an infrared light region, and images a projection range, that is, a region on a projection plane including a projection image. The imaging unit 104 captures an image of n frames per second, and outputs image data obtained by the imaging to the hand region detection unit 105 in units of frames, for example. Here, n may be an integer of 1 or more, but is preferably about 10 to 30.

手領域検出部105では、撮像部104から供給される画像データから、予め定められた被写体に対応する領域、ここでは一例としてユーザの手に対応する領域(手領域)を検出する。図3(a)は投影面300上の投影画像301にユーザが手302をかざした(挿入した)状態の例を示す。   The hand region detection unit 105 detects a region corresponding to a predetermined subject, in this example, a region (hand region) corresponding to the user's hand, from the image data supplied from the imaging unit 104. FIG. 3A shows an example of a state in which the user holds (inserts) the hand 302 over the projection image 301 on the projection plane 300.

手領域検出部105は例えば特許文献1と同様の方法により、赤外線画像からユーザの手領域を抽出することができる。具体的には、撮像部104は赤外線カメラであるため、ユーザの手領域からの放射光を測定し、温度が所定の範囲(人間の体温の近傍である30℃〜34℃程度)にある被写体だけを抽出する。そのため、撮像画像にはユーザの手領域のみが写る。手領域検出部105は、撮像部104から供給される撮影画像データに対して、ノイズ除去処理などを行った後、手領域および手の指先位置をパターンマッチングにより検出する。図3(b)は図3(a)の状態で撮像部104が撮像した画像310から検出された手領域311と指先位置320〜324を示している。   The hand region detection unit 105 can extract the user's hand region from the infrared image, for example, by the same method as in Patent Document 1. Specifically, since the imaging unit 104 is an infrared camera, it measures the radiated light from the user's hand region, and the subject has a temperature in a predetermined range (approximately 30 ° C. to 34 ° C., which is close to human body temperature). Just extract. Therefore, only the user's hand area appears in the captured image. The hand region detection unit 105 performs noise removal processing on the captured image data supplied from the imaging unit 104, and then detects the hand region and the fingertip position of the hand by pattern matching. FIG. 3B shows the hand region 311 and fingertip positions 320 to 324 detected from the image 310 captured by the imaging unit 104 in the state of FIG.

手領域検出部105は、検出した手領域に関する情報として、例えば手領域の範囲を示す情報と指先位置を示す情報とを、ユーザ操作検出部106及びメニュー表示制御部107に出力する。   The hand region detection unit 105 outputs, for example, information indicating the range of the hand region and information indicating the fingertip position to the user operation detection unit 106 and the menu display control unit 107 as information regarding the detected hand region.

(投影画像サイズ判定動作)
再度図1を参照して、本実施形態の画像投影装置における投影画像サイズの判定動作について説明する。
(Projected image size judgment operation)
With reference to FIG. 1 again, the projection image size determination operation in the image projection apparatus of this embodiment will be described.

投影画像サイズ判定部110は、投影部100から光学系のズームおよびフォーカス情報を取得する。そして、ズームおよびフォーカス状態に対応した投影画像サイズを算出する。ズームおよびフォーカス状態と投影サイズの関係は予めテーブル情報として保持しているものとする。ここでは、投影画像サイズとしては大、中、小の3種類を判定するものとする。   The projection image size determination unit 110 acquires zoom and focus information of the optical system from the projection unit 100. Then, a projection image size corresponding to the zoom and focus state is calculated. It is assumed that the relationship between the zoom and focus state and the projection size is held in advance as table information. Here, it is assumed that three types of projection image sizes, large, medium, and small, are determined.

投影画像サイズ判定部110により判定された投影画像サイズ情報は、メニュー表示制御部107へ出力される。また、手領域検出部105による手領域の検出結果もメニュー表示制御部107へ出力される。   The projection image size information determined by the projection image size determination unit 110 is output to the menu display control unit 107. In addition, the hand region detection result by the hand region detection unit 105 is also output to the menu display control unit 107.

(メニュー表示制御)
次に、図4のフローを参照して、本実施形態のメニューの表示制御動作について説明する。
(Menu display control)
Next, the menu display control operation of the present embodiment will be described with reference to the flow of FIG.

図4は、本実施形態のメニュー表示制御部107による動作を示すフローチャートである。なお、メニュー表示制御部107において制御されるメニューとは、ユーザによる操作を受け付ける操作メニューを示している。   FIG. 4 is a flowchart showing the operation of the menu display control unit 107 of this embodiment. The menu controlled by the menu display control unit 107 indicates an operation menu that accepts an operation by the user.

図4において、S401では、手領域検出部105による手領域の検出結果に基づいて、手が投影画像中に一定時間以上挿入されているか判定する。ここで、手が一定時間以上挿入されている場合は、メニューを表示するためS402へ進み、手が挿入されていない又は手が挿入されてから一定時間経過していない場合は、メニューを表示しないので、本処理を終了する。   In FIG. 4, in S401, based on the detection result of the hand region by the hand region detection unit 105, it is determined whether or not the hand has been inserted into the projection image for a certain time or more. If the hand has been inserted for a predetermined time or longer, the process proceeds to S402 to display the menu. If the hand has not been inserted or the fixed time has not elapsed since the hand was inserted, the menu is not displayed. Therefore, this process ends.

S402では、投影画像のサイズに応じてメニューの表示位置およびサイズを決定する。図5は投影画像サイズとメニューの表示位置およびサイズとの関係を例示している。図5において、(a)は投影画像サイズが小(20インチ以下)のとき、(b)は投影画像サイズが中(20〜80インチ)のとき、(c)は投影画像サイズが大(100インチ)のときの各操作メニュー501〜503を例示している。   In S402, the display position and size of the menu are determined according to the size of the projection image. FIG. 5 illustrates the relationship between the projected image size and the menu display position and size. 5A, when the projection image size is small (20 inches or less), FIG. 5B is when the projection image size is medium (20 to 80 inches), and FIG. 5C is the projection image size is large (100). The operation menus 501 to 503 are shown as examples.

ここで、投影画像サイズに応じてメニューの表示位置やサイズを決定する理由について説明する。先ず、メニューのサイズに関しては、投影画像サイズが小さくなる程、相対的にユーザの手のサイズは大きくなる。そのため、投影画像サイズが小さくなる程、メニューの表示サイズを大きくしてユーザが手で選択しやすくなるように制御する。   Here, the reason for determining the display position and size of the menu according to the projection image size will be described. First, regarding the menu size, the smaller the projected image size, the larger the user's hand size. Therefore, the smaller the projected image size is, the larger the menu display size is controlled so that the user can easily select it by hand.

また、メニューの表示位置に関しては、投影画像サイズが小さいときには、投影面として机や壁が考えられる。また、投影画像サイズが小さいため、ユーザは投影画像中のどこにでも手を伸ばしてメニューを操作することが可能である。そのため、図5(a)に示すように投影画像の中心部を含む画面全体を使ってメニューを表示する。   As for the display position of the menu, a desk or a wall can be considered as the projection plane when the projection image size is small. Further, since the projected image size is small, the user can operate the menu by extending his hand anywhere in the projected image. Therefore, as shown in FIG. 5A, the menu is displayed using the entire screen including the center of the projected image.

一方、投影画像サイズが100インチなど大きくなった場合には壁への投影が主となると考えられる。壁に投影した際にメニューを図5(a)のように投影画像の上方に表示してしまうとユーザの手が届きにくいなど操作し難い状況が生じてしまう。そこで、投影画像サイズが大きい場合には、図5(c)のように、ユーザの位置に近いと考えられる投影画像の側方(右端)かつ下方にメニューを表示する(図5(c)では右下部に表示)。図5(b)は図5(a)と(c)の中間状態であり、投影画面の中央部にはメニューを表示せずに画面の側方(右端)に表示している。   On the other hand, when the projection image size becomes large, such as 100 inches, it is considered that the projection onto the wall is mainly performed. If the menu is displayed above the projected image as shown in FIG. 5A when projected onto the wall, a situation in which it is difficult for the user to reach, such as being difficult for the user to reach, occurs. Therefore, when the projection image size is large, as shown in FIG. 5C, a menu is displayed on the side (right end) and below the projection image considered to be close to the position of the user (in FIG. 5C). (Displayed in the lower right). FIG. 5B is an intermediate state between FIGS. 5A and 5C, and the menu is not displayed at the center of the projection screen but is displayed on the side (right end) of the screen.

図4に戻り、S403では、メニュー画像を投影画像に重畳して表示するための要求をシステム制御部103へ送出する。また、S402で決定されたメニューの表示位置およびサイズに関する情報もシステム制御部103へ送出する。   Returning to FIG. 4, in step S <b> 403, a request for displaying the menu image superimposed on the projection image is sent to the system control unit 103. In addition, information regarding the display position and size of the menu determined in S <b> 402 is also sent to the system control unit 103.

システム制御部103は、メニュー表示制御部107からのメニュー表示要求を受けると、メニューの表示位置およびサイズに関する情報を投影画像生成部101に送出する。投影画像生成部101は、メニュー表示位置およびサイズに関する情報に基づいて、記憶媒体102からの画像上の、メニュー表示位置に対応する位置にメニュー画像を重畳合成して表示用画像データを生成し、投影部100へ出力する。これにより、投影部100からは、メニューが重畳された画像が投影される。   Upon receiving a menu display request from the menu display control unit 107, the system control unit 103 sends information regarding the menu display position and size to the projection image generation unit 101. The projection image generating unit 101 generates display image data by superimposing and synthesizing the menu image at a position corresponding to the menu display position on the image from the storage medium 102 based on the information regarding the menu display position and size. Output to the projection unit 100. As a result, an image on which the menu is superimposed is projected from the projection unit 100.

メニュー表示結果の例を図6に示す。図6(a)はユーザの手が投影画像601上に挿入されておらず、投影画像が記憶媒体102から読み出された画像だけで構成されている状態を示す。図6(b)はユーザの手が投影画像601上に一定時間挿入され、投影画像601には、投影画像のサイズに応じた表示位置にメニュー602が重畳されている状態を示す。   An example of the menu display result is shown in FIG. FIG. 6A shows a state in which the user's hand is not inserted on the projected image 601 and the projected image is composed only of images read from the storage medium 102. FIG. 6B shows a state in which the user's hand is inserted on the projection image 601 for a certain period of time, and a menu 602 is superimposed on the projection image 601 at a display position corresponding to the size of the projection image.

ユーザ操作検出部106は、手領域検出部105からの手領域に関する情報に基づいてユーザの指示動作を検出し、検出した指示動作の情報をシステム制御部103へ出力する。ユーザの指示動作とは例えば図6(c)に示すようなユーザの手による指差し動作である。指差し動作は、例えば指先位置情報の数が1つであることや、手領域の形状の特徴などに基づいて検出することができる。ユーザ操作検出部106はユーザの指差し動作を検出すると、指先位置情報をシステム制御部103へ出力する。   The user operation detection unit 106 detects a user instruction operation based on the hand region information from the hand region detection unit 105, and outputs the detected instruction operation information to the system control unit 103. The user instruction operation is, for example, a pointing operation by the user's hand as shown in FIG. The pointing operation can be detected based on, for example, that the number of fingertip position information is one or the characteristics of the shape of the hand region. When the user operation detection unit 106 detects the pointing operation of the user, the user operation detection unit 106 outputs fingertip position information to the system control unit 103.

システム制御部103は、表示したメニューの項目に対し、ユーザの指示動作が所定時間以上続いているかを判定する。即ち、図6(c)に示すように、メニュー602に含まれるボタンの領域内に指先位置が所定時間以上存在し続けているか判定する。所定時間以上にわたって指先位置がメニュー項目の領域内に存在し続けていると判定される場合、システム制御部103は、そのメニュー項目をユーザが操作していると判定し、メニュー項目に応じた動作を行う。   The system control unit 103 determines whether the user's instruction operation has continued for a predetermined time or more with respect to the displayed menu item. That is, as shown in FIG. 6C, it is determined whether the fingertip position continues to exist in the button area included in the menu 602 for a predetermined time or more. When it is determined that the fingertip position continues to exist in the menu item area for a predetermined time or longer, the system control unit 103 determines that the user is operating the menu item, and performs an operation corresponding to the menu item. I do.

図6(c)の例は、メニュー602に含まれるボタン603の領域に、指先位置604が所定時間以上存在している状態を示している。この場合、システム制御部103は、ボタン603が操作されたものと判定し、ボタン603に応じた動作を行う。   The example of FIG. 6C shows a state where the fingertip position 604 exists in the area of the button 603 included in the menu 602 for a predetermined time or more. In this case, the system control unit 103 determines that the button 603 has been operated, and performs an operation according to the button 603.

例えば、ボタン603が投影画像を記憶媒体102に記憶された次の画像に切り替えるボタンであるとすると、システム制御部103は、投影画像生成部101を制御して、次の画像を読み出させ、メニュー602を重畳させた表示用画像データを生成させる。この結果、投影画像が例えば図6(d)に示すように切り替わる。   For example, if the button 603 is a button for switching the projection image to the next image stored in the storage medium 102, the system control unit 103 controls the projection image generation unit 101 to read the next image, Display image data on which the menu 602 is superimposed is generated. As a result, the projected image is switched as shown in FIG. 6D, for example.

なお、メニュー項目が操作されたものと判定されたことを、音声等によりユーザに知らせてもよい。それにより、ユーザは、いつまでもメニュー項目を指し続ける必要がなく、使い勝手がよい。   The user may be notified by voice or the like that it is determined that the menu item has been operated. Thereby, the user does not have to keep pointing to the menu item indefinitely, which is easy to use.

また、メニューを表示した後、撮影した画像中に手の画像を一定時間継続して検出しなかった場合、メニューの表示を停止する。   In addition, after the menu is displayed, if the hand image is not continuously detected in the photographed image for a certain period of time, the menu display is stopped.

以上説明したように、本実施形態によれば、投影画像のサイズに応じて操作メニューの表示位置及びサイズの少なくともいずれかを決定することで、投影画像に重畳されたメニューの視認性や操作性を向上することができる。   As described above, according to the present embodiment, the visibility and operability of the menu superimposed on the projected image are determined by determining at least one of the display position and size of the operation menu according to the size of the projected image. Can be improved.

本例では投影画像のサイズは投影部100のズームおよびフォーカス情報から判定したが、本発明はこれに限定するものではない。例えば、投影面との距離が測定可能な測距センサなどの距離検出手段を設け、投影面との距離とズーム情報から投影画像サイズを判定する構成としてもよい。   In this example, the size of the projection image is determined from the zoom and focus information of the projection unit 100, but the present invention is not limited to this. For example, distance detection means such as a distance measuring sensor capable of measuring the distance to the projection plane may be provided, and the projection image size may be determined from the distance to the projection plane and zoom information.

また、上記例では投影画像サイズとして大、中、小の3段階に分けた例について説明したが、これに限定するものではなく、2段階や、4段階以上を判定するように構成してもよい。   In the above example, the example in which the projection image size is divided into three stages of large, medium, and small has been described. However, the present invention is not limited to this, and it may be configured to determine two stages or four or more stages. Good.

[第2の実施形態]
次に、第2の実施形態として、ユーザの手領域のサイズに応じて操作メニューの表示位置及びサイズの少なくともいずれかを決定する装置について説明する。
[Second Embodiment]
Next, as a second embodiment, an apparatus for determining at least one of the display position and size of the operation menu according to the size of the user's hand area will be described.

図7は、第2の実施形態の画像投影装置の概略構成を示すブロック図であり、図1と同じ構成には同一の符号を付して示している。   FIG. 7 is a block diagram illustrating a schematic configuration of the image projection apparatus according to the second embodiment. The same components as those in FIG. 1 are denoted by the same reference numerals.

図7では、図1の構成から投影画像サイズ判定部110が削除され、手のサイズ判定部710が追加されている。また、後述するようにメニュー表示制御部107は、手のサイズ判定部710による判定結果に基づいてメニューの表示位置やサイズを決定する。なお、図7の100〜106の動作については第1の実施形態と同様であるため、ここでの説明は省略する。   In FIG. 7, the projection image size determination unit 110 is deleted from the configuration of FIG. 1, and a hand size determination unit 710 is added. As will be described later, the menu display control unit 107 determines the display position and size of the menu based on the determination result by the hand size determination unit 710. 7 are the same as those in the first embodiment, description thereof is omitted here.

さて、図7において、手のサイズ判定部710は、手領域検出部105により検出された手領域に関する情報を取得し、手領域のサイズを判定する。具体的には、手の重心位置を算出し手の中心位置と指先位置との距離を算出する。図8は手のサイズ判定部における処理を示している。   In FIG. 7, the hand size determination unit 710 obtains information regarding the hand region detected by the hand region detection unit 105 and determines the size of the hand region. Specifically, the center of gravity position of the hand is calculated, and the distance between the center position of the hand and the fingertip position is calculated. FIG. 8 shows processing in the hand size determination unit.

図8において、800は手領域、801は手の重心位置、802は手の重心位置801から最も遠い距離にある指先位置である。手のサイズ判定部710は手の重心位置801と指先位置802との距離を算出する。そして、算出した距離と予め決められた閾値とを比較して手領域のサイズを大、中、小のいずれかと判定する。具体的には、算出した距離が長いほど手領域のサイズが大きいと判定し、距離が短いほど手領域のサイズが小さいと判定する。   In FIG. 8, reference numeral 800 denotes a hand region, reference numeral 801 denotes a center of gravity position of the hand, and reference numeral 802 denotes a fingertip position that is farthest from the center of gravity position 801 of the hand. The hand size determination unit 710 calculates the distance between the center of gravity position 801 of the hand and the fingertip position 802. Then, the calculated distance is compared with a predetermined threshold value, and the size of the hand region is determined as one of large, medium, and small. Specifically, it is determined that the larger the calculated distance is, the larger the hand region size is, and the shorter the distance is, the smaller the hand region size is determined.

手のサイズ判定部710は、手領域のサイズ情報をメニュー表示制御部107に出力する。   The hand size determination unit 710 outputs the size information of the hand area to the menu display control unit 107.

(メニュー表示制御)
次に、図9のフローを参照して、本実施形態のメニューの表示制御動作について説明する。
(Menu display control)
Next, the menu display control operation of this embodiment will be described with reference to the flow of FIG.

図9は、本実施形態のメニュー表示制御部による動作を示すフローチャートである。   FIG. 9 is a flowchart showing the operation of the menu display control unit of the present embodiment.

図9において、S901では、手領域検出部105による手領域の検出結果に基づいて、手が投影画像中に一定時間以上挿入されているか判定する。ここでの処理は図4のS401と同様である。ここで、手が一定時間以上挿入されている場合は、メニューを表示するためS902へ進み、手が挿入されていない又は手が挿入されてから一定時間経過していない場合は、メニューを表示しないので、本処理を終了する。   In FIG. 9, in S901, based on the detection result of the hand region by the hand region detection unit 105, it is determined whether or not the hand has been inserted into the projection image for a certain time or more. The processing here is the same as S401 in FIG. If the hand has been inserted for a certain time or longer, the process proceeds to S902 to display the menu. If the hand has not been inserted or a certain time has not passed since the hand was inserted, the menu is not displayed. Therefore, this process ends.

S902では、手のサイズ判定部710により判定された手領域のサイズに応じてメニューの表示位置およびサイズを決定する。図10は手領域のサイズとメニューの表示位置およびサイズとの関係を例示している。図10において、(a)は手領域1011のサイズが大のとき、(b)は手領域1012のサイズが中のとき、(c)は手領域のサイズ1013が小のときの各操作メニュー1001〜1003を例示している。   In step S902, the display position and size of the menu are determined according to the size of the hand area determined by the hand size determination unit 710. FIG. 10 illustrates the relationship between the size of the hand area and the display position and size of the menu. 10, (a) shows the operation menu 1001 when the size of the hand region 1011 is large, (b) shows the size of the hand region 1012, and (c) shows each operation menu 1001 when the size of the hand region 1013 is small. -1003.

先に述べたように撮像部104は投影画像のサイズが変化した場合に、投影画像を全て含む領域を撮影するために画角を変更する。そのため、投影画像のサイズが大きくなる程、撮影される手領域のサイズは相対的に小さくなり、投影画像のサイズが小さくなる程、撮影される手領域のサイズは相対的に大きくなる。   As described above, when the size of the projection image changes, the imaging unit 104 changes the angle of view in order to capture an area including the entire projection image. Therefore, the larger the size of the projected image, the smaller the size of the hand region to be shot, and the smaller the size of the projected image, the relatively large size of the hand region to be shot.

ここで、手領域のサイズに応じて操作メニューの表示位置やサイズを決定する理由について説明する。先ず、手領域のサイズに関しては、手領域のサイズが大きい場合、メニューを小さく表示すると手での選択操作が難くなる。そこで、手領域のサイズが大きくなる程、メニューの表示サイズを大きくしてユーザが手で選択しやすくなるように制御する。   Here, the reason for determining the display position and size of the operation menu according to the size of the hand area will be described. First, regarding the size of the hand area, if the size of the hand area is large, the selection operation by hand becomes difficult if the menu is displayed small. Therefore, as the size of the hand area increases, the display size of the menu is increased so that the user can easily select by hand.

また、メニューの表示位置に関しては、手領域のサイズが大きいときには、投影画像が小さい場合であって投影面として机や壁が考えられる。また、投影画像サイズが小さいため、ユーザは投影画像中のどこにでも手を伸ばしてメニューを操作することが可能である。そのため、図10(a)に示すように投影画像の中心部を含む全体を使ってメニューを表示する。   Regarding the display position of the menu, when the size of the hand area is large, the projection image is small, and a desk or a wall can be considered as the projection plane. Further, since the projected image size is small, the user can operate the menu by extending his hand anywhere in the projected image. Therefore, as shown in FIG. 10A, the menu is displayed using the whole including the central portion of the projection image.

一方、手領域のサイズが小さくなった場合は、第1の実施形態における投影画像サイズが大きくなったときに相当すると考えられる。そこで、第1の実施形態の投影画像サイズが大きいときと同様に、図10(c)のように、ユーザの位置に近いと考えられる投影画像の左右の下方にメニューを表示する。図10(b)は図10(a)と(c)の中間状態である。   On the other hand, the case where the size of the hand region is reduced is considered to correspond to the case where the projection image size in the first embodiment is increased. Therefore, as in the case where the projection image size of the first embodiment is large, a menu is displayed below the left and right sides of the projection image considered to be close to the user's position as shown in FIG. FIG.10 (b) is an intermediate state of Fig.10 (a) and (c).

図9に戻り、S903では、メニュー画像を投影画像に重畳して表示するための要求をシステム制御部103へ送出する。また、S902で決定されたメニューの表示位置およびサイズに関する情報もシステム制御部103へ送出する。   Returning to FIG. 9, in S <b> 903, a request for displaying the menu image superimposed on the projection image is sent to the system control unit 103. In addition, information regarding the display position and size of the menu determined in S <b> 902 is also sent to the system control unit 103.

システム制御部103は、メニュー表示制御部107からのメニュー表示要求を受けると、メニューの表示位置およびサイズに関する情報を投影画像生成部101に送出する。投影画像生成部101は、メニュー表示位置およびサイズに関する情報に基づいて、記憶媒体102からの画像上の、メニュー表示位置に対応する位置にメニュー画像を重畳合成して表示用画像データを生成し、投影部100へ出力する。これにより、投影部100からは、メニューが重畳された画像が投影される。   Upon receiving a menu display request from the menu display control unit 107, the system control unit 103 sends information regarding the menu display position and size to the projection image generation unit 101. The projection image generating unit 101 generates display image data by superimposing and synthesizing the menu image at a position corresponding to the menu display position on the image from the storage medium 102 based on the information regarding the menu display position and size. Output to the projection unit 100. As a result, an image on which the menu is superimposed is projected from the projection unit 100.

また、ユーザ操作を監視してメニューの選択操作などを受け付ける。これらの処理は第1の実施形態と同様である。   In addition, it monitors user operations and accepts menu selection operations and the like. These processes are the same as those in the first embodiment.

以上説明したように、本実施形態によれば、ユーザの手領域のサイズに応じて表示位置及びサイズの少なくともいずれかを決定することで、投影画像に重畳されたメニューの視認性や操作性を向上することができる。   As described above, according to the present embodiment, the visibility and operability of the menu superimposed on the projection image are determined by determining at least one of the display position and the size according to the size of the user's hand region. Can be improved.

本例では手領域のサイズは手の重心位置と指先位置との距離から判定したが、本発明はこれに限定するものではない。例えば、手領域の面積から手領域のサイズを判定する構成としてもよい。   In this example, the size of the hand region is determined from the distance between the center of gravity position of the hand and the fingertip position, but the present invention is not limited to this. For example, the size of the hand region may be determined from the area of the hand region.

また、上記例では手領域のサイズとして大、中、小の3段階に分けた例について説明したが、これに限定するものではなく、2段階や、4段階以上を判定するように構成してもよい。   Further, in the above example, the example in which the size of the hand region is divided into three stages of large, medium, and small has been described, but the present invention is not limited to this, and it is configured to determine two stages or four or more stages. Also good.

[他の実施形態]
上述の実施形態ではいずれも、メニューの操作に用いられる操作物体として、手を予め定められた被写体に設定し、撮像画像中で物体検出手段としての手領域検出部105で検出された手領域に関する情報に基づきメニュー表示を行う例に説明した。しかし、例えばユーザが直接手でメニューを操作しない場合であっても、本発明を適用可能である。例えば、ペンや指示棒などを用いてユーザがメニューの操作を行う場合には、手の代わりにペンや指示棒を特定の被写体として検出するように構成すればよい。このように、本発明は本質的に、メニューを操作するために用いられる操作物体とその位置を検出できれば、操作物体の形状や位置の検出方法はどのようなものであっても良い。
[Other Embodiments]
In any of the above-described embodiments, the hand is set as a predetermined subject as an operation object used for the menu operation, and the hand region detected by the hand region detection unit 105 as the object detection unit in the captured image. An example in which menu display is performed based on information has been described. However, the present invention can be applied even when the user does not directly operate the menu with his / her hand. For example, when the user operates the menu using a pen, an indicator, or the like, the pen or the indicator may be detected as a specific subject instead of the hand. As described above, the present invention essentially can be any method for detecting the shape and position of the operation object as long as the operation object used for operating the menu and its position can be detected.

従って、メニューを操作するために用いられる操作物体の検出に、投影画像を含む範囲を撮像した撮像画像を用いることも必須ではなく、他の任意の方法で検出することができる。例えば、ユーザの手に位置センサを取り付け、位置センサが検出する位置及びその変化に基づいて判定しても良い。この場合、撮像部104の代わりに位置センサを用い、手領域検出部105の代わりに位置センサの出力から位置を検出する位置検出部を設ける。   Therefore, it is not essential to use a captured image obtained by capturing a range including a projected image for detection of an operation object used for operating a menu, and it can be detected by any other method. For example, a position sensor may be attached to the user's hand, and determination may be made based on the position detected by the position sensor and its change. In this case, a position sensor is used instead of the imaging unit 104, and a position detection unit that detects a position from the output of the position sensor is provided instead of the hand region detection unit 105.

さらに、上記各実施形態では、撮像部104は赤外線カメラとしたが、可視光領域を撮像するカメラを用いることも可能である。この場合、手領域の検出は撮像画像中の肌色領域などを抜き出すことで可能である。   Furthermore, in each of the embodiments described above, the imaging unit 104 is an infrared camera, but a camera that images a visible light region can also be used. In this case, the hand area can be detected by extracting a skin color area or the like in the captured image.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを格納した記憶媒体(又は記録媒体)をカメラに供給ことによっても達成されることは言うまでもない。この場合、カメラのコンピュータ(又はCPUやMPU)が記憶媒体からプログラムコードを読み出して実行することによって達成される。   It goes without saying that the object of the present invention can also be achieved by supplying a camera with a storage medium (or recording medium) storing software program codes for realizing the functions of the above-described embodiments. In this case, this is achieved by the camera computer (or CPU or MPU) reading the program code from the storage medium and executing it.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したメニューの表示制御プログラムや各種テーブルが格納されることになる。これらのプログラムコードは、例えば、アップデート可能なファームウェアとしても提供可能である。   When the present invention is applied to the above storage medium, the storage medium stores the menu display control program and various tables described above. These program codes can be provided as firmware that can be updated, for example.

本発明に係る第1の実施形態の画像投影装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image projection apparatus according to a first embodiment of the present invention. 図1に示した画像投影装置による画像の投影と撮像の様子を模式的に示す図である。It is a figure which shows typically the mode of the projection and imaging of an image by the image projector shown in FIG. 第1の実施形態の画像投影装置の手領域検出部の動作を説明する図である。It is a figure explaining operation | movement of the hand area | region detection part of the image projector of 1st Embodiment. 第1の実施形態のメニューの表示制御処理を示すフローチャートである。It is a flowchart which shows the display control process of the menu of 1st Embodiment. 投影画像サイズとメニューの表示位置およびサイズとの関係を例示する図である。It is a figure which illustrates the relationship between a projection image size and the display position and size of a menu. 第1の実施形態におけるメニュー表示結果を例示する図である。It is a figure which illustrates the menu display result in a 1st embodiment. 本発明に係る第2の実施形態の画像投影装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image projector of 2nd Embodiment which concerns on this invention. 第2の実施形態の画像投影装置の手のサイズ判定部の動作を説明する図である。It is a figure explaining operation | movement of the size determination part of the hand of the image projector of 2nd Embodiment. 第2の実施形態のメニューの表示制御処理を示すフローチャートである。It is a flowchart which shows the display control process of the menu of 2nd Embodiment. 第2の実施形態におけるメニュー表示結果を例示する図である。It is a figure which illustrates the menu display result in 2nd Embodiment.

符号の説明Explanation of symbols

10 画像投影装置
100 投影部
101 投影画像生成部
102 記憶媒体
103 システム制御部
104 撮像部
105 手領域検出部
106 ユーザ操作検出部
107 メニュー表示制御部
110 投影画像サイズ判定部
710 手のサイズ判定部
DESCRIPTION OF SYMBOLS 10 Image projection apparatus 100 Projection part 101 Projection image generation part 102 Storage medium 103 System control part 104 Imaging part 105 Hand area detection part 106 User operation detection part 107 Menu display control part 110 Projection image size determination part 710 Hand size determination part

Claims (19)

画像とともにユーザインタフェース画像を投影面に投影する投影手段と、
前記投影面上に存在する所定の操作物体に関する情報を検出する物体検出手段と、
前記ユーザインタフェース画像が投影された前記投影面において前記物体検出手段により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出手段と、
前記投影手段により投影される画像のサイズを判定するサイズ判定手段と、
前記サイズ判定手段により判定した投影画像サイズに応じて、前記投影面に投影する前記ユーザインタフェース画像の表示位置及びサイズの少なくともいずれかを決定する決定手段と、
前記決定手段が決定した前記表示位置及びサイズの少なくともいずれかに基づいて前記投影手段を制御し、前記ユーザインタフェース画像を前記画像とともに投影させる制御手段と、を有することを特徴とする画像投影装置。
Projection means for projecting a user interface image together with the image onto a projection plane;
Object detection means for detecting information on a predetermined operation object existing on the projection plane;
Operation detecting means for detecting an operation based on information on the operating object detected by the object detecting means on the projection surface on which the user interface image is projected;
Size determination means for determining the size of the image projected by the projection means;
A determining unit that determines at least one of a display position and a size of the user interface image to be projected onto the projection plane according to the projection image size determined by the size determining unit;
An image projection apparatus comprising: control means for controlling the projection means based on at least one of the display position and size decided by the decision means and projecting the user interface image together with the image.
前記決定手段は、前記投影画像サイズが大きくなるほど、前記インタフェース画像の表示位置を前記投影面の側方および下方に決定することを特徴とする請求項1に記載の画像投影装置。   The image projection apparatus according to claim 1, wherein the determination unit determines the display position of the interface image to the side and below the projection plane as the projection image size increases. 前記決定手段は、前記投影画像サイズが大きくなるほど、前記ユーザインタフェース画像のサイズを小さくすることを特徴とする請求項1又は2に記載の画像投影装置。   The image projection apparatus according to claim 1, wherein the determination unit reduces the size of the user interface image as the projection image size increases. 前記サイズ判定手段は、前記投影手段の光学系のズーム情報およびフォーカス情報の少なくともいずれかに基づいて前記投影画像サイズを判定することを特徴とする請求項1乃至3のいずれか1項に記載の画像投影装置。   4. The size determination unit according to claim 1, wherein the size determination unit determines the projection image size based on at least one of zoom information and focus information of an optical system of the projection unit. Image projection device. 前記投影手段から前記投影面までの距離を検出する距離検出手段を更に有し、
前記サイズ判定手段は、前記投影手段の光学系のズーム情報および前記投影手段から前記投影面までの距離の少なくともいずれかに基づいて前記投影画像サイズを判定することを特徴とする請求項1乃至3のいずれか1項に記載の画像投影装置。
A distance detecting means for detecting a distance from the projection means to the projection surface;
The size determination means determines the projection image size based on at least one of zoom information of an optical system of the projection means and a distance from the projection means to the projection plane. The image projector of any one of these.
前記物体検出手段は、前記投影手段が投影した画像を含む前記投影面を撮像した撮像画像を用いて前記操作物体を検出し、前記操作物体に関する情報を検出することを特徴とする請求項1乃至5のいずれか1項に記載の画像投影装置。   The object detection unit detects the operation object using a captured image obtained by imaging the projection plane including an image projected by the projection unit, and detects information about the operation object. 6. The image projecting device according to any one of 5 above. 前記決定手段は、前記投影面に投影された画像上に前記操作物体が予め定められた時間以上存在すると判定された場合に、前記表示位置およびサイズの決定を行うことを特徴とする請求項6に記載の画像投影装置。   The said determination means determines the said display position and size, when it determines with the said operating object existing on the image projected on the said projection surface more than predetermined time. The image projection apparatus described in 1. 前記操作物体は、人間の手であることを特徴とする請求項1乃至7のいずれか1項に記載の画像投影装置。   The image projecting apparatus according to claim 1, wherein the operation object is a human hand. 画像とともにユーザインタフェース画像を投影面に投影する投影手段と、
前記投影面上に存在する所定の操作物体に関する情報を検出する物体検出手段と、
前記ユーザインタフェース画像が投影された前記投影面において前記物体検出手段により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出手段と、
前記操作物体のサイズを判定するサイズ判定手段と、
前記サイズ判定手段により判定した操作物体のサイズに応じて、前記投影面に投影する前記ユーザインタフェース画像の表示位置及びサイズの少なくともいずれかを決定する決定手段と、
前記決定手段が決定した前記表示位置及びサイズの少なくともいずれかに基づいて前記投影手段を制御し、前記ユーザインタフェース画像を前記画像とともに投影させる制御手段と、を有することを特徴とする画像投影装置。
Projection means for projecting a user interface image together with the image onto a projection plane;
Object detection means for detecting information on a predetermined operation object existing on the projection plane;
Operation detecting means for detecting an operation based on information on the operating object detected by the object detecting means on the projection surface on which the user interface image is projected;
Size determination means for determining the size of the operation object;
A determining unit that determines at least one of a display position and a size of the user interface image to be projected on the projection plane according to the size of the operation object determined by the size determining unit;
An image projection apparatus comprising: control means for controlling the projection means based on at least one of the display position and size decided by the decision means and projecting the user interface image together with the image.
前記決定手段は、前記操作物体のサイズが小さいほど、前記インタフェース画像の表示位置を前記投影面の側方および下方に決定することを特徴とする請求項9に記載の画像投影装置。   The image projection apparatus according to claim 9, wherein the determination unit determines the display position of the interface image to the side and below the projection plane as the size of the operation object is smaller. 前記決定手段は、前記操作物体のサイズが小さいほど、前記ユーザインタフェース画像のサイズを小さくすることを特徴とする請求項9又は10に記載の画像投影装置。   11. The image projection apparatus according to claim 9, wherein the determination unit reduces the size of the user interface image as the size of the operation object is smaller. 前記決定手段は、前記操作物体のサイズとの比が一定となるように前記ユーザインタフェース画像のサイズを決定することを特徴とする請求項9又は10に記載の画像投影装置。   11. The image projection apparatus according to claim 9, wherein the determination unit determines the size of the user interface image so that a ratio with the size of the operation object is constant. 前記物体検出手段は、前記投影手段が投影した画像を含む前記投影面を撮像した撮像画像を用いて前記操作物体を検出し、前記操作物体に関する情報を検出することを特徴とする請求項9乃至12のいずれか1項に記載の画像投影装置。   10. The object detection unit detects the operation object using a captured image obtained by imaging the projection plane including an image projected by the projection unit, and detects information about the operation object. The image projector according to any one of 12. 前記決定手段は、前記投影面に投影された画像上に前記操作物体が予め定められた時間以上存在すると判定された場合に、前記表示位置およびサイズの決定を行うことを特徴とする請求項13に記載の画像投影装置。   The determination unit is configured to determine the display position and size when it is determined that the operation object is present for a predetermined time or longer on the image projected on the projection plane. The image projection apparatus described in 1. 前記操作物体は、人間の手であることを特徴とする請求項9乃至14のいずれか1項に記載の画像投影装置。   The image projection apparatus according to claim 9, wherein the operation object is a human hand. 前記物体検出手段は、前記人間の手の重心位置と指先位置との距離に基づいて前記操作物体のサイズを判定することを特徴とする請求項15に記載の画像投影装置。   The image projection apparatus according to claim 15, wherein the object detection unit determines the size of the operation object based on a distance between a gravity center position of the human hand and a fingertip position. 前記物体検出手段は、前記人間の手の面積に基づいて前記操作物体のサイズを判定することを特徴とする請求項15に記載の画像投影装置。   The image projection apparatus according to claim 15, wherein the object detection unit determines a size of the operation object based on an area of the human hand. 投影手段により画像とともにユーザインタフェース画像を投影面に投影する投影工程と、
前記投影面上に存在する所定の操作物体に関する情報を検出する物体検出工程と、
前記ユーザインタフェース画像が投影された前記投影面において前記物体検出工程により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出工程と、
前記投影工程により投影される画像のサイズを判定するサイズ判定工程と、
前記サイズ判定工程により判定した投影画像サイズに応じて、前記投影面に投影する前記ユーザインタフェース画像の表示位置及びサイズの少なくともいずれかを決定する決定工程と、
前記決定工程が決定した前記表示位置及びサイズの少なくともいずれかに基づいて前記投影手段を制御し、前記ユーザインタフェース画像を前記画像とともに投影させる制御工程と、を有することを特徴とする画像投影装置の制御方法。
A projecting step of projecting the user interface image together with the image onto the projection surface by the projecting means;
An object detection step of detecting information on a predetermined operation object existing on the projection plane;
An operation detection step of detecting an operation based on information on the operation object detected by the object detection step on the projection surface on which the user interface image is projected;
A size determination step of determining the size of the image projected by the projection step;
A determination step of determining at least one of a display position and a size of the user interface image to be projected on the projection plane according to the projection image size determined by the size determination step;
And a control step of controlling the projection unit based on at least one of the display position and size determined by the determination step and projecting the user interface image together with the image. Control method.
投影手段により画像とともにユーザインタフェース画像を投影面に投影する投影工程と、
前記投影面上に存在する所定の操作物体に関する情報を検出する物体検出工程と、
前記ユーザインタフェース画像が投影された前記投影面において前記物体検出工程により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出工程と、
前記操作物体のサイズを判定するサイズ判定工程と、
前記サイズ判定工程により判定した操作物体のサイズに応じて、前記投影面に投影する前記ユーザインタフェース画像の表示位置及びサイズの少なくともいずれかを決定する決定工程と、
前記決定工程が決定した前記表示位置及びサイズの少なくともいずれかに基づいて前記投影手段を制御し、前記ユーザインタフェース画像を前記画像とともに投影させる制御工程と、を有することを特徴とする画像投影装置の制御方法。
A projecting step of projecting the user interface image together with the image onto the projection surface by the projecting means;
An object detection step of detecting information on a predetermined operation object existing on the projection plane;
An operation detection step of detecting an operation based on information on the operation object detected by the object detection step on the projection surface on which the user interface image is projected;
A size determination step of determining a size of the operation object;
A determination step of determining at least one of a display position and a size of the user interface image to be projected onto the projection plane according to the size of the operation object determined by the size determination step;
And a control step of controlling the projection unit based on at least one of the display position and size determined by the determination step and projecting the user interface image together with the image. Control method.
JP2008149759A 2008-06-06 2008-06-06 Image projection apparatus and control method thereof Active JP5258399B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008149759A JP5258399B2 (en) 2008-06-06 2008-06-06 Image projection apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008149759A JP5258399B2 (en) 2008-06-06 2008-06-06 Image projection apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2009295031A true JP2009295031A (en) 2009-12-17
JP2009295031A5 JP2009295031A5 (en) 2011-07-21
JP5258399B2 JP5258399B2 (en) 2013-08-07

Family

ID=41543139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008149759A Active JP5258399B2 (en) 2008-06-06 2008-06-06 Image projection apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5258399B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011239291A (en) * 2010-05-12 2011-11-24 Seiko Epson Corp Projector and control method
JP2012104096A (en) * 2010-10-14 2012-05-31 Nikon Corp Projector
JP2013190925A (en) * 2012-03-13 2013-09-26 Nikon Corp Input device, and display device
JP2014178790A (en) * 2013-03-14 2014-09-25 Ricoh Co Ltd Projection system, projection device, projection program, and projection method
JP2014178791A (en) * 2013-03-14 2014-09-25 Ricoh Co Ltd Projector, projection system, image generation program, and image generation method
JP2014531787A (en) * 2011-08-19 2014-11-27 クアルコム,インコーポレイテッド Dynamic selection of surfaces in the real world to project information onto
JP2015132865A (en) * 2013-11-11 2015-07-23 株式会社時空メディアSigongmedia Co., Ltd User adaptive interface provision system and method
US9417712B2 (en) 2012-05-18 2016-08-16 Ricoh Company, Ltd. Image processing apparatus, computer-readable recording medium, and image processing method
JP2017072795A (en) * 2015-10-09 2017-04-13 セイコーエプソン株式会社 Projector and control method therefor
JP2019517072A (en) * 2016-05-20 2019-06-20 マジック リープ, インコーポレイテッドMagic Leap,Inc. Context Awareness of User Interface Menus
JP2020035176A (en) * 2018-08-30 2020-03-05 キヤノン株式会社 Projection apparatus, control method of projection apparatus, program, and storage medium
CN111093066A (en) * 2019-12-03 2020-05-01 耀灵人工智能(浙江)有限公司 Dynamic plane projection method and system
JP2022029506A (en) * 2020-08-05 2022-02-18 株式会社ギヤマン Human body part detection device and three-dimensional input device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09512656A (en) * 1994-06-15 1997-12-16 テグリティ・インコーポレイテッド Interactive video display system
JPH1139094A (en) * 1997-07-23 1999-02-12 Sony Corp Electronic conference system
JPH1142366A (en) * 1997-07-25 1999-02-16 Sony Corp Game machine
JP2001331248A (en) * 1996-02-08 2001-11-30 Matsushita Electric Ind Co Ltd Data processor for simplifying data selection or data processing and data processing method
JP2001352527A (en) * 1996-02-08 2001-12-21 Matsushita Electric Ind Co Ltd Data processing unit for facilitating data selection and/ or data processing, and data processing method
JP2005128279A (en) * 2003-10-24 2005-05-19 Matsushita Electric Ind Co Ltd Remote operation system
JP2005216061A (en) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc Image processor, image processing method, recording medium, computer program and semiconductor device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09512656A (en) * 1994-06-15 1997-12-16 テグリティ・インコーポレイテッド Interactive video display system
JP2001331248A (en) * 1996-02-08 2001-11-30 Matsushita Electric Ind Co Ltd Data processor for simplifying data selection or data processing and data processing method
JP2001352527A (en) * 1996-02-08 2001-12-21 Matsushita Electric Ind Co Ltd Data processing unit for facilitating data selection and/ or data processing, and data processing method
JPH1139094A (en) * 1997-07-23 1999-02-12 Sony Corp Electronic conference system
JPH1142366A (en) * 1997-07-25 1999-02-16 Sony Corp Game machine
JP2005128279A (en) * 2003-10-24 2005-05-19 Matsushita Electric Ind Co Ltd Remote operation system
JP2005216061A (en) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc Image processor, image processing method, recording medium, computer program and semiconductor device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011239291A (en) * 2010-05-12 2011-11-24 Seiko Epson Corp Projector and control method
JP2012104096A (en) * 2010-10-14 2012-05-31 Nikon Corp Projector
US9245193B2 (en) 2011-08-19 2016-01-26 Qualcomm Incorporated Dynamic selection of surfaces in real world for projection of information thereon
JP2014531787A (en) * 2011-08-19 2014-11-27 クアルコム,インコーポレイテッド Dynamic selection of surfaces in the real world to project information onto
JP2013190925A (en) * 2012-03-13 2013-09-26 Nikon Corp Input device, and display device
US9417712B2 (en) 2012-05-18 2016-08-16 Ricoh Company, Ltd. Image processing apparatus, computer-readable recording medium, and image processing method
JP2014178791A (en) * 2013-03-14 2014-09-25 Ricoh Co Ltd Projector, projection system, image generation program, and image generation method
JP2014178790A (en) * 2013-03-14 2014-09-25 Ricoh Co Ltd Projection system, projection device, projection program, and projection method
JP2015132865A (en) * 2013-11-11 2015-07-23 株式会社時空メディアSigongmedia Co., Ltd User adaptive interface provision system and method
JP2017072795A (en) * 2015-10-09 2017-04-13 セイコーエプソン株式会社 Projector and control method therefor
JP2019517072A (en) * 2016-05-20 2019-06-20 マジック リープ, インコーポレイテッドMagic Leap,Inc. Context Awareness of User Interface Menus
US11328484B2 (en) 2016-05-20 2022-05-10 Magic Leap, Inc. Contextual awareness of user interface menus
JP2020035176A (en) * 2018-08-30 2020-03-05 キヤノン株式会社 Projection apparatus, control method of projection apparatus, program, and storage medium
JP7195816B2 (en) 2018-08-30 2022-12-26 キヤノン株式会社 PROJECTION DEVICE, PROJECTION DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
CN111093066A (en) * 2019-12-03 2020-05-01 耀灵人工智能(浙江)有限公司 Dynamic plane projection method and system
JP2022029506A (en) * 2020-08-05 2022-02-18 株式会社ギヤマン Human body part detection device and three-dimensional input device

Also Published As

Publication number Publication date
JP5258399B2 (en) 2013-08-07

Similar Documents

Publication Publication Date Title
JP5258399B2 (en) Image projection apparatus and control method thereof
JP4991458B2 (en) Image display apparatus and control method thereof
US8350896B2 (en) Terminal apparatus, display control method, and display control program
JP4707034B2 (en) Image processing method and input interface device
JP2010086336A (en) Image control apparatus, image control program, and image control method
JP2011188061A (en) Image processor, image processing method, and program
JP6079695B2 (en) Image display photographing system, photographing device, display device, image display and photographing method, and computer program
KR101514170B1 (en) Input device, input method and recording medium
JP2011043876A (en) Image display device
JP2009199049A (en) Imaging apparatus and imaging apparatus control method, and computer program
JP2012185630A (en) Projection device
JP5817149B2 (en) Projection device
JP5885395B2 (en) Image capturing apparatus and image data recording method
JP2011095985A (en) Image display apparatus
JP5888986B2 (en) Image processing apparatus and control method thereof
JP2011095984A (en) Image display apparatus
JP2011186547A (en) Display control apparatus, control method of the same, program and storage medium
JP6693071B2 (en) Imaging device, imaging control method, and program
JP5229928B1 (en) Gaze position specifying device and gaze position specifying program
JP2011227828A (en) Information processor, information processing method and information processing program
JP5222646B2 (en) Terminal device, display control method, and display control program
JP2011100396A (en) Video display device
JP6932907B2 (en) Information processing equipment, information processing system, information processing method and program
JP5605459B2 (en) Image processing apparatus, image processing program, and image processing method
KR20150005368A (en) Camera module and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130423

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5258399

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151