JP2010034820A - Projector, control method of projector, and control program - Google Patents

Projector, control method of projector, and control program Download PDF

Info

Publication number
JP2010034820A
JP2010034820A JP2008194502A JP2008194502A JP2010034820A JP 2010034820 A JP2010034820 A JP 2010034820A JP 2008194502 A JP2008194502 A JP 2008194502A JP 2008194502 A JP2008194502 A JP 2008194502A JP 2010034820 A JP2010034820 A JP 2010034820A
Authority
JP
Japan
Prior art keywords
image
projection
unit
region
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008194502A
Other languages
Japanese (ja)
Inventor
Hirotake Kitajima
弘武 北島
Shingo Yudasaka
新吾 湯田坂
Nobuyuki Kito
伸幸 鬼頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008194502A priority Critical patent/JP2010034820A/en
Publication of JP2010034820A publication Critical patent/JP2010034820A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a projector which prevents the obstruction of concentration of a viewer. <P>SOLUTION: The projector includes: a projection part 13 for projecting a projection object image as a projection image; a photographing part 14 for photographing an area including at least a part of the projection image and generating a photographed image; a face area detection part 30 for detecting the face area of a figure included in the photographed image generated by the photographing part 14; and a face area processing image generation part 31 for specifying an area corresponding to the face area in the projection object image on the basis of the face area detected by the face area detection part 30, replacing the inside of the specified area with a prescribed color and generating a face area processing image. The projection part 13 projects the face area processing image generated by the face area processing image generation part 31 as the projection image instead of the projection object image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像を投影するプロジェクタ、このプロジェクタの制御方法、及び、制御プログラムに関する。   The present invention relates to a projector that projects an image, a control method for the projector, and a control program.

従来、スクリーンに画像を投影するプロジェクタが知られている(例えば、特許文献1参照)。この種のプロジェクタを利用してプレゼンテーションを行う場合、プレゼンタは、スクリーンの近傍に立ち、スクリーンに投影された画像に含まれる各種情報を指し示しながらプレゼンテーションを行うことがある。
特開2002−6397号公報
Conventionally, a projector that projects an image on a screen is known (for example, see Patent Document 1). When a presentation is performed using this type of projector, the presenter may make a presentation while standing in the vicinity of the screen and pointing to various types of information included in the image projected on the screen.
JP 2002-6397 A

しかしながら、上述したプロジェクタでは、プレゼンテーションの過程でプロジェクタとスクリーンとの間にプレゼンタが介在してしまい、プレゼンタの顔に画像が投影されることがある。この場合、スピーチによる口の動きや、スクリーンの確認のための首の動き等、プレゼンテーションに伴う動きが比較的多い箇所であるプレゼンタの顔に、画像に含まれる各種情報が写ってしまうことがあり、このような場合には、視聴者のプレゼンテーション内容への集中を妨げてしまうことがある。
本発明は、上述した事情に鑑みてなされたものであり、視聴者のプレゼンテーション内容への集中を妨げることのないプロジェクタを提供することを目的とする。
However, in the projector described above, a presenter may be interposed between the projector and the screen during the presentation process, and an image may be projected onto the face of the presenter. In this case, various information contained in the image may be reflected on the face of the presenter, which is a place where there are relatively many movements accompanying the presentation, such as mouth movement due to speech and neck movement for screen confirmation. In such a case, the viewer's concentration on the presentation content may be hindered.
The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a projector that does not hinder the concentration of viewers on presentation contents.

上記目的を達成するために、本発明は、プロジェクタにおいて、投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、前記撮影部が生成した前記撮影画像に含まれる人物の顔領域を検出する顔領域検出部と、前記顔領域検出部によって検出された前記顔領域に基づいて、前記投影対象画像における前記顔領域に対応する領域を特定すると共に、この特定した領域内を所定の色に置換して顔領域加工画像を生成する顔領域加工画像生成部と、を備え、前記投影部は、前記投影対象画像に代えて、前記顔領域加工画像生成部によって生成された前記顔領域加工画像を前記投影画像として投影すること、を特徴とする。
この構成によれば、投影部は、投影対象画像に代えて、顔領域加工画像生成部によって生成された顔領域加工画像を投影画像として投影する。そして、顔領域加工画像は、人物の顔に該当する部分を所定の色で置換した画像である。このため、顔領域加工画像を投影部が投影した場合、人物の顔に相当する部分に、各種情報に代えて、所定の色が投影された状態となる。この場合、スピーチによる口の動きや、スクリーンの確認のための首の動き等、比較的動きが多い箇所である人物の顔に、各種情報が表示されることを防止でき、視聴者のプレゼンテーション内容への集中が妨げられない。
In order to achieve the above object, the present invention provides a projector for projecting a projection target image as a projection image and a photographing unit for photographing a region including at least a part of the projection image to generate a photographed image. A face area detection unit for detecting a face area of a person included in the captured image generated by the imaging unit, and the face in the projection target image based on the face area detected by the face area detection unit. A face region processed image generation unit that specifies a region corresponding to the region and generates a face region processed image by replacing the specified region with a predetermined color, and the projection unit includes the projection target image. Instead, the face region processed image generated by the face region processed image generation unit is projected as the projection image.
According to this configuration, the projection unit projects the face region processed image generated by the face region processed image generation unit as a projection image instead of the projection target image. The face region processed image is an image obtained by replacing a portion corresponding to a human face with a predetermined color. For this reason, when a projection part projects a face area processed image, it will be in the state by which the predetermined color was projected instead of various information on the part corresponded to a person's face. In this case, it is possible to prevent various information from being displayed on the face of a person who is relatively moving, such as mouth movement due to speech and neck movement for screen confirmation. Concentration on is not hindered.

ここで、上記発明のプロジェクタにおいて、前記顔領域検出部は、前記投影対象画像と、この投影対象画像に対応する撮影画像との比較結果に基づいて、前記顔領域を検出するようにしてもよい。
この構成によれば、顔領域検出部は、撮影画像から顔領域を検出する際、投影対象画像と撮影画像とを比較し、この比較結果に基づいて顔領域を検出すべき範囲を絞り込んでから顔領域を実行するため、撮影画像データ全体から顔領域を検出する場合と比較して、効率的かつ高精度な顔領域検出が可能となる。
Here, in the projector according to the invention described above, the face area detection unit may detect the face area based on a comparison result between the projection target image and a captured image corresponding to the projection target image. .
According to this configuration, when detecting the face area from the photographed image, the face area detecting unit compares the projection target image with the photographed image, and narrows down the range in which the face area should be detected based on the comparison result. Since the face area is executed, it is possible to detect the face area more efficiently and accurately than in the case where the face area is detected from the entire captured image data.

また、上記発明のプロジェクタにおいて、前記所定の色は、第1の基準明度よりも明度を落とした色であるようにしてもよい。
ここで、第1の基準明度とは、この第1の基準明度を有する色からなる画像をプロジェクタ1によって人物の顔に対して投影した場合において、この人物が眩しさを感じないような明度のことである。所定の色を、第1の基準明度よりも明度を落とした色とすることによって、人物の顔に各種情報が表示されることを防止できるという効果のほか、以下の効果を奏することができる。すなわち、顔領域加工画像を投影部によって投影した場合、人物の顔に相当する部分に、第1の基準明度よりも明度を落とした色が投影された状態となる。従って、人物が眩しさを感じることがなく、人物が自然な表情でプレゼンテーションを行うことができるようになると共に、人物の目を傷めるリスクを低減することができる。
In the projector according to the aspect of the invention, the predetermined color may be a color whose brightness is lower than the first reference brightness.
Here, the first reference brightness is such a brightness that the person does not feel dazzling when the projector 1 projects an image composed of a color having the first reference brightness onto the face of the person. That is. In addition to the effect that various kinds of information can be prevented from being displayed on the face of a person by setting the predetermined color to a color whose brightness is lower than the first reference brightness, the following effects can be obtained. That is, when the face region processed image is projected by the projection unit, a color having a lightness lower than the first reference lightness is projected onto a portion corresponding to a human face. Therefore, the person can feel the dazzle and the person can make a presentation with a natural expression, and the risk of damaging the eyes of the person can be reduced.

また、上記発明のプロジェクタにおいて、前記所定の色は、第2の基準明度よりも明度を上げた色であるようにしてもよい。
ここで、第2の基準明度とは、この第2の基準明度を有する色からなる画像を投影部によって人物の顔に対して投影した場合、この人物の顔の表情を、プレゼンテーションの視聴者が視認できるような明度のことである。所定の色を、第2の基準明度よりも明度を上げた色とすることによって、人物の顔に各種情報が表示されることを防止できるという効果のほか、以下の効果を奏することができる。すなわち、顔領域加工画像をプロジェクタによって投影した場合、人物の顔に相当する部分に、第2の基準明度よりも明度を上げた色が投影された状態となるため、人物の表情を、プレゼンテーションの視聴者が視認することができる。従って、視聴者は、人物の表情を視認することによって、例えば、人物が重要なことを話していることを認識したり、現在人物が各種情報のどの部分を見ているかを認識したりすることができ、プレゼンテーションをより深く理解することができるようになる。
In the projector according to the aspect of the invention, the predetermined color may be a color whose brightness is higher than the second reference brightness.
Here, the second reference brightness means that when an image having a color having the second reference brightness is projected onto a person's face by the projection unit, the facial expression of the person is expressed by the viewer of the presentation. Lightness that can be visually recognized. In addition to the effect that various kinds of information can be prevented from being displayed on the face of a person by setting the predetermined color to a color whose brightness is higher than the second reference brightness, the following effects can be achieved. That is, when a face region processed image is projected by a projector, a color having a lightness higher than the second reference lightness is projected on the portion corresponding to the human face, so that the facial expression of the person The viewer can view it. Therefore, the viewer can recognize the person's facial expression, for example, to recognize that the person is talking about something important, or to recognize which part of the various information the person is currently viewing. And be able to understand the presentation more deeply.

また、上記発明のプロジェクタにおいて、前記顔領域検出部が検出した前記顔領域に基づいて、前記撮影部が生成した前記撮影画像に含まれる前記人物の腕領域を検出する腕領域検出部と、前記腕領域検出部によって検出された前記腕領域に基づいて、前記顔領域加工画像における前記腕領域に対応する箇所を特定すると共に、この特定した箇所にポイントを付加したポイント付加画像を生成するポイント付加画像生成部と、をさらに備え、前記投影部は、前記投影対象画像に代えて、前記ポイント付加画像生成部によって生成された前記ポイント付加画像を前記投影画像として投影するようにしてもよい。
この構成によれば、ポイント付加画像生成部が生成したポイント付加画像を投影部によって投影した場合、人物が指し示す箇所に、自動で、ポイントが表示された状態となる。従って、人物が、指示棒やレーザポインタ等の特別な部材、機器を保持する必要がなく、人物の利便性を向上することができる。
Further, in the projector according to the invention described above, based on the face area detected by the face area detection unit, an arm area detection unit that detects an arm area of the person included in the captured image generated by the imaging unit; Based on the arm area detected by the arm area detection unit, a point corresponding to the arm area in the face area processed image is specified, and a point addition image is generated by adding a point to the specified position An image generation unit, and the projection unit may project the point addition image generated by the point addition image generation unit as the projection image instead of the projection target image.
According to this configuration, when the point addition image generated by the point addition image generation unit is projected by the projection unit, the point is automatically displayed at the location indicated by the person. Therefore, it is not necessary for the person to hold a special member or device such as a pointer or a laser pointer, and the convenience of the person can be improved.

また、上記目的を達成するために、本発明は、投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、を備えるプロジェクタの制御方法であって、前記撮影部が生成した前記撮影画像に含まれる人物の顔領域を検出し、前記顔領域検出部によって検出された前記顔領域に基づいて、前記投影対象画像における前記顔領域に対応する領域を特定すると共に、この特定した領域内を所定の色に置換して顔領域加工画像を生成し、前記投影部は、前記投影対象画像に代えて、前記顔領域加工画像生成部によって生成された前記顔領域加工画像を前記投影画像として投影すること、を特徴とする。   In order to achieve the above object, the present invention provides a projection unit that projects a projection target image as a projection image, a photographing unit that photographs a region including at least a part of the projection image, and generates a photographed image. A method of controlling a projector comprising: a face area of a person included in the captured image generated by the imaging unit; and the projection target based on the face area detected by the face area detection unit An area corresponding to the face area in the image is specified, and the inside of the specified area is replaced with a predetermined color to generate a face area processed image, and the projection unit replaces the projection target image with the face The face region processed image generated by the region processed image generation unit is projected as the projection image.

また、上記目的を達成するために、本発明は、投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、を備えるプロジェクタをコンピュータにより制御するための制御プログラムであって、コンピュータを、前記撮影部が生成した前記撮影画像に含まれる人物の顔領域を検出する顔領域検出手段、前記顔領域検出手段によって検出された前記顔領域に基づいて、前記投影対象画像における前記顔領域に対応する領域を特定すると共に、この特定した領域内を所定の色に置換して顔領域加工画像を生成する顔領域加工画像生成手段、前記投影対象画像に代えて、前記顔領域加工画像生成部によって生成された前記顔領域加工画像を前記投影画像として前記投影部によって投影する投影手段、として機能させるための制御プログラムを提供する。   In order to achieve the above object, the present invention provides a projection unit that projects a projection target image as a projection image, a photographing unit that photographs a region including at least a part of the projection image, and generates a photographed image. , A control program for controlling the projector by a computer, wherein the computer detects a face area of a person included in the captured image generated by the imaging unit, and the face area detection unit Based on the detected face region, a region corresponding to the face region in the projection target image is specified, and a face region processed image is generated by replacing the specified region with a predetermined color. In place of the image generation means and the projection target image, the projection unit uses the face region processed image generated by the face region processed image generation unit as the projection image. Thus to provide a control program for functioning a projection means for projecting a.

また、上記目的を達成するために、本発明のプロジェクタは、投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、前記投影対象画像と前記撮影画像とを比較し、画像が異なる領域を検出する領域検出部と、前記領域検出部によって検出された領域内の少なくとも一部を所定の色に置換して領域加工画像を生成する領域加工画像生成部と、を備え、前記投影部は、前記領域加工画像生成部によって生成された前記領域加工画像を前記投影画像として投影すること、を特徴とする。
この構成によれば、人物や物が投影画像にオーバーラップしたとき、その部分を所定の色にして目立たなくすることができ、黒色系の色にすれば人物の目に入る光のまぶしさを軽減できる。
In order to achieve the above object, a projector according to the present invention captures a projection unit that projects a projection target image as a projection image, and captures an area including at least a part of the projection image to generate a captured image. Comparing the projection target image with the captured image, detecting a region where the images are different, and replacing at least a part of the region detected by the region detection unit with a predetermined color A region-processed image generation unit that generates a region-processed image, and the projection unit projects the region-processed image generated by the region-processed image generation unit as the projection image.
According to this configuration, when a person or object overlaps the projected image, the portion can be made inconspicuous by making it a predetermined color, and if it is made a black color, the glare of light entering the person's eyes can be reduced. Can be reduced.

また、上記目的を達成するために、本発明のプロジェクタは、投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、前記投影対象画像と前記撮影画像とを比較し、画像が異なる領域を検出する領域検出部と、前記領域検出部によって検出された領域内の少なくとも一部を所定の画像に置換して領域加工画像を生成する領域加工画像生成部と、を備え、前記投影部は、前記領域加工画像生成部によって生成された前記領域加工画像を前記投影画像として投影すること、を特徴とする。
この構成によれば、人物や物が投影画像にオーバーラップしたとき、その部分を所定の画像にして目立たなくすることができる。
In order to achieve the above object, a projector according to the present invention captures a projection unit that projects a projection target image as a projection image, and captures an area including at least a part of the projection image to generate a captured image. Comparing the projection target image with the captured image, detecting a region where the images are different, and replacing at least a part of the region detected by the region detection unit with a predetermined image A region-processed image generation unit that generates a region-processed image, and the projection unit projects the region-processed image generated by the region-processed image generation unit as the projection image.
According to this configuration, when a person or an object overlaps with a projection image, the portion can be made a predetermined image so as to be inconspicuous.

また、上記目的を達成するために、本発明のプロジェクタは、投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、前記投影対象画像と前記撮影画像とを比較し、画像が異なる領域を検出する領域検出部と、前記領域検出部によって検出された領域から所定距離離れた位置にある所定の領域を所定の画像に置換した領域加工画像を生成する領域加工画像生成部と、を備え、前記投影部は、前記領域加工画像生成部によって生成された前記領域加工画像を前記投影画像として投影すること、を特徴とする。
この構成によれば、人物や物が投影画像にオーバーラップしたとき、そこから所定距離離れた部分を所定の画像で指し示すことができる。
In order to achieve the above object, a projector according to the present invention captures a projection unit that projects a projection target image as a projection image, and captures an area including at least a part of the projection image to generate a captured image. A region detection unit that compares the projection target image with the captured image, detects a region in which the image is different, and a predetermined region at a predetermined distance from the region detected by the region detection unit A region processed image generation unit that generates a region processed image replaced with the image of the image, and the projection unit projects the region processed image generated by the region processed image generation unit as the projection image. Features.
According to this configuration, when a person or an object overlaps with the projection image, a portion away from the projection image by a predetermined distance can be indicated by the predetermined image.

本発明によれば、プレゼンタによって人物の顔に対応する部分が所定の色で置換された画像が投影されるため、人物の顔に画像に係る情報が投影されることを防止でき、視聴者のプレゼンテーション内容への集中が妨げられることを防止できる。   According to the present invention, an image in which a portion corresponding to a person's face is replaced with a predetermined color by a presenter is projected, so that information relating to the image can be prevented from being projected onto the person's face, and the viewer's It is possible to prevent the concentration on the presentation contents from being hindered.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用した実施形態に係るプロジェクタ1の使用状態の例を示す図である。
プロジェクタ1は、投影レンズ部16から光を発することにより、投影レンズ部16から離れて設置されたスクリーン2に、投影画像2aを投影する装置である。図1に示すように、スクリーン2に投影される投影画像2aには、情報画像2bが含まれている。情報画像2bとは、投影画像2aに含まれる画像のうち、背景以外の、文字、写真、絵、図形、表、グラフ、記号等の各種情報に係る画像のことである。
このプロジェクタ1は、例えば、プレゼンタ3によるプレゼンテーションに利用される。プレゼンタ3は、適宜、スクリーン2に投影された情報画像2bを指し示しながらプレゼンテーションを行うことにより、効果的で、分かりやすいプレゼンテーションを行うことができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an example of a usage state of a projector 1 according to an embodiment to which the present invention is applied.
The projector 1 is a device that projects a projection image 2 a onto a screen 2 that is set apart from the projection lens unit 16 by emitting light from the projection lens unit 16. As shown in FIG. 1, the projection image 2a projected on the screen 2 includes an information image 2b. The information image 2b is an image related to various information such as characters, photographs, pictures, figures, tables, graphs, symbols, etc., other than the background, among the images included in the projection image 2a.
The projector 1 is used for a presentation by a presenter 3, for example. The presenter 3 can make an effective and easy-to-understand presentation by appropriately giving a presentation while pointing to the information image 2b projected on the screen 2.

図2はプロジェクタ1の機能的構成を示すブロック図である。
図2に示すように、プロジェクタ1は、記録媒体読取装置11と、操作部12と、投影部13と、撮影部14と、制御部20と、を備えている。
記録媒体読取装置11は、次世代DVD、DVD或いはCD等の光学的記録媒体、半導体記憶素子を用いたメモリデバイス、磁気的記録媒体等の記録媒体に記録された投影対象画像データTD等の各種データを読み出して制御部20に出力するものであり、具体的には、DVDプレーヤやメモリカードリーダ等である。投影対象画像データTDとは、プロジェクタ1によって投影される投影画像2aの基となる画像データのことである。制御部20は、記録媒体読取装置11から入力された投影対象画像データTDを記憶部22に記憶する。
操作部12は、プロジェクタ1の電源のON/OFFを切り替える電源スイッチや、投影開始/終了を指示するスイッチ、投影画像2aの明るさ調整用のスイッチ等の各種スイッチ類を備え、これらスイッチの操作に応じて操作信号を制御部20に出力する。また、操作部12は、上記の各種スイッチを備えた図示しないリモートコントローラを有するものとしてもよい。
投影部13は、高圧水銀ランプ等の光源ランプを備えた光源(図示略)、透過型の液晶表示パネルからなる液晶ライトバルブ(図示略)、投射レンズ等を備えた投射光学系(図示略)等を備えて構成され、制御部20の制御に従って光学像を形成し、投影レンズ部16(図1)からスクリーン2に投影する。
撮影部14は、制御部20の制御の下、投影画像2aが投影された状態のスクリーン2を撮影するものであり、CCDイメージセンサやCMOSイメージセンサ等の撮像素子(図示略)、撮影レンズ群(図示略)、ズームやフォーカス等の調整を行うためにレンズ群を駆動するレンズ駆動部(図示略)等を備えている。撮影部14は、撮像素子から出力されるデータを所定形式のデータに変換することにより、撮影画像データSDを生成し、生成した撮影画像データSDを制御部20に出力する。制御部20は、入力された撮影画像データSDを後述する記憶部22に随時記憶する。
FIG. 2 is a block diagram showing a functional configuration of the projector 1.
As shown in FIG. 2, the projector 1 includes a recording medium reading device 11, an operation unit 12, a projection unit 13, a photographing unit 14, and a control unit 20.
The recording medium reader 11 includes various types of projection target image data TD recorded on a recording medium such as an optical recording medium such as a next-generation DVD, DVD or CD, a memory device using a semiconductor storage element, and a magnetic recording medium. Data is read out and output to the control unit 20, specifically, a DVD player, a memory card reader, or the like. The projection target image data TD is image data that is the basis of the projection image 2 a projected by the projector 1. The control unit 20 stores the projection target image data TD input from the recording medium reading device 11 in the storage unit 22.
The operation unit 12 includes various switches such as a power switch for switching on / off the power of the projector 1, a switch for instructing start / end of projection, and a switch for adjusting the brightness of the projection image 2a. In response to this, an operation signal is output to the control unit 20. The operation unit 12 may include a remote controller (not shown) provided with the various switches described above.
The projection unit 13 includes a light source (not shown) provided with a light source lamp such as a high-pressure mercury lamp, a liquid crystal light valve (not shown) composed of a transmissive liquid crystal display panel, a projection optical system (not shown) provided with a projection lens and the like. The optical image is formed under the control of the control unit 20 and projected onto the screen 2 from the projection lens unit 16 (FIG. 1).
The imaging unit 14 shoots the screen 2 on which the projection image 2a is projected under the control of the control unit 20, and includes an imaging element (not shown) such as a CCD image sensor or a CMOS image sensor, and a photographic lens group. (Not shown) includes a lens driving unit (not shown) for driving the lens group to adjust zoom and focus. The imaging unit 14 generates captured image data SD by converting data output from the image sensor into data of a predetermined format, and outputs the generated captured image data SD to the control unit 20. The control unit 20 stores the input captured image data SD in the storage unit 22 described later as needed.

制御部20は、プロジェクタ1の各部を中枢的に制御するものであり、演算実行手段としてのCPU(Central Processing Unit)や、このCPUに実行される基本制御プログラムや、この基本制御プログラムに係るデータ等を不揮発的に記憶するROM(Read Only Memory)、CPUに実行されるプログラムやこのプログラムに係るデータ等を一時的に記憶するRAM(Random Access Memory)、その他の周辺回路等を備えている。制御部20は、記録媒体読取装置11から投影対象画像データTDが入力され、また、撮影部14から撮影画像データSDが入力される信号入力部21と、投影対象画像データTDや、撮影画像データSD、後述する顔領域加工画像データKD、ポイント付加画像データPD等の各種画像データを記憶する記憶部22と、この記憶部22に記憶された各種画像データに基づいて描画される画像を記憶するフレームメモリ24と、投影部13により光学像を投影させる液晶パネル駆動制御部25と、顔領域検出部30と、顔領域加工画像生成部31(領域加工画像生成部)と、腕領域検出部32と、ポイント付加画像生成部33(領域加工画像生成部)と、を備えている。   The control unit 20 centrally controls each unit of the projector 1, and includes a CPU (Central Processing Unit) as a calculation execution unit, a basic control program executed by the CPU, and data related to the basic control program. ROM (Read Only Memory) that stores data in a nonvolatile manner, RAM (Random Access Memory) that temporarily stores programs executed by the CPU, data related to the programs, and other peripheral circuits. The control unit 20 receives the projection target image data TD from the recording medium reading device 11 and the signal input unit 21 to which the captured image data SD is input from the imaging unit 14, the projection target image data TD, and the captured image data. A storage unit 22 that stores various image data such as SD, face region processed image data KD, and point-added image data PD, which will be described later, and an image drawn based on the various image data stored in the storage unit 22 are stored. A frame memory 24, a liquid crystal panel drive control unit 25 that projects an optical image by the projection unit 13, a face region detection unit 30, a face region processed image generation unit 31 (region processed image generation unit), and an arm region detection unit 32 And a point addition image generation unit 33 (region processed image generation unit).

制御部20は、記憶部22に記憶された各種画像データに基づいて画像をフレームメモリ24に描画する。続いて、制御部20は、液晶パネル駆動制御部25が備えるパネル駆動部26によって、投影部13の液晶表示パネルを駆動し、フレームメモリ24に描画された画像を液晶表示パネルに表示させる。
また、制御部20の液晶パネル駆動制御部25は、台形歪み補正部27を備えている。制御部20は、台形歪み補正部27の機能により、撮影制御部34を制御して撮影部14により撮影を行わせ、撮影画像データSDに基づいて投影画像2aにおける台形歪みを検出し、この台形歪みを相殺するためのパラメータを算出する。そして、制御部20は、パネル駆動部26によって、投影部13の液晶表示パネルに、算出したパラメータに基づいて歪ませた画像を描画させる処理を行う。
The control unit 20 draws an image in the frame memory 24 based on various image data stored in the storage unit 22. Subsequently, the control unit 20 drives the liquid crystal display panel of the projection unit 13 by the panel drive unit 26 included in the liquid crystal panel drive control unit 25 to display the image drawn in the frame memory 24 on the liquid crystal display panel.
In addition, the liquid crystal panel drive control unit 25 of the control unit 20 includes a trapezoidal distortion correction unit 27. The control unit 20 controls the shooting control unit 34 by the function of the trapezoidal distortion correction unit 27 to cause the shooting unit 14 to perform shooting, detects trapezoidal distortion in the projection image 2a based on the shot image data SD, and detects this trapezoid. A parameter for canceling the distortion is calculated. And the control part 20 performs the process by which the panel drive part 26 makes the liquid crystal display panel of the projection part 13 draw the image distorted based on the calculated parameter.

制御部20の顔領域検出部30は、撮影部14から入力された撮影画像データSDに基づく画像(以下、「撮影画像SG」という)に含まれる人物の顔領域を検出するものである。ここで、撮影画像SGに人物が含まれる場合について説明すると、ある人物がプロジェクタ1とスクリーン2の間に介在した場合、撮影部14によってこの人物が撮影されるため、撮影部14によって生成された撮影画像SGに人物が含まれることとなる。特に、プレゼンタ3(図1)がプレゼンテーションを行っている場合、プレゼンテーションの過程でスクリーン2の前に移動することがあり、この場合、撮影部14によってプレゼンタ3が撮影され、撮影部14によって生成された撮影画像SGにプレゼンタ3が含まれることとなる。
なお、本実施形態では、説明の便宜のため、プレゼンテーションを行っているプレゼンタ3(図1)のみが、プロジェクタ1とスクリーン2との間に介在する可能性があるものとする。
ここで、顔領域検出部30の具体的な動作について説明する。
The face area detection unit 30 of the control unit 20 detects a human face area included in an image (hereinafter referred to as “captured image SG”) based on the captured image data SD input from the imaging unit 14. Here, a case where a person is included in the photographed image SG will be described. When a person is interposed between the projector 1 and the screen 2, the person is photographed by the photographing unit 14. A person is included in the captured image SG. In particular, when the presenter 3 (FIG. 1) is giving a presentation, the presenter 3 may move in front of the screen 2 during the presentation. In this case, the presenter 3 is photographed by the photographing unit 14 and generated by the photographing unit 14. The presenter 3 is included in the captured image SG.
In the present embodiment, for the convenience of explanation, it is assumed that only the presenter 3 (FIG. 1) who is presenting may be interposed between the projector 1 and the screen 2.
Here, a specific operation of the face area detection unit 30 will be described.

図3は、顔領域検出部30の動作を説明するための図であり、(A)は、撮影部14によって生成された撮影画像SGの一例を示し、(B)は、投影対象画像データTDに基づく画像(以下、「投影対象画像TG」という)の一例を示し、(C)は、差分画像BG(後述)の一例を示す。
まず、顔領域検出部30は、スクリーン2に現在投影している投影画像2aに係る投影対象画像データTDを記憶部22から取得する。併せて、顔領域検出部30は、記憶部22に記憶された直近の撮影画像データSDを取得する。ここで取得された撮影画像データSDは、撮影部14によって、取得された投影対象画像データTDに係る投影画像2aが撮影され、生成されたものであり、これら撮影画像データSDと投影対象画像データTDとは、互いに対応したデータである。
次いで、顔領域検出部30は、取得した撮影画像データSDに係る撮影画像SG(図3(A))と、取得した投影対象画像データTDに係る投影対象画像TG(図3(B))と、を比較する。この比較に際し、顔領域検出部30は、図3(A)に示す撮影画像SGにおいて、投影対象画像TGと比較すべき部分を抽出する。具体的には、図3(A)に示すように、撮影画像SGのうち、投影対象画像TGと対応する部分を比較画像HGとして抽出する。さらに、顔領域検出部30は、抽出した比較画像HGに対し、ゆがみ補正、明度、輝度の補正を含む正規化を行い、比較画像HGと投影対象画像TGとの比較が正常に行われるよう調整する。これにより、撮影部14によってプレゼンタ3が撮影されておらず、撮影画像SGにプレゼンタ3が含まれていない場合は、比較画像HGと、投影対象画像TGとの間に差分が検出されないように、または、差分が閾値以下となるように調整される。
3A and 3B are diagrams for explaining the operation of the face area detection unit 30. FIG. 3A illustrates an example of the captured image SG generated by the imaging unit 14, and FIG. 3B illustrates the projection target image data TD. An example of an image based on (hereinafter, referred to as a “projection target image TG”) is shown, and FIG.
First, the face area detection unit 30 acquires projection target image data TD related to the projection image 2 a currently projected on the screen 2 from the storage unit 22. In addition, the face area detection unit 30 acquires the latest captured image data SD stored in the storage unit 22. The captured image data SD acquired here is obtained by capturing and generating the projection image 2a related to the acquired projection target image data TD by the capturing unit 14, and the captured image data SD and the projection target image data are generated. TD is data corresponding to each other.
Next, the face area detection unit 30 includes a captured image SG (FIG. 3A) related to the acquired captured image data SD, and a projection target image TG (FIG. 3B) related to the acquired projection target image data TD. , Compare. In this comparison, the face area detection unit 30 extracts a portion to be compared with the projection target image TG in the captured image SG shown in FIG. Specifically, as shown in FIG. 3A, a portion corresponding to the projection target image TG is extracted as a comparison image HG from the captured image SG. Further, the face area detection unit 30 performs normalization including distortion correction, brightness, and brightness correction on the extracted comparison image HG, and adjusts so that the comparison between the comparison image HG and the projection target image TG is normally performed. To do. Thereby, when the presenter 3 is not photographed by the photographing unit 14 and the presenter 3 is not included in the photographed image SG, the difference is not detected between the comparison image HG and the projection target image TG. Or it adjusts so that a difference may become below a threshold.

撮影画像SGと投影対象画像TGとを比較した後、顔領域検出部30は、比較結果に基づいて、これらデータの差分を検出し、検出した差分に基づいて差分画像BG(図3(C))を生成する。差分画像BGは、プロジェクタ1とスクリーン2との間に人物が介在した場合に、撮影部14がこの人物を撮影することによって生じる画像である。本実施形態では、プロジェクタ1とスクリーン2との間に介在する可能性がある人物はプレゼンタ3のみであるため、ここで生成された差分画像BGは、プレゼンタ3がプロジェクタ1とスクリーン2との間に介在したことに起因して生じたものである。次いで、顔領域検出部30は、差分画像BGからプレゼンタ3の顔領域を検出する。顔領域の検出は、例えば、顔を表すテンプレートを用いたパターンマッチング等の既存の技術を用いることができる。
このように、本実施形態に係る顔領域検出部30は、撮影画像SGからプレゼンタ3の顔領域を検出するに際し、撮影画像SGと投影対象画像TGとの比較結果に基づいて差分画像BGを生成し、この差分画像BGから顔領域を検出する。この差分画像BGは、プレゼンタ3がプロジェクタ1とスクリーン2との間に介在したことに起因して生じた画像である。このため、撮影画像SG全体からパターンマッチング等の手法を用いてプレゼンタ3の顔領域を検出する場合と比較し、顔領域を検出すべき範囲が絞り込まれるため、効率的かつ高精度な顔領域検出が可能となる。
なお、上述した動作において、制御部20は、投影対象画像TGと撮影画像SGとを比較し、画像が異なる領域を検出し、差分画像BGを生成する領域検出部として機能する。
After comparing the captured image SG with the projection target image TG, the face area detection unit 30 detects the difference between these data based on the comparison result, and based on the detected difference, the difference image BG (FIG. 3C). ) Is generated. The difference image BG is an image generated when the photographing unit 14 photographs a person when the person is interposed between the projector 1 and the screen 2. In the present embodiment, since only the presenter 3 may be interposed between the projector 1 and the screen 2, the difference image BG generated here is between the projector 1 and the screen 2. This is caused by the interposition. Next, the face area detection unit 30 detects the face area of the presenter 3 from the difference image BG. For the detection of the face region, for example, an existing technique such as pattern matching using a template representing a face can be used.
As described above, when detecting the face area of the presenter 3 from the captured image SG, the face area detecting unit 30 according to the present embodiment generates the difference image BG based on the comparison result between the captured image SG and the projection target image TG. The face area is detected from the difference image BG. This difference image BG is an image generated due to the presenter 3 being interposed between the projector 1 and the screen 2. Therefore, compared with the case where the face area of the presenter 3 is detected from the entire photographed image SG using a method such as pattern matching, the face area to be detected is narrowed down. Is possible.
In the above-described operation, the control unit 20 functions as a region detection unit that compares the projection target image TG and the captured image SG, detects a region having a different image, and generates a difference image BG.

制御部20の顔領域加工画像生成部31は、顔領域検出部30が検出した撮影画像SGにおける顔領域に基づいて、この撮影画像データSDと対応する投影対象画像TGにおける上記顔領域と対応する領域を特定する。そして、顔領域加工画像生成部31は、投影対象画像TGの上記特定した領域を所定の色に置換した画像である顔領域加工画像KGを生成すると共に、この顔領域加工画像KGに係る顔領域加工画像データKDを生成し、記憶部22に記憶するものである。
ここで、顔領域加工画像生成部31の具体的な動作の一例について図4を用いて説明する。
The face region processed image generation unit 31 of the control unit 20 corresponds to the face region in the projection target image TG corresponding to the photographed image data SD based on the face region in the photographed image SG detected by the face region detection unit 30. Identify the area. The face area processed image generation unit 31 generates a face area processed image KG that is an image obtained by replacing the specified area of the projection target image TG with a predetermined color, and the face area related to the face area processed image KG. Processed image data KD is generated and stored in the storage unit 22.
Here, an example of a specific operation of the face area processed image generation unit 31 will be described with reference to FIG.

図4は、顔領域加工画像生成部31の動作を説明するための図であり、(A)は、撮影画像SGの一例を示し、(B)は、顔領域加工画像KGの一例を示す。
例えば、顔領域加工画像生成部31は、撮影画像SGにおける顔領域40(図4(A))を示す座標値を取得すると共に、投影対象画像TGにおける上記取得した座標値と対応する座標値を算出し、この算出した座標値が示す領域を顔領域に対応する領域(以下、「顔対応領域」という)として特定する。次いで、顔領域加工画像生成部31は、投影対象画像TGの顔対応領域を所定の色に置換した画像である顔領域加工画像KG(図4(B))を生成すると共に、この画像に係る顔領域加工画像データKDを生成し、記憶部22に記憶する。
このように、顔領域加工画像KGは、プレゼンタ3の顔に該当する部分を所定の色で置換した画像である。このため、顔領域加工画像KGをプロジェクタ1が投影した場合、プレゼンタ3の顔に相当する部分に、情報画像2bに代えて、所定の色が投影された状態となる。この場合、スピーチによる口の動きや、スクリーン2の確認のための首の動き等、プレゼンテーションに伴う動きが比較的多い箇所であるプレゼンタ3の顔に、情報画像2bが表示されることを防止でき、視聴者のプレゼンテーション内容への集中が妨げられない。
4A and 4B are diagrams for explaining the operation of the face area processed image generation unit 31. FIG. 4A shows an example of the captured image SG, and FIG. 4B shows an example of the face area processed image KG.
For example, the face area processed image generation unit 31 acquires coordinate values indicating the face area 40 (FIG. 4A) in the captured image SG, and sets coordinate values corresponding to the acquired coordinate values in the projection target image TG. The area indicated by the calculated coordinate value is specified as an area corresponding to the face area (hereinafter referred to as “face corresponding area”). Next, the face area processed image generation unit 31 generates a face area processed image KG (FIG. 4B), which is an image obtained by replacing the face corresponding area of the projection target image TG with a predetermined color, and relates to this image. Face area processed image data KD is generated and stored in the storage unit 22.
Thus, the face region processed image KG is an image obtained by replacing a portion corresponding to the face of the presenter 3 with a predetermined color. For this reason, when the projector 1 projects the face region processed image KG, a predetermined color is projected on the portion corresponding to the face of the presenter 3 instead of the information image 2b. In this case, it is possible to prevent the information image 2b from being displayed on the face of the presenter 3, which is a place where there are relatively many movements accompanying the presentation, such as movement of the mouth due to speech and movement of the neck for checking the screen 2. , The viewer's concentration on the presentation content is not hindered.

ここで、顔領域加工画像KGの顔対応領域の所定の色について詳述する。
本実施形態では、所定の色とは、第1の基準明度よりも明度を落とした色のことである。第1の基準明度とは、この第1の基準明度を有する色からなる画像を投影部13によってプレゼンタ3の顔に対して投影した場合において、このプレゼンタ3が眩しさを感じないような明度のことである。所定の色を、第1の基準明度よりも明度を落とした色とすることによって、プレゼンタ3の顔に情報画像2bが表示されることを防止できるという効果のほか、以下の効果を奏することができる。すなわち、顔領域加工画像データKDに係る画像をプロジェクタ1によって投影した場合、プレゼンタ3の顔に相当する部分に、第1の基準明度よりも明度を落とした色が投影された状態となる。従って、プレゼンタ3が眩しさを感じることがなく、プレゼンタ3が自然な表情でプレゼンテーションを行うことができるようになると共に、プレゼンタ3の目を傷めるリスクを低減することができる。
Here, the predetermined color of the face corresponding area of the face area processed image KG will be described in detail.
In the present embodiment, the predetermined color is a color whose brightness is lower than the first reference brightness. The first reference lightness is such a lightness that the presenter 3 does not feel glare when an image composed of a color having the first reference lightness is projected onto the face of the presenter 3 by the projection unit 13. That is. In addition to the effect that the information image 2b can be prevented from being displayed on the face of the presenter 3 by setting the predetermined color to a color with a lightness lower than the first reference lightness, the following effects can be achieved. it can. That is, when the image related to the face area processed image data KD is projected by the projector 1, a color having a lightness lower than the first reference lightness is projected onto a portion corresponding to the face of the presenter 3. Therefore, the presenter 3 does not feel dazzling, the presenter 3 can make a presentation with a natural expression, and the risk of damaging the eyes of the presenter 3 can be reduced.

制御部20の腕領域検出部32は、顔領域検出部30が検出した顔領域に基づいて、撮影画像SGから人物の腕領域を検出するものである。ここで、腕領域検出部32の具体的な動作の一例について説明する。
腕領域検出部32は、顔領域検出部30が生成した差分画像における顔領域の位置から、差分画像における腕領域の位置を推定する。なお、差分画像は、プレゼンタ3の存在によって生じた差分に基づいて生成された画像であり、腕領域は差分画像に含まれている。
次いで、腕領域検出部32は、差分画像において腕領域の位置として推定した範囲について、例えば、パターンマッチング等の方法により、腕領域を特定する。腕領域の特定に際し、プレゼンタ3が着用している服から露出した腕部分を肌色検出により検出して、腕領域を特定してもよい。さらに、本実施形態に係る腕領域検出部32は、パターンマッチングや、肌色検出等の手段により、検出した腕領域のうち、手に相当する領域(以下、「手領域」という)を検出する。
The arm region detection unit 32 of the control unit 20 detects a person's arm region from the photographed image SG based on the face region detected by the face region detection unit 30. Here, an example of a specific operation of the arm region detection unit 32 will be described.
The arm region detection unit 32 estimates the position of the arm region in the difference image from the position of the face region in the difference image generated by the face region detection unit 30. The difference image is an image generated based on the difference caused by the presence of the presenter 3, and the arm region is included in the difference image.
Next, the arm region detection unit 32 specifies the arm region with respect to the range estimated as the position of the arm region in the difference image, for example, by a method such as pattern matching. In specifying the arm region, the arm region exposed from the clothes worn by the presenter 3 may be detected by skin color detection to specify the arm region. Furthermore, the arm region detection unit 32 according to the present embodiment detects a region corresponding to the hand (hereinafter referred to as “hand region”) among the detected arm regions by means such as pattern matching and skin color detection.

制御部20のポイント付加画像生成部33は、顔領域加工画像生成部31が生成した顔領域加工画像KGにおいて、腕領域検出部32が検出した腕領域に対応する箇所にポイントを付加した画像であるポイント付加画像PGを生成すると共に、このポイント付加画像PGに係るポイント付加画像データPDを生成し、このポイント付加画像データPDを記憶部22に記憶するものである。ここで、ポイント付加画像生成部33の具体的な動作の一例について図5を用いて説明する。   The point addition image generation unit 33 of the control unit 20 is an image in which points are added to locations corresponding to the arm regions detected by the arm region detection unit 32 in the face region processing image KG generated by the face region processing image generation unit 31. A point added image PG is generated, point added image data PD related to the point added image PG is generated, and the point added image data PD is stored in the storage unit 22. Here, an example of a specific operation of the point-added image generation unit 33 will be described with reference to FIG.

図5は、ポイント付加画像生成部33の動作を説明するための図であり、(A)は、撮影画像SGの一例を示し、(B)は、ポイント付加画像PGの一例を示す。
ポイント付加画像生成部33は、撮影画像SGにおける腕領域のうち手領域41(図5(A))を示す座標値を取得すると共に、顔領域加工画像KGにおける上記取得した座標値と対応する座標値を算出し、この算出した座標値が示す領域を手領域に対応する領域(以下、「手対応領域」という)として特定する。次いで、ポイント付加画像生成部33は、顔領域加工画像KGの手対応領域にポイントP(図5(B))を付加したポイント付加画像PGを生成し、このポイント付加画像PGに係るポイント付加画像データPDを生成する。
このように、ポイント付加画像生成部33は、手対応領域に対応する箇所にポイントを付加したポイント付加画像PGを生成するが、この生成したポイント付加画像PGを投影部13によって投影した場合、プレゼンタ3が指し示す箇所に、自動で、ポイントPが表示された状態となる。従って、プレゼンタ3が、指示棒やレーザポインタ等の特別な部材、機器を保持することなく、指し示す場所にポイントを表示することができ、プレゼンタ3の利便性を向上することができる。
なお、手対応領域にポイントPを付加する場合を例にして説明したが、ポイントPを付加する場所は、これに限らず、腕領域検出部32が検出した腕領域の形状から、腕が伸びる方向を特定し、この特定した方向の延長線上にポイントPを付加するようにしてもよい。また、手領域41に対応する位置等から所定距離離れた位置にある所定の領域にポイントPを付加するようにしてもよい。
5A and 5B are diagrams for explaining the operation of the point-added image generation unit 33. FIG. 5A illustrates an example of the captured image SG, and FIG. 5B illustrates an example of the point-added image PG.
The point addition image generation unit 33 acquires coordinate values indicating the hand region 41 (FIG. 5A) in the arm region in the captured image SG, and coordinates corresponding to the acquired coordinate values in the face region processed image KG. A value is calculated, and an area indicated by the calculated coordinate value is specified as an area corresponding to the hand area (hereinafter referred to as “hand corresponding area”). Next, the point addition image generation unit 33 generates a point addition image PG in which the point P (FIG. 5B) is added to the hand corresponding region of the face region processed image KG, and the point addition image related to the point addition image PG. Data PD is generated.
As described above, the point-added image generation unit 33 generates the point-added image PG in which a point is added to a location corresponding to the hand-corresponding region. When the generated point-added image PG is projected by the projection unit 13, the presenter The point P is automatically displayed at the location indicated by 3. Therefore, the presenter 3 can display a point at a point to be pointed without holding a special member or device such as a pointer or a laser pointer, and the convenience of the presenter 3 can be improved.
Although the case where the point P is added to the hand corresponding area has been described as an example, the place where the point P is added is not limited to this, and the arm extends from the shape of the arm area detected by the arm area detecting unit 32. A direction may be specified, and a point P may be added on an extension line of the specified direction. Further, the point P may be added to a predetermined area located at a predetermined distance from a position corresponding to the hand area 41 or the like.

次いで、本実施形態に係るプロジェクタ1の動作について説明する。
図6は、プロジェクタ1の動作を示すフローチャートである。
まず、制御部20の顔領域検出部30は、撮影画像データSDを所定周期でサンプリングし、サンプリングした撮影画像SGに含まれる顔領域を検出する(ステップSA1)。さらに、制御部20は、顔領域検出部30によって撮影画像SGに顔領域が検出されたか否かを判別する(ステップSA2)。顔領域検出部30によって撮影画像SGに顔領域が検出された場合(ステップSA2:YES)、制御部20の顔領域加工画像生成部31は、顔領域加工画像データKDを生成し、記憶部22に記憶する(ステップSA3)。次いで、制御部20は、ポイント付加画像生成部33によってポイント付加画像データPDを生成する必要があるか否かを判別する(ステップSA4)。ここで、ステップSA4の処理について具体例を挙げて説明する。
Next, the operation of the projector 1 according to this embodiment will be described.
FIG. 6 is a flowchart showing the operation of the projector 1.
First, the face area detection unit 30 of the control unit 20 samples the captured image data SD at a predetermined cycle, and detects a face area included in the sampled captured image SG (step SA1). Further, the control unit 20 determines whether or not a face region is detected in the captured image SG by the face region detection unit 30 (step SA2). When a face area is detected in the captured image SG by the face area detection unit 30 (step SA2: YES), the face area processed image generation unit 31 of the control unit 20 generates face area processed image data KD, and the storage unit 22 (Step SA3). Next, the control unit 20 determines whether or not the point-added image data PD needs to be generated by the point-added image generation unit 33 (step SA4). Here, a specific example is given and demonstrated about the process of step SA4.

例えば、制御部20は、事前に、撮影画像データSDを所定周期でサンプリングして、サンプリングした撮影画像データSD毎に腕領域検出部32によって腕領域を検出すると共に、この腕領域の状態の変化を検出することにより、一定時間(例えば2〜3秒)以上の間、人物の腕の状態が所定の範囲以内でしか変化していないか否かを判別する。そして、一定時間以上の間、腕の状態が所定の範囲以内でしか変化していない場合は、ステップSA4の処理において、ポイント付加画像生成部33によってポイント付加画像データPDを生成する必要があると判別する。これは、一定時間以上、腕の状態が所定の範囲以内でしか変化していない場合、プレゼンタ3がスクリーン2を指し示している状態であり、このため、腕の状態が変化していないとみなすことができるためである。
また、例えば、制御部20は、腕領域検出部32によって腕領域及び手領域を検出し、手領域の位置が所定の位置(例えば、顔領域が存在する位置)より高い場合は、ステップSA4の処理において、ポイント付加画像データPDを生成する必要があると判別する。これは、手領域が所定の位置より高い場合、プレゼンタ3が、スクリーン2を指し示す目的を持って、意図的に手を挙げている状態とみなすことができるためである。
For example, the control unit 20 samples the captured image data SD at a predetermined period in advance, detects the arm region by the arm region detection unit 32 for each sampled captured image data SD, and changes the state of the arm region. By detecting this, it is determined whether or not the arm state of the person has changed only within a predetermined range for a certain time (for example, 2 to 3 seconds) or more. If the arm state has changed only within a predetermined range for a certain time or longer, it is necessary to generate point-added image data PD by the point-added image generation unit 33 in the process of step SA4. Determine. This is a state in which the presenter 3 points to the screen 2 when the arm state has changed only within a predetermined range for a certain period of time, and therefore, it is considered that the arm state has not changed. It is because it can do.
Further, for example, the control unit 20 detects the arm region and the hand region by the arm region detection unit 32, and when the position of the hand region is higher than a predetermined position (for example, a position where the face region exists), the control unit 20 In the process, it is determined that the point-added image data PD needs to be generated. This is because when the hand region is higher than a predetermined position, the presenter 3 can be regarded as a state in which the hand is intentionally raised with the purpose of pointing to the screen 2.

ステップSA4において、ポイント付加画像データPDを生成する必要があると判別した場合(ステップSA4:YES)、制御部20は、ポイント付加画像生成部33によってポイント付加画像データPDを生成し、記憶部22に記憶する(ステップSA5)。そして、制御部20は、ステップSA5で生成、記憶したポイント付加画像PGを投影画像2aとしてスクリーン2に投影する(ステップSA6)。ここでスクリーン2に投影される投影画像2aは、上述したように、プレゼンタ3の顔に相当する部分が所定の色に置換された画像であるため、プレゼンタ3の顔に相当する部分に、情報画像2bに代えて、所定の色が投影された状態となる。これにより、スピーチによる口の動きや、スクリーン2の確認のための首の動き等、プレゼンテーションに伴う動きが比較的多い箇所であるプレゼンタ3の顔に、情報画像2bが表示されることを防止でき、プレゼンテーションの視聴者の集中力が妨げられない。また、ここでスクリーン2に投影される投影画像2aには、自動で、ポインタが付加されているため、上述したように、プレゼンタ3の利便性が向上する。   When it is determined in step SA4 that the point-added image data PD needs to be generated (step SA4: YES), the control unit 20 generates the point-added image data PD by the point-added image generation unit 33, and the storage unit 22 (Step SA5). Then, the control unit 20 projects the point addition image PG generated and stored in step SA5 onto the screen 2 as the projection image 2a (step SA6). Here, the projection image 2a projected on the screen 2 is an image in which the portion corresponding to the face of the presenter 3 is replaced with a predetermined color as described above. Instead of the image 2b, a predetermined color is projected. Thereby, it is possible to prevent the information image 2b from being displayed on the face of the presenter 3, which is a place where the movement accompanying the presentation is relatively large, such as the movement of the mouth by speech and the movement of the neck for checking the screen 2. , The viewer's concentration on the presentation is not disturbed. Since the pointer is automatically added to the projection image 2a projected on the screen 2 here, the convenience of the presenter 3 is improved as described above.

一方、ポイント付加画像データPDを生成する必要がないと判別した場合(ステップSA4:NO)、制御部20は、ステップSA3で生成、記憶した顔領域加工画像KGを投影部13を介してスクリーン2に投影する(ステップSA7)。ここでスクリーン2に投影される投影画像2aは、上述したように、プレゼンタ3の顔に相当する部分が所定の色に置換された画像である。
制御部20は、上述した処理を所定間隔(例えば、1秒毎)で繰り返す。これにより、プレゼンタ3の顔が移動した場合であっても、この顔の移動に追従して、プレゼンタ3の顔に相当する部分に、情報画像2bに変えて、所定の色が投影された状態が維持される。
On the other hand, when it is determined that it is not necessary to generate the point-added image data PD (step SA4: NO), the control unit 20 outputs the face area processed image KG generated and stored in step SA3 via the projection unit 13 to the screen 2. (Step SA7). Here, the projection image 2a projected on the screen 2 is an image in which a portion corresponding to the face of the presenter 3 is replaced with a predetermined color as described above.
The control unit 20 repeats the above-described processing at a predetermined interval (for example, every second). Thereby, even when the face of the presenter 3 is moved, a state in which a predetermined color is projected in place of the information image 2b on the portion corresponding to the face of the presenter 3 following the movement of the face. Is maintained.

以上説明したように、本発明によれば、プロジェクタ1とスクリーン2との間にプレゼンタ3が介在している場合、顔領域加工画像生成部31によって生成された顔領域加工画像KGが投影部13によって投影される。ここで、顔領域加工画像KGは、プレゼンタ3の顔に該当する部分を所定の色で置換した画像である。このため、顔領域加工画像データKDに係る画像を投影部13が投影した場合、プレゼンタ3の顔に相当する部分に、情報画像2bに代えて、所定の色が投影された状態となる。この場合、スピーチによる口の動きや、スクリーン2の確認のための首の動き等、プレゼンテーションに伴う動きが比較的多い箇所であるプレゼンタ3の顔に、情報画像2bが表示されることを防止でき、プレゼンテーション内容への視聴者の集中が妨げられることがない。   As described above, according to the present invention, when the presenter 3 is interposed between the projector 1 and the screen 2, the face region processed image KG generated by the face region processed image generation unit 31 is the projection unit 13. Projected by. Here, the face region processed image KG is an image obtained by replacing a portion corresponding to the face of the presenter 3 with a predetermined color. Therefore, when the projection unit 13 projects an image related to the face area processed image data KD, a predetermined color is projected on the portion corresponding to the face of the presenter 3 instead of the information image 2b. In this case, it is possible to prevent the information image 2b from being displayed on the face of the presenter 3, which is a place where there are relatively many movements accompanying the presentation, such as movement of the mouth due to speech and movement of the neck for checking the screen 2. , The viewer's concentration on the presentation content is not hindered.

また、本実施の形態によれば、顔領域検出部30は、投影対象画像TGと、この投影対象画像に対応する撮影画像SGとの比較結果に基づいて、顔領域を検出する。具体的には、顔領域検出部30は、撮影画像SGからプレゼンタ3の顔領域を検出するに際し、撮影画像SGと投影対象画像TGとの比較結果に基づいて差分画像を生成し、この差分画像から顔領域を検出する。この差分画像は、プレゼンタ3がプロジェクタ1とスクリーン2との間に介在したことに起因して生じた画像である。このため、撮影画像データSD全体からパターンマッチング等の手法を用いてプレゼンタ3の顔領域を検出する場合と比較し、顔領域を検出すべき範囲が絞り込まれるため、効率的かつ高精度な顔領域検出が可能となる。   Further, according to the present embodiment, the face area detection unit 30 detects the face area based on the comparison result between the projection target image TG and the captured image SG corresponding to the projection target image. Specifically, when detecting the face area of the presenter 3 from the photographed image SG, the face area detection unit 30 generates a difference image based on the comparison result between the photographed image SG and the projection target image TG. To detect a face region. This difference image is an image generated due to the presenter 3 being interposed between the projector 1 and the screen 2. For this reason, compared with the case where the face area of the presenter 3 is detected from the entire photographed image data SD using a method such as pattern matching, the face area to be detected is narrowed down. Detection is possible.

また、本実施形態では、顔領域加工画像KGの顔対応領域の所定の色とは、第1の基準明度よりも明度を落とした色のことである。第1の基準明度とは、この第1の基準明度を有する色からなる画像をプロジェクタ1によってプレゼンタ3の顔に対して投影した場合において、このプレゼンタ3が眩しさを感じないような明度のことである。所定の色を、第1の基準明度よりも明度を落とした色とすることによって、プレゼンタ3の顔に情報画像2bが表示されることを防止できるという効果のほか、以下の効果を奏することができる。すなわち、顔領域加工画像データKDに係る画像をプロジェクタ1によって投影した場合、プレゼンタ3の顔に相当する部分に、第1の基準明度よりも明度を落とした色が投影された状態となる。従って、プレゼンタ3が眩しさを感じることがなく、プレゼンタ3が自然な表情でプレゼンテーションを行うことができるようになると共に、プレゼンタ3の目を傷めるリスクを低減することができる。   In the present embodiment, the predetermined color of the face-corresponding area of the face area processed image KG is a color whose brightness is lower than the first reference brightness. The first reference brightness is a brightness at which the presenter 3 does not feel glare when an image composed of a color having the first reference brightness is projected onto the face of the presenter 3 by the projector 1. It is. In addition to the effect that the information image 2b can be prevented from being displayed on the face of the presenter 3 by setting the predetermined color to a color with a lightness lower than the first reference lightness, the following effects can be achieved. it can. That is, when the image related to the face area processed image data KD is projected by the projector 1, a color having a lightness lower than the first reference lightness is projected onto a portion corresponding to the face of the presenter 3. Therefore, the presenter 3 does not feel dazzling, the presenter 3 can make a presentation with a natural expression, and the risk of damaging the eyes of the presenter 3 can be reduced.

また、本実施形態に係るプロジェクタ1は、ポイント付加画像データPDを生成するポイント付加画像生成部33を備えている。ポイント付加画像生成部33が生成したポイント付加画像PGをプロジェクタ1によって投影した場合、プレゼンタ3が指し示す箇所に、自動で、ポイントが表示された状態となる。従って、プレゼンタ3が、指示棒やレーザポインタ等の特別な部材、機器を保持する必要がなく、プレゼンタ3の利便性を向上することができる。   In addition, the projector 1 according to the present embodiment includes a point-added image generation unit 33 that generates point-added image data PD. When the point addition image PG generated by the point addition image generation unit 33 is projected by the projector 1, the point is automatically displayed at the location indicated by the presenter 3. Therefore, it is not necessary for the presenter 3 to hold a special member or device such as a pointer or a laser pointer, and the convenience of the presenter 3 can be improved.

また、本実施形態に係るプロジェクタ1は、領域検出部によって投影対象画像TGと撮影画像SGとを比較し、画像が異なる領域を検出すると、検出された領域(差分画像BG)内の少なくとも一部(例えば、顔領域)を所定の色に置換して顔領域加工画像KG等の領域加工画像を生成する。この領域加工画像が投影部13によって投影された場合、人物や物が投影画像にオーバーラップした際に、その部分を所定の色にして目立たなくすることができ、黒色系の色にすれば人物の目に入る光のまぶしさを軽減できる。   In addition, when the projector 1 according to the present embodiment compares the projection target image TG and the captured image SG by the region detection unit and detects a region having a different image, at least a part of the detected region (difference image BG). An area processed image such as the face area processed image KG is generated by replacing (for example, a face area) with a predetermined color. When this region-processed image is projected by the projection unit 13, when a person or an object overlaps the projection image, the portion can be made inconspicuous and can be made inconspicuous. Can reduce the glare of light entering the eyes.

また、本実施形態に係るプロジェクタ1は、上述したように、領域検出部によって投影対象画像TGと撮影画像SGとを比較して、画像が異なる領域を検出し、領域検出部によって検出された領域(例えば、手領域41)から所定距離離れた位置にある所定の領域を所定の画像(ポイントP)に置換する構成であってもよい。
この構成によれば、人物や物が投影画像にオーバーラップしたとき、そこから所定距離離れた部分を所定の画像で指し示すことができる。
In addition, as described above, the projector 1 according to the present embodiment compares the projection target image TG and the captured image SG by the region detection unit, detects a region having a different image, and detects the region detected by the region detection unit. For example, a configuration may be adopted in which a predetermined region located at a predetermined distance from the hand region 41 is replaced with a predetermined image (point P).
According to this configuration, when a person or an object overlaps with the projection image, a portion away from the projection image by a predetermined distance can be indicated by the predetermined image.

なお、上述した各実施形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。
例えば、上述した実施形態では、所定の色として、第1の基準明度よりも明度を下げた色を例にして説明した。しかしながら、所定の色は、第2の基準明度よりも明度を上げた色であってもよい。ここで、第2の基準明度とは、この第2の基準明度を有する色からなる画像をプロジェクタ1によってプレゼンタ3の顔に対して投影した場合、このプレゼンタ3の顔の表情を、プレゼンテーションの視聴者が視認できるような明度のことである。所定の色を、第2の基準明度よりも明度を上げた色とすることによって、プレゼンタ3の顔に情報画像2bが表示されることを防止できるという効果のほか、以下の効果を奏することができる。すなわち、顔領域加工画像KGをプロジェクタ1によって投影した場合、プレゼンタ3の顔に相当する部分に、第2の基準明度よりも明度を上げた色が投影された状態となるため、プレゼンタ3の表情を、プレゼンテーションの視聴者が視認することができる。従って、視聴者は、プレゼンタ3の表情を視認することによって、例えば、現在、プレゼンタ3が重要なことを話していることを認識したり、現在、プレゼンタ3が情報画像2bのどの部分を見ているかを認識したりすることができ、プレゼンテーションをより深く理解することができるようになる。
The above-described embodiments merely show one aspect of the present invention, and can be arbitrarily modified and applied within the scope of the present invention.
For example, in the above-described embodiment, the predetermined color has been described by taking a color whose brightness is lower than the first reference brightness as an example. However, the predetermined color may be a color whose brightness is higher than the second reference brightness. Here, the second reference brightness is the expression of the face of the presenter 3 when viewing an image of a color having the second reference brightness on the face of the presenter 3 when projected by the projector 1. It is lightness that can be visually recognized. In addition to the effect that the information image 2b can be prevented from being displayed on the face of the presenter 3 by setting the predetermined color to a color whose brightness is higher than the second reference brightness, the following effects can be achieved. it can. That is, when the face region processed image KG is projected by the projector 1, the color corresponding to the face of the presenter 3 is projected with a color whose brightness is higher than the second reference brightness. Can be viewed by the viewer of the presentation. Therefore, the viewer can recognize, for example, that the presenter 3 is currently talking about what is important by visually recognizing the expression of the presenter 3, or can view which part of the information image 2b the presenter 3 is currently viewing. You will be able to recognize the presentation and understand the presentation more deeply.

また、上述した実施形態では、顔領域加工画像生成部31は、顔領域加工画像生成部31が生成した顔領域加工画像KGは、プレゼンタの顔に相当する箇所を所定の色に置換した画像であった。しかしながら、顔領域加工画像KGは、プレゼンタの顔に相当する箇所が所定の色に置換された画像ではなく、所定の画像に置換された画像であってもよい。所定の画像としては、例えば、白地に黒の斜線が引かれた画像等がある。この構成であっても、上述した実施形態に係るプロジェクタ1と同様に、プレゼンタ3の顔に情報画像2bが投影されることを防止でき、プレゼンテーション内容への視聴者の集中が妨げない、という効果を奏することができる。   In the above-described embodiment, the face region processed image generation unit 31 is an image in which the face region processed image KG generated by the face region processed image generation unit 31 is an image obtained by replacing a portion corresponding to the face of the presenter with a predetermined color. there were. However, the face region processed image KG may be an image in which a portion corresponding to the face of the presenter is not replaced with a predetermined color but an image replaced with a predetermined image. Examples of the predetermined image include an image in which a black diagonal line is drawn on a white background. Even with this configuration, similarly to the projector 1 according to the above-described embodiment, the information image 2b can be prevented from being projected on the face of the presenter 3, and the viewer's concentration on the presentation content is not hindered. Can be played.

本実施形態に係るプロジェクタの使用状態を示す概略図である。It is the schematic which shows the use condition of the projector which concerns on this embodiment. プロジェクタの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a projector. 顔領域検出部の動作の説明に使用する図である。It is a figure used for description of operation | movement of a face area | region detection part. 顔領域加工画像生成部の動作の説明に使用する図である。It is a figure used for description of operation | movement of a face area | region process image generation part. ポイント付加画像生成部の動作の説明に使用する図である。It is a figure used for description of operation | movement of a point addition image generation part. プロジェクタの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a projector.

符号の説明Explanation of symbols

1…プロジェクタ、2a…投影画像、3…プレゼンタ(人物)、13…投影部、14…撮影部、30…顔領域検出部、31…顔領域加工画像生成部(領域加工画像生成部)、32…腕領域検出部、33…ポイント付加画像生成部(領域加工画像背西部)、KD…顔領域加工画像データ、PD…ポイント付加画像データ、SD…撮影画像データ、TD…投影対象画像データ。   DESCRIPTION OF SYMBOLS 1 ... Projector, 2a ... Projection image, 3 ... Presenter (person), 13 ... Projection part, 14 ... Imaging | photography part, 30 ... Face area detection part, 31 ... Face area process image generation part (area process image generation part), 32 ... arm region detection unit, 33 ... point added image generation unit (region processed image back west part), KD ... face region processed image data, PD ... point added image data, SD ... photographed image data, TD ... projection target image data.

Claims (10)

投影対象画像を投影画像として投影する投影部と、
前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、
前記撮影部が生成した前記撮影画像に含まれる人物の顔領域を検出する顔領域検出部と、
前記顔領域検出部によって検出された前記顔領域に基づいて、前記投影対象画像における前記顔領域に対応する領域を特定すると共に、この特定した領域内を所定の色に置換して顔領域加工画像を生成する顔領域加工画像生成部と、を備え、
前記投影部は、前記投影対象画像に代えて、前記顔領域加工画像生成部によって生成された前記顔領域加工画像を前記投影画像として投影すること、
を特徴とするプロジェクタ。
A projection unit that projects the projection target image as a projection image;
An imaging unit that captures an area including at least a part of the projected image and generates a captured image;
A face area detection unit that detects a face area of a person included in the captured image generated by the imaging unit;
Based on the face area detected by the face area detection unit, an area corresponding to the face area in the projection target image is specified, and the specified area is replaced with a predetermined color to process a face area processed image A face region processed image generation unit for generating
The projection unit projects the face region processed image generated by the face region processed image generation unit as the projection image instead of the projection target image.
Projector.
前記顔領域検出部は、前記投影対象画像と、この投影対象画像に対応する撮影画像との比較結果に基づいて、前記顔領域を検出すること、
を特徴とする請求項1に記載のプロジェクタ。
The face area detection unit detects the face area based on a comparison result between the projection target image and a captured image corresponding to the projection target image;
The projector according to claim 1.
前記所定の色は、第1の基準明度よりも明度を落とした色であること、
を特徴とする請求項1または2に記載のプロジェクタ。
The predetermined color is a color having a lightness lower than the first reference lightness;
The projector according to claim 1 or 2.
前記所定の色は、第2の基準明度よりも明度を上げた色であること、
を特徴とする請求項1または2に記載のプロジェクタ。
The predetermined color is a color having a lightness higher than the second reference lightness;
The projector according to claim 1 or 2.
前記顔領域検出部が検出した前記顔領域に基づいて、前記撮影部が生成した前記撮影画像に含まれる前記人物の腕領域を検出する腕領域検出部と、
前記腕領域検出部によって検出された前記腕領域に基づいて、前記顔領域加工画像における前記腕領域に対応する箇所を特定すると共に、この特定した箇所にポイントを付加したポイント付加画像を生成するポイント付加画像生成部と、をさらに備え、
前記投影部は、前記投影対象画像に代えて、前記ポイント付加画像生成部によって生成された前記ポイント付加画像を前記投影画像として投影すること、
を特徴とする請求項1乃至4の何れかに記載のプロジェクタ。
An arm region detection unit that detects an arm region of the person included in the captured image generated by the imaging unit based on the face region detected by the face region detection unit;
Based on the arm region detected by the arm region detection unit, a point corresponding to the arm region in the face region processed image is specified, and a point addition image in which a point is added to the specified portion is generated An additional image generation unit,
The projection unit projects the point addition image generated by the point addition image generation unit as the projection image instead of the projection target image;
The projector according to claim 1, wherein:
投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、を備えるプロジェクタの制御方法であって、
前記撮影部が生成した前記撮影画像に含まれる人物の顔領域を検出し、
前記顔領域検出部によって検出された前記顔領域に基づいて、前記投影対象画像における前記顔領域に対応する領域を特定すると共に、この特定した領域内を所定の色に置換して顔領域加工画像を生成し、
前記投影部は、前記投影対象画像に代えて、前記顔領域加工画像生成部によって生成された前記顔領域加工画像を前記投影画像として投影すること、
を特徴とするプロジェクタの制御方法。
A projector control method comprising: a projection unit that projects a projection target image as a projection image; and a photographing unit that photographs a region including at least a part of the projection image and generates a photographed image.
Detecting a human face area included in the captured image generated by the imaging unit;
Based on the face area detected by the face area detection unit, an area corresponding to the face area in the projection target image is specified, and the specified area is replaced with a predetermined color to process a face area processed image Produces
The projection unit projects the face region processed image generated by the face region processed image generation unit as the projection image instead of the projection target image.
A projector control method characterized by the above.
投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、を備えるプロジェクタをコンピュータにより制御するための制御プログラムであって、
コンピュータを、
前記撮影部が生成した前記撮影画像に含まれる人物の顔領域を検出する顔領域検出手段、
前記顔領域検出手段によって検出された前記顔領域に基づいて、前記投影対象画像における前記顔領域に対応する領域を特定すると共に、この特定した領域内を所定の色に置換して顔領域加工画像を生成する顔領域加工画像生成手段、
前記投影対象画像に代えて、前記顔領域加工画像生成部によって生成された前記顔領域加工画像を前記投影画像として前記投影部によって投影する投影手段、として機能させるための制御プログラム。
A control program for controlling, by a computer, a projector comprising: a projection unit that projects a projection target image as a projection image; and an imaging unit that captures an area including at least a part of the projection image and generates a captured image. There,
Computer
Face area detection means for detecting a face area of a person included in the captured image generated by the imaging unit;
Based on the face area detected by the face area detecting means, an area corresponding to the face area in the projection target image is specified, and the specified area is replaced with a predetermined color to process a face area processed image A face region processed image generating means for generating
A control program for causing the face area processed image generated by the face area processed image generation unit to function as a projection unit that projects by the projection unit as the projection image instead of the projection target image.
投影対象画像を投影画像として投影する投影部と、
前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、
前記投影対象画像と前記撮影画像とを比較し、画像が異なる領域を検出する領域検出部と、
前記領域検出部によって検出された領域内の少なくとも一部を所定の色に置換して領域加工画像を生成する領域加工画像生成部と、を備え、
前記投影部は、前記領域加工画像生成部によって生成された前記領域加工画像を前記投影画像として投影すること、
を特徴とするプロジェクタ。
A projection unit that projects the projection target image as a projection image;
An imaging unit that captures an area including at least a part of the projected image and generates a captured image;
An area detection unit that compares the projection target image and the captured image and detects areas in which the images are different;
A region processed image generation unit that generates a region processed image by replacing at least a part of the region detected by the region detection unit with a predetermined color;
The projection unit projects the region processed image generated by the region processed image generation unit as the projection image;
Projector.
投影対象画像を投影画像として投影する投影部と、
前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、
前記投影対象画像と前記撮影画像とを比較し、画像が異なる領域を検出する領域検出部と、
前記領域検出部によって検出された領域内の少なくとも一部を所定の画像に置換して領域加工画像を生成する領域加工画像生成部と、を備え、
前記投影部は、前記領域加工画像生成部によって生成された前記領域加工画像を前記投影画像として投影すること、
を特徴とするプロジェクタ。
A projection unit that projects the projection target image as a projection image;
An imaging unit that captures an area including at least a part of the projected image and generates a captured image;
An area detection unit that compares the projection target image and the captured image and detects areas in which the images are different;
A region processed image generation unit that generates a region processed image by replacing at least a part of the region detected by the region detection unit with a predetermined image;
The projection unit projects the region processed image generated by the region processed image generation unit as the projection image;
Projector.
投影対象画像を投影画像として投影する投影部と、
前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、
前記投影対象画像と前記撮影画像とを比較し、画像が異なる領域を検出する領域検出部と、
前記領域検出部によって検出された領域から所定距離離れた位置にある所定の領域を所定の画像に置換した領域加工画像を生成する領域加工画像生成部と、を備え、
前記投影部は、前記領域加工画像生成部によって生成された前記領域加工画像を前記投影画像として投影すること、
を特徴とするプロジェクタ。
A projection unit that projects the projection target image as a projection image;
An imaging unit that captures an area including at least a part of the projected image and generates a captured image;
An area detection unit that compares the projection target image and the captured image and detects areas in which the images are different;
A region processed image generating unit that generates a region processed image in which a predetermined region located at a predetermined distance from the region detected by the region detecting unit is replaced with a predetermined image;
The projection unit projects the region processed image generated by the region processed image generation unit as the projection image;
Projector.
JP2008194502A 2008-07-29 2008-07-29 Projector, control method of projector, and control program Withdrawn JP2010034820A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008194502A JP2010034820A (en) 2008-07-29 2008-07-29 Projector, control method of projector, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008194502A JP2010034820A (en) 2008-07-29 2008-07-29 Projector, control method of projector, and control program

Publications (1)

Publication Number Publication Date
JP2010034820A true JP2010034820A (en) 2010-02-12

Family

ID=41738814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008194502A Withdrawn JP2010034820A (en) 2008-07-29 2008-07-29 Projector, control method of projector, and control program

Country Status (1)

Country Link
JP (1) JP2010034820A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120045761A (en) * 2010-11-01 2012-05-09 삼성전자주식회사 Device and method for displaying data in wireless terminal
JP2013239037A (en) * 2012-05-15 2013-11-28 Ricoh Co Ltd Projection device, projection system, projection method, and program
JP2013239081A (en) * 2012-05-16 2013-11-28 Ricoh Co Ltd Projection device, projection system, projection method, and program
WO2013186994A1 (en) * 2012-06-15 2013-12-19 日本電気株式会社 Projection-type projector, anti-glare method, and program for anti-glare
JP2014035756A (en) * 2012-08-10 2014-02-24 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2015015677A (en) * 2013-07-08 2015-01-22 株式会社デンソー Projection display device
JP2017069844A (en) * 2015-09-30 2017-04-06 ブラザー工業株式会社 Projection control device, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120045761A (en) * 2010-11-01 2012-05-09 삼성전자주식회사 Device and method for displaying data in wireless terminal
KR101714050B1 (en) 2010-11-01 2017-03-08 삼성전자주식회사 Device and method for displaying data in wireless terminal
US10102786B2 (en) 2010-11-01 2018-10-16 Samsung Electronics Co., Ltd. Apparatus and method for displaying data in portable terminal
JP2013239037A (en) * 2012-05-15 2013-11-28 Ricoh Co Ltd Projection device, projection system, projection method, and program
JP2013239081A (en) * 2012-05-16 2013-11-28 Ricoh Co Ltd Projection device, projection system, projection method, and program
WO2013186994A1 (en) * 2012-06-15 2013-12-19 日本電気株式会社 Projection-type projector, anti-glare method, and program for anti-glare
JP2014035756A (en) * 2012-08-10 2014-02-24 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2015015677A (en) * 2013-07-08 2015-01-22 株式会社デンソー Projection display device
JP2017069844A (en) * 2015-09-30 2017-04-06 ブラザー工業株式会社 Projection control device, and program

Similar Documents

Publication Publication Date Title
JP3640156B2 (en) Pointed position detection system and method, presentation system, and information storage medium
US8727539B2 (en) Projector and method of controlling projector
US11399131B2 (en) Image processing apparatus capable of displaying region information in a separately recognizable manner, imaging apparatus, and control method
US20130021491A1 (en) Camera Device Systems and Methods
JP2010034820A (en) Projector, control method of projector, and control program
KR20090087960A (en) Image projection apparatus and control method for same
JP2005109540A (en) Projection display device
JP2009031334A (en) Projector and projection method for projector
US9973687B2 (en) Capturing apparatus and method for capturing images without moire pattern
US9298246B2 (en) Information processing device, system, and information processing method
JP2013070164A (en) Imaging device and imaging method
CN104658462B (en) The control method of projector and projector
JP2006236195A (en) Presentation control device
US8434879B2 (en) Control device and projection-type video-image display device
JP2019176356A (en) Projector, and method for controlling projector
JP2013125181A (en) Projector
JP2005284874A (en) Projector and command extraction method
JP2013182061A (en) Projection system
US20120218294A1 (en) Projection-type image display apparatus
JP2008283379A (en) Imaging device and program
JP2011108251A (en) Presentation controller and program
JP2012181264A (en) Projection device, projection method, and program
JP2017009909A (en) Projection type video display system, projection type video display device, and projection correction method
JP2009253575A (en) Projector, program, and storage medium
JP2005346012A (en) Display device, display method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111004