JP2010034820A - Projector, control method of projector, and control program - Google Patents
Projector, control method of projector, and control program Download PDFInfo
- Publication number
- JP2010034820A JP2010034820A JP2008194502A JP2008194502A JP2010034820A JP 2010034820 A JP2010034820 A JP 2010034820A JP 2008194502 A JP2008194502 A JP 2008194502A JP 2008194502 A JP2008194502 A JP 2008194502A JP 2010034820 A JP2010034820 A JP 2010034820A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- unit
- region
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
Description
本発明は、画像を投影するプロジェクタ、このプロジェクタの制御方法、及び、制御プログラムに関する。 The present invention relates to a projector that projects an image, a control method for the projector, and a control program.
従来、スクリーンに画像を投影するプロジェクタが知られている(例えば、特許文献1参照)。この種のプロジェクタを利用してプレゼンテーションを行う場合、プレゼンタは、スクリーンの近傍に立ち、スクリーンに投影された画像に含まれる各種情報を指し示しながらプレゼンテーションを行うことがある。
しかしながら、上述したプロジェクタでは、プレゼンテーションの過程でプロジェクタとスクリーンとの間にプレゼンタが介在してしまい、プレゼンタの顔に画像が投影されることがある。この場合、スピーチによる口の動きや、スクリーンの確認のための首の動き等、プレゼンテーションに伴う動きが比較的多い箇所であるプレゼンタの顔に、画像に含まれる各種情報が写ってしまうことがあり、このような場合には、視聴者のプレゼンテーション内容への集中を妨げてしまうことがある。
本発明は、上述した事情に鑑みてなされたものであり、視聴者のプレゼンテーション内容への集中を妨げることのないプロジェクタを提供することを目的とする。
However, in the projector described above, a presenter may be interposed between the projector and the screen during the presentation process, and an image may be projected onto the face of the presenter. In this case, various information contained in the image may be reflected on the face of the presenter, which is a place where there are relatively many movements accompanying the presentation, such as mouth movement due to speech and neck movement for screen confirmation. In such a case, the viewer's concentration on the presentation content may be hindered.
The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a projector that does not hinder the concentration of viewers on presentation contents.
上記目的を達成するために、本発明は、プロジェクタにおいて、投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、前記撮影部が生成した前記撮影画像に含まれる人物の顔領域を検出する顔領域検出部と、前記顔領域検出部によって検出された前記顔領域に基づいて、前記投影対象画像における前記顔領域に対応する領域を特定すると共に、この特定した領域内を所定の色に置換して顔領域加工画像を生成する顔領域加工画像生成部と、を備え、前記投影部は、前記投影対象画像に代えて、前記顔領域加工画像生成部によって生成された前記顔領域加工画像を前記投影画像として投影すること、を特徴とする。
この構成によれば、投影部は、投影対象画像に代えて、顔領域加工画像生成部によって生成された顔領域加工画像を投影画像として投影する。そして、顔領域加工画像は、人物の顔に該当する部分を所定の色で置換した画像である。このため、顔領域加工画像を投影部が投影した場合、人物の顔に相当する部分に、各種情報に代えて、所定の色が投影された状態となる。この場合、スピーチによる口の動きや、スクリーンの確認のための首の動き等、比較的動きが多い箇所である人物の顔に、各種情報が表示されることを防止でき、視聴者のプレゼンテーション内容への集中が妨げられない。
In order to achieve the above object, the present invention provides a projector for projecting a projection target image as a projection image and a photographing unit for photographing a region including at least a part of the projection image to generate a photographed image. A face area detection unit for detecting a face area of a person included in the captured image generated by the imaging unit, and the face in the projection target image based on the face area detected by the face area detection unit. A face region processed image generation unit that specifies a region corresponding to the region and generates a face region processed image by replacing the specified region with a predetermined color, and the projection unit includes the projection target image. Instead, the face region processed image generated by the face region processed image generation unit is projected as the projection image.
According to this configuration, the projection unit projects the face region processed image generated by the face region processed image generation unit as a projection image instead of the projection target image. The face region processed image is an image obtained by replacing a portion corresponding to a human face with a predetermined color. For this reason, when a projection part projects a face area processed image, it will be in the state by which the predetermined color was projected instead of various information on the part corresponded to a person's face. In this case, it is possible to prevent various information from being displayed on the face of a person who is relatively moving, such as mouth movement due to speech and neck movement for screen confirmation. Concentration on is not hindered.
ここで、上記発明のプロジェクタにおいて、前記顔領域検出部は、前記投影対象画像と、この投影対象画像に対応する撮影画像との比較結果に基づいて、前記顔領域を検出するようにしてもよい。
この構成によれば、顔領域検出部は、撮影画像から顔領域を検出する際、投影対象画像と撮影画像とを比較し、この比較結果に基づいて顔領域を検出すべき範囲を絞り込んでから顔領域を実行するため、撮影画像データ全体から顔領域を検出する場合と比較して、効率的かつ高精度な顔領域検出が可能となる。
Here, in the projector according to the invention described above, the face area detection unit may detect the face area based on a comparison result between the projection target image and a captured image corresponding to the projection target image. .
According to this configuration, when detecting the face area from the photographed image, the face area detecting unit compares the projection target image with the photographed image, and narrows down the range in which the face area should be detected based on the comparison result. Since the face area is executed, it is possible to detect the face area more efficiently and accurately than in the case where the face area is detected from the entire captured image data.
また、上記発明のプロジェクタにおいて、前記所定の色は、第1の基準明度よりも明度を落とした色であるようにしてもよい。
ここで、第1の基準明度とは、この第1の基準明度を有する色からなる画像をプロジェクタ1によって人物の顔に対して投影した場合において、この人物が眩しさを感じないような明度のことである。所定の色を、第1の基準明度よりも明度を落とした色とすることによって、人物の顔に各種情報が表示されることを防止できるという効果のほか、以下の効果を奏することができる。すなわち、顔領域加工画像を投影部によって投影した場合、人物の顔に相当する部分に、第1の基準明度よりも明度を落とした色が投影された状態となる。従って、人物が眩しさを感じることがなく、人物が自然な表情でプレゼンテーションを行うことができるようになると共に、人物の目を傷めるリスクを低減することができる。
In the projector according to the aspect of the invention, the predetermined color may be a color whose brightness is lower than the first reference brightness.
Here, the first reference brightness is such a brightness that the person does not feel dazzling when the
また、上記発明のプロジェクタにおいて、前記所定の色は、第2の基準明度よりも明度を上げた色であるようにしてもよい。
ここで、第2の基準明度とは、この第2の基準明度を有する色からなる画像を投影部によって人物の顔に対して投影した場合、この人物の顔の表情を、プレゼンテーションの視聴者が視認できるような明度のことである。所定の色を、第2の基準明度よりも明度を上げた色とすることによって、人物の顔に各種情報が表示されることを防止できるという効果のほか、以下の効果を奏することができる。すなわち、顔領域加工画像をプロジェクタによって投影した場合、人物の顔に相当する部分に、第2の基準明度よりも明度を上げた色が投影された状態となるため、人物の表情を、プレゼンテーションの視聴者が視認することができる。従って、視聴者は、人物の表情を視認することによって、例えば、人物が重要なことを話していることを認識したり、現在人物が各種情報のどの部分を見ているかを認識したりすることができ、プレゼンテーションをより深く理解することができるようになる。
In the projector according to the aspect of the invention, the predetermined color may be a color whose brightness is higher than the second reference brightness.
Here, the second reference brightness means that when an image having a color having the second reference brightness is projected onto a person's face by the projection unit, the facial expression of the person is expressed by the viewer of the presentation. Lightness that can be visually recognized. In addition to the effect that various kinds of information can be prevented from being displayed on the face of a person by setting the predetermined color to a color whose brightness is higher than the second reference brightness, the following effects can be achieved. That is, when a face region processed image is projected by a projector, a color having a lightness higher than the second reference lightness is projected on the portion corresponding to the human face, so that the facial expression of the person The viewer can view it. Therefore, the viewer can recognize the person's facial expression, for example, to recognize that the person is talking about something important, or to recognize which part of the various information the person is currently viewing. And be able to understand the presentation more deeply.
また、上記発明のプロジェクタにおいて、前記顔領域検出部が検出した前記顔領域に基づいて、前記撮影部が生成した前記撮影画像に含まれる前記人物の腕領域を検出する腕領域検出部と、前記腕領域検出部によって検出された前記腕領域に基づいて、前記顔領域加工画像における前記腕領域に対応する箇所を特定すると共に、この特定した箇所にポイントを付加したポイント付加画像を生成するポイント付加画像生成部と、をさらに備え、前記投影部は、前記投影対象画像に代えて、前記ポイント付加画像生成部によって生成された前記ポイント付加画像を前記投影画像として投影するようにしてもよい。
この構成によれば、ポイント付加画像生成部が生成したポイント付加画像を投影部によって投影した場合、人物が指し示す箇所に、自動で、ポイントが表示された状態となる。従って、人物が、指示棒やレーザポインタ等の特別な部材、機器を保持する必要がなく、人物の利便性を向上することができる。
Further, in the projector according to the invention described above, based on the face area detected by the face area detection unit, an arm area detection unit that detects an arm area of the person included in the captured image generated by the imaging unit; Based on the arm area detected by the arm area detection unit, a point corresponding to the arm area in the face area processed image is specified, and a point addition image is generated by adding a point to the specified position An image generation unit, and the projection unit may project the point addition image generated by the point addition image generation unit as the projection image instead of the projection target image.
According to this configuration, when the point addition image generated by the point addition image generation unit is projected by the projection unit, the point is automatically displayed at the location indicated by the person. Therefore, it is not necessary for the person to hold a special member or device such as a pointer or a laser pointer, and the convenience of the person can be improved.
また、上記目的を達成するために、本発明は、投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、を備えるプロジェクタの制御方法であって、前記撮影部が生成した前記撮影画像に含まれる人物の顔領域を検出し、前記顔領域検出部によって検出された前記顔領域に基づいて、前記投影対象画像における前記顔領域に対応する領域を特定すると共に、この特定した領域内を所定の色に置換して顔領域加工画像を生成し、前記投影部は、前記投影対象画像に代えて、前記顔領域加工画像生成部によって生成された前記顔領域加工画像を前記投影画像として投影すること、を特徴とする。 In order to achieve the above object, the present invention provides a projection unit that projects a projection target image as a projection image, a photographing unit that photographs a region including at least a part of the projection image, and generates a photographed image. A method of controlling a projector comprising: a face area of a person included in the captured image generated by the imaging unit; and the projection target based on the face area detected by the face area detection unit An area corresponding to the face area in the image is specified, and the inside of the specified area is replaced with a predetermined color to generate a face area processed image, and the projection unit replaces the projection target image with the face The face region processed image generated by the region processed image generation unit is projected as the projection image.
また、上記目的を達成するために、本発明は、投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、を備えるプロジェクタをコンピュータにより制御するための制御プログラムであって、コンピュータを、前記撮影部が生成した前記撮影画像に含まれる人物の顔領域を検出する顔領域検出手段、前記顔領域検出手段によって検出された前記顔領域に基づいて、前記投影対象画像における前記顔領域に対応する領域を特定すると共に、この特定した領域内を所定の色に置換して顔領域加工画像を生成する顔領域加工画像生成手段、前記投影対象画像に代えて、前記顔領域加工画像生成部によって生成された前記顔領域加工画像を前記投影画像として前記投影部によって投影する投影手段、として機能させるための制御プログラムを提供する。 In order to achieve the above object, the present invention provides a projection unit that projects a projection target image as a projection image, a photographing unit that photographs a region including at least a part of the projection image, and generates a photographed image. , A control program for controlling the projector by a computer, wherein the computer detects a face area of a person included in the captured image generated by the imaging unit, and the face area detection unit Based on the detected face region, a region corresponding to the face region in the projection target image is specified, and a face region processed image is generated by replacing the specified region with a predetermined color. In place of the image generation means and the projection target image, the projection unit uses the face region processed image generated by the face region processed image generation unit as the projection image. Thus to provide a control program for functioning a projection means for projecting a.
また、上記目的を達成するために、本発明のプロジェクタは、投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、前記投影対象画像と前記撮影画像とを比較し、画像が異なる領域を検出する領域検出部と、前記領域検出部によって検出された領域内の少なくとも一部を所定の色に置換して領域加工画像を生成する領域加工画像生成部と、を備え、前記投影部は、前記領域加工画像生成部によって生成された前記領域加工画像を前記投影画像として投影すること、を特徴とする。
この構成によれば、人物や物が投影画像にオーバーラップしたとき、その部分を所定の色にして目立たなくすることができ、黒色系の色にすれば人物の目に入る光のまぶしさを軽減できる。
In order to achieve the above object, a projector according to the present invention captures a projection unit that projects a projection target image as a projection image, and captures an area including at least a part of the projection image to generate a captured image. Comparing the projection target image with the captured image, detecting a region where the images are different, and replacing at least a part of the region detected by the region detection unit with a predetermined color A region-processed image generation unit that generates a region-processed image, and the projection unit projects the region-processed image generated by the region-processed image generation unit as the projection image.
According to this configuration, when a person or object overlaps the projected image, the portion can be made inconspicuous by making it a predetermined color, and if it is made a black color, the glare of light entering the person's eyes can be reduced. Can be reduced.
また、上記目的を達成するために、本発明のプロジェクタは、投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、前記投影対象画像と前記撮影画像とを比較し、画像が異なる領域を検出する領域検出部と、前記領域検出部によって検出された領域内の少なくとも一部を所定の画像に置換して領域加工画像を生成する領域加工画像生成部と、を備え、前記投影部は、前記領域加工画像生成部によって生成された前記領域加工画像を前記投影画像として投影すること、を特徴とする。
この構成によれば、人物や物が投影画像にオーバーラップしたとき、その部分を所定の画像にして目立たなくすることができる。
In order to achieve the above object, a projector according to the present invention captures a projection unit that projects a projection target image as a projection image, and captures an area including at least a part of the projection image to generate a captured image. Comparing the projection target image with the captured image, detecting a region where the images are different, and replacing at least a part of the region detected by the region detection unit with a predetermined image A region-processed image generation unit that generates a region-processed image, and the projection unit projects the region-processed image generated by the region-processed image generation unit as the projection image.
According to this configuration, when a person or an object overlaps with a projection image, the portion can be made a predetermined image so as to be inconspicuous.
また、上記目的を達成するために、本発明のプロジェクタは、投影対象画像を投影画像として投影する投影部と、前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、前記投影対象画像と前記撮影画像とを比較し、画像が異なる領域を検出する領域検出部と、前記領域検出部によって検出された領域から所定距離離れた位置にある所定の領域を所定の画像に置換した領域加工画像を生成する領域加工画像生成部と、を備え、前記投影部は、前記領域加工画像生成部によって生成された前記領域加工画像を前記投影画像として投影すること、を特徴とする。
この構成によれば、人物や物が投影画像にオーバーラップしたとき、そこから所定距離離れた部分を所定の画像で指し示すことができる。
In order to achieve the above object, a projector according to the present invention captures a projection unit that projects a projection target image as a projection image, and captures an area including at least a part of the projection image to generate a captured image. A region detection unit that compares the projection target image with the captured image, detects a region in which the image is different, and a predetermined region at a predetermined distance from the region detected by the region detection unit A region processed image generation unit that generates a region processed image replaced with the image of the image, and the projection unit projects the region processed image generated by the region processed image generation unit as the projection image. Features.
According to this configuration, when a person or an object overlaps with the projection image, a portion away from the projection image by a predetermined distance can be indicated by the predetermined image.
本発明によれば、プレゼンタによって人物の顔に対応する部分が所定の色で置換された画像が投影されるため、人物の顔に画像に係る情報が投影されることを防止でき、視聴者のプレゼンテーション内容への集中が妨げられることを防止できる。 According to the present invention, an image in which a portion corresponding to a person's face is replaced with a predetermined color by a presenter is projected, so that information relating to the image can be prevented from being projected onto the person's face, and the viewer's It is possible to prevent the concentration on the presentation contents from being hindered.
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用した実施形態に係るプロジェクタ1の使用状態の例を示す図である。
プロジェクタ1は、投影レンズ部16から光を発することにより、投影レンズ部16から離れて設置されたスクリーン2に、投影画像2aを投影する装置である。図1に示すように、スクリーン2に投影される投影画像2aには、情報画像2bが含まれている。情報画像2bとは、投影画像2aに含まれる画像のうち、背景以外の、文字、写真、絵、図形、表、グラフ、記号等の各種情報に係る画像のことである。
このプロジェクタ1は、例えば、プレゼンタ3によるプレゼンテーションに利用される。プレゼンタ3は、適宜、スクリーン2に投影された情報画像2bを指し示しながらプレゼンテーションを行うことにより、効果的で、分かりやすいプレゼンテーションを行うことができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an example of a usage state of a
The
The
図2はプロジェクタ1の機能的構成を示すブロック図である。
図2に示すように、プロジェクタ1は、記録媒体読取装置11と、操作部12と、投影部13と、撮影部14と、制御部20と、を備えている。
記録媒体読取装置11は、次世代DVD、DVD或いはCD等の光学的記録媒体、半導体記憶素子を用いたメモリデバイス、磁気的記録媒体等の記録媒体に記録された投影対象画像データTD等の各種データを読み出して制御部20に出力するものであり、具体的には、DVDプレーヤやメモリカードリーダ等である。投影対象画像データTDとは、プロジェクタ1によって投影される投影画像2aの基となる画像データのことである。制御部20は、記録媒体読取装置11から入力された投影対象画像データTDを記憶部22に記憶する。
操作部12は、プロジェクタ1の電源のON/OFFを切り替える電源スイッチや、投影開始/終了を指示するスイッチ、投影画像2aの明るさ調整用のスイッチ等の各種スイッチ類を備え、これらスイッチの操作に応じて操作信号を制御部20に出力する。また、操作部12は、上記の各種スイッチを備えた図示しないリモートコントローラを有するものとしてもよい。
投影部13は、高圧水銀ランプ等の光源ランプを備えた光源(図示略)、透過型の液晶表示パネルからなる液晶ライトバルブ(図示略)、投射レンズ等を備えた投射光学系(図示略)等を備えて構成され、制御部20の制御に従って光学像を形成し、投影レンズ部16(図1)からスクリーン2に投影する。
撮影部14は、制御部20の制御の下、投影画像2aが投影された状態のスクリーン2を撮影するものであり、CCDイメージセンサやCMOSイメージセンサ等の撮像素子(図示略)、撮影レンズ群(図示略)、ズームやフォーカス等の調整を行うためにレンズ群を駆動するレンズ駆動部(図示略)等を備えている。撮影部14は、撮像素子から出力されるデータを所定形式のデータに変換することにより、撮影画像データSDを生成し、生成した撮影画像データSDを制御部20に出力する。制御部20は、入力された撮影画像データSDを後述する記憶部22に随時記憶する。
FIG. 2 is a block diagram showing a functional configuration of the
As shown in FIG. 2, the
The recording medium reader 11 includes various types of projection target image data TD recorded on a recording medium such as an optical recording medium such as a next-generation DVD, DVD or CD, a memory device using a semiconductor storage element, and a magnetic recording medium. Data is read out and output to the
The operation unit 12 includes various switches such as a power switch for switching on / off the power of the
The projection unit 13 includes a light source (not shown) provided with a light source lamp such as a high-pressure mercury lamp, a liquid crystal light valve (not shown) composed of a transmissive liquid crystal display panel, a projection optical system (not shown) provided with a projection lens and the like. The optical image is formed under the control of the
The imaging unit 14 shoots the
制御部20は、プロジェクタ1の各部を中枢的に制御するものであり、演算実行手段としてのCPU(Central Processing Unit)や、このCPUに実行される基本制御プログラムや、この基本制御プログラムに係るデータ等を不揮発的に記憶するROM(Read Only Memory)、CPUに実行されるプログラムやこのプログラムに係るデータ等を一時的に記憶するRAM(Random Access Memory)、その他の周辺回路等を備えている。制御部20は、記録媒体読取装置11から投影対象画像データTDが入力され、また、撮影部14から撮影画像データSDが入力される信号入力部21と、投影対象画像データTDや、撮影画像データSD、後述する顔領域加工画像データKD、ポイント付加画像データPD等の各種画像データを記憶する記憶部22と、この記憶部22に記憶された各種画像データに基づいて描画される画像を記憶するフレームメモリ24と、投影部13により光学像を投影させる液晶パネル駆動制御部25と、顔領域検出部30と、顔領域加工画像生成部31(領域加工画像生成部)と、腕領域検出部32と、ポイント付加画像生成部33(領域加工画像生成部)と、を備えている。
The
制御部20は、記憶部22に記憶された各種画像データに基づいて画像をフレームメモリ24に描画する。続いて、制御部20は、液晶パネル駆動制御部25が備えるパネル駆動部26によって、投影部13の液晶表示パネルを駆動し、フレームメモリ24に描画された画像を液晶表示パネルに表示させる。
また、制御部20の液晶パネル駆動制御部25は、台形歪み補正部27を備えている。制御部20は、台形歪み補正部27の機能により、撮影制御部34を制御して撮影部14により撮影を行わせ、撮影画像データSDに基づいて投影画像2aにおける台形歪みを検出し、この台形歪みを相殺するためのパラメータを算出する。そして、制御部20は、パネル駆動部26によって、投影部13の液晶表示パネルに、算出したパラメータに基づいて歪ませた画像を描画させる処理を行う。
The
In addition, the liquid crystal panel
制御部20の顔領域検出部30は、撮影部14から入力された撮影画像データSDに基づく画像(以下、「撮影画像SG」という)に含まれる人物の顔領域を検出するものである。ここで、撮影画像SGに人物が含まれる場合について説明すると、ある人物がプロジェクタ1とスクリーン2の間に介在した場合、撮影部14によってこの人物が撮影されるため、撮影部14によって生成された撮影画像SGに人物が含まれることとなる。特に、プレゼンタ3(図1)がプレゼンテーションを行っている場合、プレゼンテーションの過程でスクリーン2の前に移動することがあり、この場合、撮影部14によってプレゼンタ3が撮影され、撮影部14によって生成された撮影画像SGにプレゼンタ3が含まれることとなる。
なお、本実施形態では、説明の便宜のため、プレゼンテーションを行っているプレゼンタ3(図1)のみが、プロジェクタ1とスクリーン2との間に介在する可能性があるものとする。
ここで、顔領域検出部30の具体的な動作について説明する。
The face
In the present embodiment, for the convenience of explanation, it is assumed that only the presenter 3 (FIG. 1) who is presenting may be interposed between the
Here, a specific operation of the face
図3は、顔領域検出部30の動作を説明するための図であり、(A)は、撮影部14によって生成された撮影画像SGの一例を示し、(B)は、投影対象画像データTDに基づく画像(以下、「投影対象画像TG」という)の一例を示し、(C)は、差分画像BG(後述)の一例を示す。
まず、顔領域検出部30は、スクリーン2に現在投影している投影画像2aに係る投影対象画像データTDを記憶部22から取得する。併せて、顔領域検出部30は、記憶部22に記憶された直近の撮影画像データSDを取得する。ここで取得された撮影画像データSDは、撮影部14によって、取得された投影対象画像データTDに係る投影画像2aが撮影され、生成されたものであり、これら撮影画像データSDと投影対象画像データTDとは、互いに対応したデータである。
次いで、顔領域検出部30は、取得した撮影画像データSDに係る撮影画像SG(図3(A))と、取得した投影対象画像データTDに係る投影対象画像TG(図3(B))と、を比較する。この比較に際し、顔領域検出部30は、図3(A)に示す撮影画像SGにおいて、投影対象画像TGと比較すべき部分を抽出する。具体的には、図3(A)に示すように、撮影画像SGのうち、投影対象画像TGと対応する部分を比較画像HGとして抽出する。さらに、顔領域検出部30は、抽出した比較画像HGに対し、ゆがみ補正、明度、輝度の補正を含む正規化を行い、比較画像HGと投影対象画像TGとの比較が正常に行われるよう調整する。これにより、撮影部14によってプレゼンタ3が撮影されておらず、撮影画像SGにプレゼンタ3が含まれていない場合は、比較画像HGと、投影対象画像TGとの間に差分が検出されないように、または、差分が閾値以下となるように調整される。
3A and 3B are diagrams for explaining the operation of the face
First, the face
Next, the face
撮影画像SGと投影対象画像TGとを比較した後、顔領域検出部30は、比較結果に基づいて、これらデータの差分を検出し、検出した差分に基づいて差分画像BG(図3(C))を生成する。差分画像BGは、プロジェクタ1とスクリーン2との間に人物が介在した場合に、撮影部14がこの人物を撮影することによって生じる画像である。本実施形態では、プロジェクタ1とスクリーン2との間に介在する可能性がある人物はプレゼンタ3のみであるため、ここで生成された差分画像BGは、プレゼンタ3がプロジェクタ1とスクリーン2との間に介在したことに起因して生じたものである。次いで、顔領域検出部30は、差分画像BGからプレゼンタ3の顔領域を検出する。顔領域の検出は、例えば、顔を表すテンプレートを用いたパターンマッチング等の既存の技術を用いることができる。
このように、本実施形態に係る顔領域検出部30は、撮影画像SGからプレゼンタ3の顔領域を検出するに際し、撮影画像SGと投影対象画像TGとの比較結果に基づいて差分画像BGを生成し、この差分画像BGから顔領域を検出する。この差分画像BGは、プレゼンタ3がプロジェクタ1とスクリーン2との間に介在したことに起因して生じた画像である。このため、撮影画像SG全体からパターンマッチング等の手法を用いてプレゼンタ3の顔領域を検出する場合と比較し、顔領域を検出すべき範囲が絞り込まれるため、効率的かつ高精度な顔領域検出が可能となる。
なお、上述した動作において、制御部20は、投影対象画像TGと撮影画像SGとを比較し、画像が異なる領域を検出し、差分画像BGを生成する領域検出部として機能する。
After comparing the captured image SG with the projection target image TG, the face
As described above, when detecting the face area of the
In the above-described operation, the
制御部20の顔領域加工画像生成部31は、顔領域検出部30が検出した撮影画像SGにおける顔領域に基づいて、この撮影画像データSDと対応する投影対象画像TGにおける上記顔領域と対応する領域を特定する。そして、顔領域加工画像生成部31は、投影対象画像TGの上記特定した領域を所定の色に置換した画像である顔領域加工画像KGを生成すると共に、この顔領域加工画像KGに係る顔領域加工画像データKDを生成し、記憶部22に記憶するものである。
ここで、顔領域加工画像生成部31の具体的な動作の一例について図4を用いて説明する。
The face region processed image generation unit 31 of the
Here, an example of a specific operation of the face area processed image generation unit 31 will be described with reference to FIG.
図4は、顔領域加工画像生成部31の動作を説明するための図であり、(A)は、撮影画像SGの一例を示し、(B)は、顔領域加工画像KGの一例を示す。
例えば、顔領域加工画像生成部31は、撮影画像SGにおける顔領域40(図4(A))を示す座標値を取得すると共に、投影対象画像TGにおける上記取得した座標値と対応する座標値を算出し、この算出した座標値が示す領域を顔領域に対応する領域(以下、「顔対応領域」という)として特定する。次いで、顔領域加工画像生成部31は、投影対象画像TGの顔対応領域を所定の色に置換した画像である顔領域加工画像KG(図4(B))を生成すると共に、この画像に係る顔領域加工画像データKDを生成し、記憶部22に記憶する。
このように、顔領域加工画像KGは、プレゼンタ3の顔に該当する部分を所定の色で置換した画像である。このため、顔領域加工画像KGをプロジェクタ1が投影した場合、プレゼンタ3の顔に相当する部分に、情報画像2bに代えて、所定の色が投影された状態となる。この場合、スピーチによる口の動きや、スクリーン2の確認のための首の動き等、プレゼンテーションに伴う動きが比較的多い箇所であるプレゼンタ3の顔に、情報画像2bが表示されることを防止でき、視聴者のプレゼンテーション内容への集中が妨げられない。
4A and 4B are diagrams for explaining the operation of the face area processed image generation unit 31. FIG. 4A shows an example of the captured image SG, and FIG. 4B shows an example of the face area processed image KG.
For example, the face area processed image generation unit 31 acquires coordinate values indicating the face area 40 (FIG. 4A) in the captured image SG, and sets coordinate values corresponding to the acquired coordinate values in the projection target image TG. The area indicated by the calculated coordinate value is specified as an area corresponding to the face area (hereinafter referred to as “face corresponding area”). Next, the face area processed image generation unit 31 generates a face area processed image KG (FIG. 4B), which is an image obtained by replacing the face corresponding area of the projection target image TG with a predetermined color, and relates to this image. Face area processed image data KD is generated and stored in the storage unit 22.
Thus, the face region processed image KG is an image obtained by replacing a portion corresponding to the face of the
ここで、顔領域加工画像KGの顔対応領域の所定の色について詳述する。
本実施形態では、所定の色とは、第1の基準明度よりも明度を落とした色のことである。第1の基準明度とは、この第1の基準明度を有する色からなる画像を投影部13によってプレゼンタ3の顔に対して投影した場合において、このプレゼンタ3が眩しさを感じないような明度のことである。所定の色を、第1の基準明度よりも明度を落とした色とすることによって、プレゼンタ3の顔に情報画像2bが表示されることを防止できるという効果のほか、以下の効果を奏することができる。すなわち、顔領域加工画像データKDに係る画像をプロジェクタ1によって投影した場合、プレゼンタ3の顔に相当する部分に、第1の基準明度よりも明度を落とした色が投影された状態となる。従って、プレゼンタ3が眩しさを感じることがなく、プレゼンタ3が自然な表情でプレゼンテーションを行うことができるようになると共に、プレゼンタ3の目を傷めるリスクを低減することができる。
Here, the predetermined color of the face corresponding area of the face area processed image KG will be described in detail.
In the present embodiment, the predetermined color is a color whose brightness is lower than the first reference brightness. The first reference lightness is such a lightness that the
制御部20の腕領域検出部32は、顔領域検出部30が検出した顔領域に基づいて、撮影画像SGから人物の腕領域を検出するものである。ここで、腕領域検出部32の具体的な動作の一例について説明する。
腕領域検出部32は、顔領域検出部30が生成した差分画像における顔領域の位置から、差分画像における腕領域の位置を推定する。なお、差分画像は、プレゼンタ3の存在によって生じた差分に基づいて生成された画像であり、腕領域は差分画像に含まれている。
次いで、腕領域検出部32は、差分画像において腕領域の位置として推定した範囲について、例えば、パターンマッチング等の方法により、腕領域を特定する。腕領域の特定に際し、プレゼンタ3が着用している服から露出した腕部分を肌色検出により検出して、腕領域を特定してもよい。さらに、本実施形態に係る腕領域検出部32は、パターンマッチングや、肌色検出等の手段により、検出した腕領域のうち、手に相当する領域(以下、「手領域」という)を検出する。
The arm
The arm
Next, the arm
制御部20のポイント付加画像生成部33は、顔領域加工画像生成部31が生成した顔領域加工画像KGにおいて、腕領域検出部32が検出した腕領域に対応する箇所にポイントを付加した画像であるポイント付加画像PGを生成すると共に、このポイント付加画像PGに係るポイント付加画像データPDを生成し、このポイント付加画像データPDを記憶部22に記憶するものである。ここで、ポイント付加画像生成部33の具体的な動作の一例について図5を用いて説明する。
The point addition image generation unit 33 of the
図5は、ポイント付加画像生成部33の動作を説明するための図であり、(A)は、撮影画像SGの一例を示し、(B)は、ポイント付加画像PGの一例を示す。
ポイント付加画像生成部33は、撮影画像SGにおける腕領域のうち手領域41(図5(A))を示す座標値を取得すると共に、顔領域加工画像KGにおける上記取得した座標値と対応する座標値を算出し、この算出した座標値が示す領域を手領域に対応する領域(以下、「手対応領域」という)として特定する。次いで、ポイント付加画像生成部33は、顔領域加工画像KGの手対応領域にポイントP(図5(B))を付加したポイント付加画像PGを生成し、このポイント付加画像PGに係るポイント付加画像データPDを生成する。
このように、ポイント付加画像生成部33は、手対応領域に対応する箇所にポイントを付加したポイント付加画像PGを生成するが、この生成したポイント付加画像PGを投影部13によって投影した場合、プレゼンタ3が指し示す箇所に、自動で、ポイントPが表示された状態となる。従って、プレゼンタ3が、指示棒やレーザポインタ等の特別な部材、機器を保持することなく、指し示す場所にポイントを表示することができ、プレゼンタ3の利便性を向上することができる。
なお、手対応領域にポイントPを付加する場合を例にして説明したが、ポイントPを付加する場所は、これに限らず、腕領域検出部32が検出した腕領域の形状から、腕が伸びる方向を特定し、この特定した方向の延長線上にポイントPを付加するようにしてもよい。また、手領域41に対応する位置等から所定距離離れた位置にある所定の領域にポイントPを付加するようにしてもよい。
5A and 5B are diagrams for explaining the operation of the point-added image generation unit 33. FIG. 5A illustrates an example of the captured image SG, and FIG. 5B illustrates an example of the point-added image PG.
The point addition image generation unit 33 acquires coordinate values indicating the hand region 41 (FIG. 5A) in the arm region in the captured image SG, and coordinates corresponding to the acquired coordinate values in the face region processed image KG. A value is calculated, and an area indicated by the calculated coordinate value is specified as an area corresponding to the hand area (hereinafter referred to as “hand corresponding area”). Next, the point addition image generation unit 33 generates a point addition image PG in which the point P (FIG. 5B) is added to the hand corresponding region of the face region processed image KG, and the point addition image related to the point addition image PG. Data PD is generated.
As described above, the point-added image generation unit 33 generates the point-added image PG in which a point is added to a location corresponding to the hand-corresponding region. When the generated point-added image PG is projected by the projection unit 13, the presenter The point P is automatically displayed at the location indicated by 3. Therefore, the
Although the case where the point P is added to the hand corresponding area has been described as an example, the place where the point P is added is not limited to this, and the arm extends from the shape of the arm area detected by the arm
次いで、本実施形態に係るプロジェクタ1の動作について説明する。
図6は、プロジェクタ1の動作を示すフローチャートである。
まず、制御部20の顔領域検出部30は、撮影画像データSDを所定周期でサンプリングし、サンプリングした撮影画像SGに含まれる顔領域を検出する(ステップSA1)。さらに、制御部20は、顔領域検出部30によって撮影画像SGに顔領域が検出されたか否かを判別する(ステップSA2)。顔領域検出部30によって撮影画像SGに顔領域が検出された場合(ステップSA2:YES)、制御部20の顔領域加工画像生成部31は、顔領域加工画像データKDを生成し、記憶部22に記憶する(ステップSA3)。次いで、制御部20は、ポイント付加画像生成部33によってポイント付加画像データPDを生成する必要があるか否かを判別する(ステップSA4)。ここで、ステップSA4の処理について具体例を挙げて説明する。
Next, the operation of the
FIG. 6 is a flowchart showing the operation of the
First, the face
例えば、制御部20は、事前に、撮影画像データSDを所定周期でサンプリングして、サンプリングした撮影画像データSD毎に腕領域検出部32によって腕領域を検出すると共に、この腕領域の状態の変化を検出することにより、一定時間(例えば2〜3秒)以上の間、人物の腕の状態が所定の範囲以内でしか変化していないか否かを判別する。そして、一定時間以上の間、腕の状態が所定の範囲以内でしか変化していない場合は、ステップSA4の処理において、ポイント付加画像生成部33によってポイント付加画像データPDを生成する必要があると判別する。これは、一定時間以上、腕の状態が所定の範囲以内でしか変化していない場合、プレゼンタ3がスクリーン2を指し示している状態であり、このため、腕の状態が変化していないとみなすことができるためである。
また、例えば、制御部20は、腕領域検出部32によって腕領域及び手領域を検出し、手領域の位置が所定の位置(例えば、顔領域が存在する位置)より高い場合は、ステップSA4の処理において、ポイント付加画像データPDを生成する必要があると判別する。これは、手領域が所定の位置より高い場合、プレゼンタ3が、スクリーン2を指し示す目的を持って、意図的に手を挙げている状態とみなすことができるためである。
For example, the
Further, for example, the
ステップSA4において、ポイント付加画像データPDを生成する必要があると判別した場合(ステップSA4:YES)、制御部20は、ポイント付加画像生成部33によってポイント付加画像データPDを生成し、記憶部22に記憶する(ステップSA5)。そして、制御部20は、ステップSA5で生成、記憶したポイント付加画像PGを投影画像2aとしてスクリーン2に投影する(ステップSA6)。ここでスクリーン2に投影される投影画像2aは、上述したように、プレゼンタ3の顔に相当する部分が所定の色に置換された画像であるため、プレゼンタ3の顔に相当する部分に、情報画像2bに代えて、所定の色が投影された状態となる。これにより、スピーチによる口の動きや、スクリーン2の確認のための首の動き等、プレゼンテーションに伴う動きが比較的多い箇所であるプレゼンタ3の顔に、情報画像2bが表示されることを防止でき、プレゼンテーションの視聴者の集中力が妨げられない。また、ここでスクリーン2に投影される投影画像2aには、自動で、ポインタが付加されているため、上述したように、プレゼンタ3の利便性が向上する。
When it is determined in step SA4 that the point-added image data PD needs to be generated (step SA4: YES), the
一方、ポイント付加画像データPDを生成する必要がないと判別した場合(ステップSA4:NO)、制御部20は、ステップSA3で生成、記憶した顔領域加工画像KGを投影部13を介してスクリーン2に投影する(ステップSA7)。ここでスクリーン2に投影される投影画像2aは、上述したように、プレゼンタ3の顔に相当する部分が所定の色に置換された画像である。
制御部20は、上述した処理を所定間隔(例えば、1秒毎)で繰り返す。これにより、プレゼンタ3の顔が移動した場合であっても、この顔の移動に追従して、プレゼンタ3の顔に相当する部分に、情報画像2bに変えて、所定の色が投影された状態が維持される。
On the other hand, when it is determined that it is not necessary to generate the point-added image data PD (step SA4: NO), the
The
以上説明したように、本発明によれば、プロジェクタ1とスクリーン2との間にプレゼンタ3が介在している場合、顔領域加工画像生成部31によって生成された顔領域加工画像KGが投影部13によって投影される。ここで、顔領域加工画像KGは、プレゼンタ3の顔に該当する部分を所定の色で置換した画像である。このため、顔領域加工画像データKDに係る画像を投影部13が投影した場合、プレゼンタ3の顔に相当する部分に、情報画像2bに代えて、所定の色が投影された状態となる。この場合、スピーチによる口の動きや、スクリーン2の確認のための首の動き等、プレゼンテーションに伴う動きが比較的多い箇所であるプレゼンタ3の顔に、情報画像2bが表示されることを防止でき、プレゼンテーション内容への視聴者の集中が妨げられることがない。
As described above, according to the present invention, when the
また、本実施の形態によれば、顔領域検出部30は、投影対象画像TGと、この投影対象画像に対応する撮影画像SGとの比較結果に基づいて、顔領域を検出する。具体的には、顔領域検出部30は、撮影画像SGからプレゼンタ3の顔領域を検出するに際し、撮影画像SGと投影対象画像TGとの比較結果に基づいて差分画像を生成し、この差分画像から顔領域を検出する。この差分画像は、プレゼンタ3がプロジェクタ1とスクリーン2との間に介在したことに起因して生じた画像である。このため、撮影画像データSD全体からパターンマッチング等の手法を用いてプレゼンタ3の顔領域を検出する場合と比較し、顔領域を検出すべき範囲が絞り込まれるため、効率的かつ高精度な顔領域検出が可能となる。
Further, according to the present embodiment, the face
また、本実施形態では、顔領域加工画像KGの顔対応領域の所定の色とは、第1の基準明度よりも明度を落とした色のことである。第1の基準明度とは、この第1の基準明度を有する色からなる画像をプロジェクタ1によってプレゼンタ3の顔に対して投影した場合において、このプレゼンタ3が眩しさを感じないような明度のことである。所定の色を、第1の基準明度よりも明度を落とした色とすることによって、プレゼンタ3の顔に情報画像2bが表示されることを防止できるという効果のほか、以下の効果を奏することができる。すなわち、顔領域加工画像データKDに係る画像をプロジェクタ1によって投影した場合、プレゼンタ3の顔に相当する部分に、第1の基準明度よりも明度を落とした色が投影された状態となる。従って、プレゼンタ3が眩しさを感じることがなく、プレゼンタ3が自然な表情でプレゼンテーションを行うことができるようになると共に、プレゼンタ3の目を傷めるリスクを低減することができる。
In the present embodiment, the predetermined color of the face-corresponding area of the face area processed image KG is a color whose brightness is lower than the first reference brightness. The first reference brightness is a brightness at which the
また、本実施形態に係るプロジェクタ1は、ポイント付加画像データPDを生成するポイント付加画像生成部33を備えている。ポイント付加画像生成部33が生成したポイント付加画像PGをプロジェクタ1によって投影した場合、プレゼンタ3が指し示す箇所に、自動で、ポイントが表示された状態となる。従って、プレゼンタ3が、指示棒やレーザポインタ等の特別な部材、機器を保持する必要がなく、プレゼンタ3の利便性を向上することができる。
In addition, the
また、本実施形態に係るプロジェクタ1は、領域検出部によって投影対象画像TGと撮影画像SGとを比較し、画像が異なる領域を検出すると、検出された領域(差分画像BG)内の少なくとも一部(例えば、顔領域)を所定の色に置換して顔領域加工画像KG等の領域加工画像を生成する。この領域加工画像が投影部13によって投影された場合、人物や物が投影画像にオーバーラップした際に、その部分を所定の色にして目立たなくすることができ、黒色系の色にすれば人物の目に入る光のまぶしさを軽減できる。
In addition, when the
また、本実施形態に係るプロジェクタ1は、上述したように、領域検出部によって投影対象画像TGと撮影画像SGとを比較して、画像が異なる領域を検出し、領域検出部によって検出された領域(例えば、手領域41)から所定距離離れた位置にある所定の領域を所定の画像(ポイントP)に置換する構成であってもよい。
この構成によれば、人物や物が投影画像にオーバーラップしたとき、そこから所定距離離れた部分を所定の画像で指し示すことができる。
In addition, as described above, the
According to this configuration, when a person or an object overlaps with the projection image, a portion away from the projection image by a predetermined distance can be indicated by the predetermined image.
なお、上述した各実施形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。
例えば、上述した実施形態では、所定の色として、第1の基準明度よりも明度を下げた色を例にして説明した。しかしながら、所定の色は、第2の基準明度よりも明度を上げた色であってもよい。ここで、第2の基準明度とは、この第2の基準明度を有する色からなる画像をプロジェクタ1によってプレゼンタ3の顔に対して投影した場合、このプレゼンタ3の顔の表情を、プレゼンテーションの視聴者が視認できるような明度のことである。所定の色を、第2の基準明度よりも明度を上げた色とすることによって、プレゼンタ3の顔に情報画像2bが表示されることを防止できるという効果のほか、以下の効果を奏することができる。すなわち、顔領域加工画像KGをプロジェクタ1によって投影した場合、プレゼンタ3の顔に相当する部分に、第2の基準明度よりも明度を上げた色が投影された状態となるため、プレゼンタ3の表情を、プレゼンテーションの視聴者が視認することができる。従って、視聴者は、プレゼンタ3の表情を視認することによって、例えば、現在、プレゼンタ3が重要なことを話していることを認識したり、現在、プレゼンタ3が情報画像2bのどの部分を見ているかを認識したりすることができ、プレゼンテーションをより深く理解することができるようになる。
The above-described embodiments merely show one aspect of the present invention, and can be arbitrarily modified and applied within the scope of the present invention.
For example, in the above-described embodiment, the predetermined color has been described by taking a color whose brightness is lower than the first reference brightness as an example. However, the predetermined color may be a color whose brightness is higher than the second reference brightness. Here, the second reference brightness is the expression of the face of the
また、上述した実施形態では、顔領域加工画像生成部31は、顔領域加工画像生成部31が生成した顔領域加工画像KGは、プレゼンタの顔に相当する箇所を所定の色に置換した画像であった。しかしながら、顔領域加工画像KGは、プレゼンタの顔に相当する箇所が所定の色に置換された画像ではなく、所定の画像に置換された画像であってもよい。所定の画像としては、例えば、白地に黒の斜線が引かれた画像等がある。この構成であっても、上述した実施形態に係るプロジェクタ1と同様に、プレゼンタ3の顔に情報画像2bが投影されることを防止でき、プレゼンテーション内容への視聴者の集中が妨げない、という効果を奏することができる。
In the above-described embodiment, the face region processed image generation unit 31 is an image in which the face region processed image KG generated by the face region processed image generation unit 31 is an image obtained by replacing a portion corresponding to the face of the presenter with a predetermined color. there were. However, the face region processed image KG may be an image in which a portion corresponding to the face of the presenter is not replaced with a predetermined color but an image replaced with a predetermined image. Examples of the predetermined image include an image in which a black diagonal line is drawn on a white background. Even with this configuration, similarly to the
1…プロジェクタ、2a…投影画像、3…プレゼンタ(人物)、13…投影部、14…撮影部、30…顔領域検出部、31…顔領域加工画像生成部(領域加工画像生成部)、32…腕領域検出部、33…ポイント付加画像生成部(領域加工画像背西部)、KD…顔領域加工画像データ、PD…ポイント付加画像データ、SD…撮影画像データ、TD…投影対象画像データ。
DESCRIPTION OF
Claims (10)
前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、
前記撮影部が生成した前記撮影画像に含まれる人物の顔領域を検出する顔領域検出部と、
前記顔領域検出部によって検出された前記顔領域に基づいて、前記投影対象画像における前記顔領域に対応する領域を特定すると共に、この特定した領域内を所定の色に置換して顔領域加工画像を生成する顔領域加工画像生成部と、を備え、
前記投影部は、前記投影対象画像に代えて、前記顔領域加工画像生成部によって生成された前記顔領域加工画像を前記投影画像として投影すること、
を特徴とするプロジェクタ。 A projection unit that projects the projection target image as a projection image;
An imaging unit that captures an area including at least a part of the projected image and generates a captured image;
A face area detection unit that detects a face area of a person included in the captured image generated by the imaging unit;
Based on the face area detected by the face area detection unit, an area corresponding to the face area in the projection target image is specified, and the specified area is replaced with a predetermined color to process a face area processed image A face region processed image generation unit for generating
The projection unit projects the face region processed image generated by the face region processed image generation unit as the projection image instead of the projection target image.
Projector.
を特徴とする請求項1に記載のプロジェクタ。 The face area detection unit detects the face area based on a comparison result between the projection target image and a captured image corresponding to the projection target image;
The projector according to claim 1.
を特徴とする請求項1または2に記載のプロジェクタ。 The predetermined color is a color having a lightness lower than the first reference lightness;
The projector according to claim 1 or 2.
を特徴とする請求項1または2に記載のプロジェクタ。 The predetermined color is a color having a lightness higher than the second reference lightness;
The projector according to claim 1 or 2.
前記腕領域検出部によって検出された前記腕領域に基づいて、前記顔領域加工画像における前記腕領域に対応する箇所を特定すると共に、この特定した箇所にポイントを付加したポイント付加画像を生成するポイント付加画像生成部と、をさらに備え、
前記投影部は、前記投影対象画像に代えて、前記ポイント付加画像生成部によって生成された前記ポイント付加画像を前記投影画像として投影すること、
を特徴とする請求項1乃至4の何れかに記載のプロジェクタ。 An arm region detection unit that detects an arm region of the person included in the captured image generated by the imaging unit based on the face region detected by the face region detection unit;
Based on the arm region detected by the arm region detection unit, a point corresponding to the arm region in the face region processed image is specified, and a point addition image in which a point is added to the specified portion is generated An additional image generation unit,
The projection unit projects the point addition image generated by the point addition image generation unit as the projection image instead of the projection target image;
The projector according to claim 1, wherein:
前記撮影部が生成した前記撮影画像に含まれる人物の顔領域を検出し、
前記顔領域検出部によって検出された前記顔領域に基づいて、前記投影対象画像における前記顔領域に対応する領域を特定すると共に、この特定した領域内を所定の色に置換して顔領域加工画像を生成し、
前記投影部は、前記投影対象画像に代えて、前記顔領域加工画像生成部によって生成された前記顔領域加工画像を前記投影画像として投影すること、
を特徴とするプロジェクタの制御方法。 A projector control method comprising: a projection unit that projects a projection target image as a projection image; and a photographing unit that photographs a region including at least a part of the projection image and generates a photographed image.
Detecting a human face area included in the captured image generated by the imaging unit;
Based on the face area detected by the face area detection unit, an area corresponding to the face area in the projection target image is specified, and the specified area is replaced with a predetermined color to process a face area processed image Produces
The projection unit projects the face region processed image generated by the face region processed image generation unit as the projection image instead of the projection target image.
A projector control method characterized by the above.
コンピュータを、
前記撮影部が生成した前記撮影画像に含まれる人物の顔領域を検出する顔領域検出手段、
前記顔領域検出手段によって検出された前記顔領域に基づいて、前記投影対象画像における前記顔領域に対応する領域を特定すると共に、この特定した領域内を所定の色に置換して顔領域加工画像を生成する顔領域加工画像生成手段、
前記投影対象画像に代えて、前記顔領域加工画像生成部によって生成された前記顔領域加工画像を前記投影画像として前記投影部によって投影する投影手段、として機能させるための制御プログラム。 A control program for controlling, by a computer, a projector comprising: a projection unit that projects a projection target image as a projection image; and an imaging unit that captures an area including at least a part of the projection image and generates a captured image. There,
Computer
Face area detection means for detecting a face area of a person included in the captured image generated by the imaging unit;
Based on the face area detected by the face area detecting means, an area corresponding to the face area in the projection target image is specified, and the specified area is replaced with a predetermined color to process a face area processed image A face region processed image generating means for generating
A control program for causing the face area processed image generated by the face area processed image generation unit to function as a projection unit that projects by the projection unit as the projection image instead of the projection target image.
前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、
前記投影対象画像と前記撮影画像とを比較し、画像が異なる領域を検出する領域検出部と、
前記領域検出部によって検出された領域内の少なくとも一部を所定の色に置換して領域加工画像を生成する領域加工画像生成部と、を備え、
前記投影部は、前記領域加工画像生成部によって生成された前記領域加工画像を前記投影画像として投影すること、
を特徴とするプロジェクタ。 A projection unit that projects the projection target image as a projection image;
An imaging unit that captures an area including at least a part of the projected image and generates a captured image;
An area detection unit that compares the projection target image and the captured image and detects areas in which the images are different;
A region processed image generation unit that generates a region processed image by replacing at least a part of the region detected by the region detection unit with a predetermined color;
The projection unit projects the region processed image generated by the region processed image generation unit as the projection image;
Projector.
前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、
前記投影対象画像と前記撮影画像とを比較し、画像が異なる領域を検出する領域検出部と、
前記領域検出部によって検出された領域内の少なくとも一部を所定の画像に置換して領域加工画像を生成する領域加工画像生成部と、を備え、
前記投影部は、前記領域加工画像生成部によって生成された前記領域加工画像を前記投影画像として投影すること、
を特徴とするプロジェクタ。 A projection unit that projects the projection target image as a projection image;
An imaging unit that captures an area including at least a part of the projected image and generates a captured image;
An area detection unit that compares the projection target image and the captured image and detects areas in which the images are different;
A region processed image generation unit that generates a region processed image by replacing at least a part of the region detected by the region detection unit with a predetermined image;
The projection unit projects the region processed image generated by the region processed image generation unit as the projection image;
Projector.
前記投影画像の少なくとも一部を含む領域を撮影して、撮影画像を生成する撮影部と、
前記投影対象画像と前記撮影画像とを比較し、画像が異なる領域を検出する領域検出部と、
前記領域検出部によって検出された領域から所定距離離れた位置にある所定の領域を所定の画像に置換した領域加工画像を生成する領域加工画像生成部と、を備え、
前記投影部は、前記領域加工画像生成部によって生成された前記領域加工画像を前記投影画像として投影すること、
を特徴とするプロジェクタ。 A projection unit that projects the projection target image as a projection image;
An imaging unit that captures an area including at least a part of the projected image and generates a captured image;
An area detection unit that compares the projection target image and the captured image and detects areas in which the images are different;
A region processed image generating unit that generates a region processed image in which a predetermined region located at a predetermined distance from the region detected by the region detecting unit is replaced with a predetermined image;
The projection unit projects the region processed image generated by the region processed image generation unit as the projection image;
Projector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008194502A JP2010034820A (en) | 2008-07-29 | 2008-07-29 | Projector, control method of projector, and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008194502A JP2010034820A (en) | 2008-07-29 | 2008-07-29 | Projector, control method of projector, and control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010034820A true JP2010034820A (en) | 2010-02-12 |
Family
ID=41738814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008194502A Withdrawn JP2010034820A (en) | 2008-07-29 | 2008-07-29 | Projector, control method of projector, and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010034820A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120045761A (en) * | 2010-11-01 | 2012-05-09 | 삼성전자주식회사 | Device and method for displaying data in wireless terminal |
JP2013239037A (en) * | 2012-05-15 | 2013-11-28 | Ricoh Co Ltd | Projection device, projection system, projection method, and program |
JP2013239081A (en) * | 2012-05-16 | 2013-11-28 | Ricoh Co Ltd | Projection device, projection system, projection method, and program |
WO2013186994A1 (en) * | 2012-06-15 | 2013-12-19 | 日本電気株式会社 | Projection-type projector, anti-glare method, and program for anti-glare |
JP2014035756A (en) * | 2012-08-10 | 2014-02-24 | Casio Comput Co Ltd | Image processing device, image processing method, and program |
JP2015015677A (en) * | 2013-07-08 | 2015-01-22 | 株式会社デンソー | Projection display device |
JP2017069844A (en) * | 2015-09-30 | 2017-04-06 | ブラザー工業株式会社 | Projection control device, and program |
-
2008
- 2008-07-29 JP JP2008194502A patent/JP2010034820A/en not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120045761A (en) * | 2010-11-01 | 2012-05-09 | 삼성전자주식회사 | Device and method for displaying data in wireless terminal |
KR101714050B1 (en) | 2010-11-01 | 2017-03-08 | 삼성전자주식회사 | Device and method for displaying data in wireless terminal |
US10102786B2 (en) | 2010-11-01 | 2018-10-16 | Samsung Electronics Co., Ltd. | Apparatus and method for displaying data in portable terminal |
JP2013239037A (en) * | 2012-05-15 | 2013-11-28 | Ricoh Co Ltd | Projection device, projection system, projection method, and program |
JP2013239081A (en) * | 2012-05-16 | 2013-11-28 | Ricoh Co Ltd | Projection device, projection system, projection method, and program |
WO2013186994A1 (en) * | 2012-06-15 | 2013-12-19 | 日本電気株式会社 | Projection-type projector, anti-glare method, and program for anti-glare |
JP2014035756A (en) * | 2012-08-10 | 2014-02-24 | Casio Comput Co Ltd | Image processing device, image processing method, and program |
JP2015015677A (en) * | 2013-07-08 | 2015-01-22 | 株式会社デンソー | Projection display device |
JP2017069844A (en) * | 2015-09-30 | 2017-04-06 | ブラザー工業株式会社 | Projection control device, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3640156B2 (en) | Pointed position detection system and method, presentation system, and information storage medium | |
US8727539B2 (en) | Projector and method of controlling projector | |
US11399131B2 (en) | Image processing apparatus capable of displaying region information in a separately recognizable manner, imaging apparatus, and control method | |
US20130021491A1 (en) | Camera Device Systems and Methods | |
JP2010034820A (en) | Projector, control method of projector, and control program | |
KR20090087960A (en) | Image projection apparatus and control method for same | |
JP2005109540A (en) | Projection display device | |
JP2009031334A (en) | Projector and projection method for projector | |
US9973687B2 (en) | Capturing apparatus and method for capturing images without moire pattern | |
US9298246B2 (en) | Information processing device, system, and information processing method | |
JP2013070164A (en) | Imaging device and imaging method | |
CN104658462B (en) | The control method of projector and projector | |
JP2006236195A (en) | Presentation control device | |
US8434879B2 (en) | Control device and projection-type video-image display device | |
JP2019176356A (en) | Projector, and method for controlling projector | |
JP2013125181A (en) | Projector | |
JP2005284874A (en) | Projector and command extraction method | |
JP2013182061A (en) | Projection system | |
US20120218294A1 (en) | Projection-type image display apparatus | |
JP2008283379A (en) | Imaging device and program | |
JP2011108251A (en) | Presentation controller and program | |
JP2012181264A (en) | Projection device, projection method, and program | |
JP2017009909A (en) | Projection type video display system, projection type video display device, and projection correction method | |
JP2009253575A (en) | Projector, program, and storage medium | |
JP2005346012A (en) | Display device, display method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20111004 |