JP5298425B2 - Projector and camera - Google Patents

Projector and camera Download PDF

Info

Publication number
JP5298425B2
JP5298425B2 JP2006334162A JP2006334162A JP5298425B2 JP 5298425 B2 JP5298425 B2 JP 5298425B2 JP 2006334162 A JP2006334162 A JP 2006334162A JP 2006334162 A JP2006334162 A JP 2006334162A JP 5298425 B2 JP5298425 B2 JP 5298425B2
Authority
JP
Japan
Prior art keywords
projection
image
face
unit
face detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006334162A
Other languages
Japanese (ja)
Other versions
JP2008148089A (en
Inventor
宏行 無州
貴則 塩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006334162A priority Critical patent/JP5298425B2/en
Publication of JP2008148089A publication Critical patent/JP2008148089A/en
Application granted granted Critical
Publication of JP5298425B2 publication Critical patent/JP5298425B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Projection Apparatus (AREA)

Description

本発明は、投影装置およびカメラに関する。   The present invention relates to a projection apparatus and a camera.

投射型表示装置による投影中に物体を検出すると、投影像を暗転させる技術が知られている(特許文献1参照)。   A technique for darkening a projected image when an object is detected during projection by a projection display device is known (see Patent Document 1).

特開2000−19637号公報JP 2000-19637 A

従来の技術では、人以外の物が投影領域に入った場合にも反応してしまう問題があった。   In the prior art, there is a problem that a reaction occurs even when an object other than a person enters the projection region.

(1)請求項1に記載の発明による投影装置は、像を形成する素子を発光部で照明して光学像を投影する投射ユニットと、被写体像を撮像し、画像信号を出力する撮像ユニットと、画像から顔を検出する顔検出手段と、前記投射ユニットによる投影中に前記光学像の少なくとも一部または前記光学像の近傍を含む領域を前記撮像ユニットに撮像させ、前記撮像ユニットが出力する画像信号から顔検出するように前記顔検出手段を制御するとともに、前記顔検出手段による検出結果を用いて前記光学像の輝度を制御する制御手段と、を備え、前記制御手段は、前記顔検出手段が顔検出を実行後、前記撮像ユニットが出力する画像信号において前記投射ユニットによる投影像の外側に対応する画像信号で輝度変化が生じた場合、前記顔検出手段に再度顔検出を実行させることを特徴とする。
(2)請求項2に記載の発明による投影装置は、請求項1に記載の投影装置において、前記制御手段は、前記顔検出手段が検出した画像中の顔位置に応じて前記光学像の輝度を制御することを特徴とする。
(3)請求項3に記載の発明による投影装置は、請求項2に記載の投影装置において、前記制御手段は、前記顔位置が前記投射ユニットによる投影範囲内に対応する場合に前記光学像の輝度を通常輝度より下げることを特徴とする。
(4)請求項4に記載の発明による投影装置は、請求項1に記載の投影装置において、被写体までの距離情報を取得する測距手段をさらに備え、前記制御手段は、前記顔検出手段が検出した顔について取得された前記距離情報に応じて前記光学像の輝度を制御することを特徴とする。
(5)請求項5に記載の発明による投影装置は、請求項4に記載の投影装置において、前記制御手段は、前記距離情報が所定距離以下を示す場合に前記光学像の輝度を通常輝度より下げることを特徴とする。
(6)請求項6に記載の発明による投影装置は、請求項1に記載の投影装置において、被写体までの距離情報を取得する測距手段をさらに備え、前記制御手段は、前記顔検出手段が検出した画像中の顔位置および前記顔検出手段が検出した顔について取得された前記距離情報に応じて前記光学像の輝度を制御することを特徴とする。
(7)請求項7に記載の発明による投影装置は、請求項6に記載の投影装置において、前記制御手段は、前記顔位置が前記投射ユニットによる投影範囲に対応し、かつ前記距離情報が所定距離以下を示す場合に前記光学像の輝度を通常輝度より下げることを特徴とする。
(8)請求項8に記載の発明による投影装置は、請求項4〜7のいずれか一項に記載の投影装置において、前記制御手段は、前記測距手段で距離情報を取得不能の場合、前記光学像の投影を停止させることを特徴とする。
(9)請求項9に記載の発明による投影装置は、請求項1に記載の投影装置において、前記制御手段は、前記投射ユニットが投影する画像、および前記撮像ユニットが出力する画像信号からそれぞれ顔検出するように前記顔検出手段を制御するとともに、
前記顔検出手段が、前記投影する画像から検出していない顔を前記画像信号から検出するか否かに応じて前記光学像の輝度を制御することを特徴とする。
(10)請求項10に記載の発明による投影装置は、請求項9に記載の投影装置において、前記制御手段は、前記顔検出手段が、前記投影する画像から検出していない顔を前記画像信号から検出した場合に前記光学像の輝度を通常輝度より下げることを特徴とする。
(11)請求項11に記載の発明による投影装置は、請求項9または10に記載の投影装置において、前記投射ユニットの開口および前記撮像ユニットの開口を縦に並べて配設したことを特徴とする。
(12)請求項12記載の発明による投影装置は、請求項1に記載の投影装置において、前記制御手段は、前記顔検出手段が顔検出を実行してから所定時間が経過した場合、前記顔検出手段に再度顔検出を実行させることを特徴とする。
(13)請求項13記載の発明による投影装置は、請求項1〜12のいずれか一項に記載の投影装置において、前記制御手段は、前記素子に形成する像のうち、前記顔検出手段が検出した顔に対応する領域の前記光学像の輝度が低くなるように前記投射ユニットをさらに制御することを特徴とする。
(14)請求項14に記載の発明によるカメラは、請求項1〜13のいずれか一項に記載の投影装置を備えることを特徴とする。
(1) According to a first aspect of the present invention, there is provided a projection apparatus that projects an optical image by illuminating an element that forms an image with a light emitting unit, an imaging unit that captures a subject image, and outputs an image signal. An image output by the imaging unit by causing the imaging unit to capture at least a part of the optical image or a region including the vicinity of the optical image during projection by the projection unit; Control means for controlling the face detection means so as to detect a face from a signal, and controlling the luminance of the optical image using a detection result by the face detection means, wherein the control means comprises the face detection means After performing face detection, if a luminance change occurs in an image signal corresponding to the outside of the projection image by the projection unit in the image signal output from the imaging unit, the face detection means Characterized in that to execute the degrees face detection.
(2) The projection apparatus according to the invention described in claim 2 is the projection apparatus according to claim 1 , wherein the control means is a luminance of the optical image according to a face position in the image detected by the face detection means. It is characterized by controlling.
(3) The projection apparatus according to the invention described in claim 3 is the projection apparatus according to claim 2 , wherein the control unit is configured to detect the optical image when the face position corresponds to a projection range of the projection unit. It is characterized in that the luminance is lower than the normal luminance.
(4) According to a fourth aspect of the present invention, there is provided a projection apparatus according to the first aspect , further comprising distance measuring means for acquiring distance information to a subject, wherein the control means includes the face detecting means. The brightness of the optical image is controlled in accordance with the distance information acquired for the detected face.
(5) In the projection device according to the invention described in claim 5, in the projection device according to claim 4 , the control means sets the luminance of the optical image to be higher than the normal luminance when the distance information indicates a predetermined distance or less. It is characterized by lowering.
(6) According to a sixth aspect of the present invention, there is provided a projection apparatus according to the first aspect , further comprising distance measuring means for acquiring distance information to a subject, wherein the control means includes the face detecting means. The brightness of the optical image is controlled in accordance with the face position in the detected image and the distance information acquired for the face detected by the face detection means.
(7) The projection apparatus according to the invention described in claim 7 is the projection apparatus according to claim 6 , wherein the control means corresponds to the face position corresponding to a projection range by the projection unit, and the distance information is predetermined. When the distance is equal to or smaller than the distance, the brightness of the optical image is lowered from the normal brightness.
(8) In the projection device according to any one of claims 4 to 7 , the control device according to the invention described in claim 8 is the projection device according to any one of claims 4 to 7 , wherein the distance information cannot be acquired by the distance measurement device. The projection of the optical image is stopped.
(9) In the projection device according to the invention described in claim 9, in the projection device according to claim 1 , the control unit is configured to detect each face from an image projected by the projection unit and an image signal output by the imaging unit. Controlling the face detection means to detect,
The face detection means controls the brightness of the optical image according to whether or not a face not detected from the projected image is detected from the image signal.
(10) The projection apparatus according to the invention described in claim 10 is the projection apparatus according to claim 9 , wherein the control means detects the face that the face detection means has not detected from the projected image as the image signal. When detected from the above, the brightness of the optical image is lowered from the normal brightness.
(11) The projection device according to the invention described in claim 11 is characterized in that, in the projection device according to claim 9 or 10 , the opening of the projection unit and the opening of the imaging unit are arranged vertically. .
(12) The projection apparatus according to the invention of claim 12 is the projection apparatus according to claim 1, wherein when the predetermined time elapses after the face detection means performs the face detection, the control means The detection unit is caused to perform face detection again.
(13) The projection device according to the invention described in claim 13 is the projection device according to any one of claims 1 to 12 , wherein the control means includes the face detection means out of images formed on the element. The projection unit is further controlled so that the brightness of the optical image in the region corresponding to the detected face is lowered.
(14) A camera according to a fourteenth aspect of the present invention includes the projection device according to any one of the first to thirteenth aspects.

本発明によれば、人のみに反応して発光輝度を制御できる。   According to the present invention, it is possible to control the light emission luminance in response to only a person.

以下、図面を参照して本発明を実施するための最良の形態について説明する。図1は、本発明の一実施の形態によるプロジェクタ付き電子カメラ(以下、PJ内蔵電子カメラと呼ぶ)を前方から見た図である。図1において、PJ内蔵電子カメラの正面には、撮像光学系121と、投影光学系221と、照明光窓106Aとが設けられている。PJ内蔵電子カメラは、机上などに載置された状態、または不図示のクレードル上に載置された状態で、PJ内蔵電子カメラの前方のスクリーンなどに向けて、内蔵する投射ユニット200(プロジェクタ)によって画像などの投影情報を投影する。PJ内蔵電子カメラの上面には、レリーズボタン103Aが設けられている。後述するカメラユニット100(図2)の撮像光学系121と、投射ユニット200の投影光学系221とは縦方向に並べて配設される。   The best mode for carrying out the present invention will be described below with reference to the drawings. FIG. 1 is a front view of an electronic camera with a projector (hereinafter referred to as a PJ built-in electronic camera) according to an embodiment of the present invention. In FIG. 1, an imaging optical system 121, a projection optical system 221 and an illumination light window 106A are provided in front of the PJ built-in electronic camera. The PJ built-in electronic camera is mounted on a desk or the like, or is mounted on a cradle (not shown), and is built in toward the screen in front of the PJ built-in electronic camera. To project projection information such as an image. A release button 103A is provided on the upper surface of the electronic camera with a built-in PJ. An imaging optical system 121 of a camera unit 100 (FIG. 2) described later and a projection optical system 221 of the projection unit 200 are arranged side by side in the vertical direction.

図2は、PJ内蔵電子カメラの構成を説明するブロック図である。図2においてPJ内蔵電子カメラは、投射ユニット200と、カメラユニット100と、CPU101と、メモリ102と、操作部材103と、液晶モニタ105と、外部インターフェイス(I/F)回路104と、照明装置106とを備え、着脱可能なメモリカード150が実装される。   FIG. 2 is a block diagram illustrating the configuration of the PJ built-in electronic camera. In FIG. 2, the PJ built-in electronic camera includes a projection unit 200, a camera unit 100, a CPU 101, a memory 102, an operation member 103, a liquid crystal monitor 105, an external interface (I / F) circuit 104, and an illumination device 106. And a removable memory card 150 is mounted.

CPU101は、制御プログラムに基づいて、カメラ内各部から入力される信号を用いて所定の演算を行うなどして、カメラ内各部に対する制御信号を送出することにより、PJ内蔵電子カメラの撮影動作および投影動作をそれぞれ制御する。なお、制御プログラムはCPU101内の不図示の不揮発性メモリに格納される。   Based on the control program, the CPU 101 performs a predetermined calculation using a signal input from each part in the camera and sends a control signal to each part in the camera, so that the photographing operation and projection of the PJ built-in electronic camera are performed. Control each action. The control program is stored in a nonvolatile memory (not shown) in the CPU 101.

メモリ102はCPU101の作業用メモリとして使用される。操作部材103はレリーズボタン103Aを含み、操作されたボタンやスイッチに対応する操作信号をCPU101へ送出する。メモリカード150は不揮発性メモリによって構成され、CPU101の指示によりデータの書き込み、保存および読み出しが可能である。   The memory 102 is used as a working memory for the CPU 101. The operation member 103 includes a release button 103A, and sends an operation signal corresponding to the operated button or switch to the CPU 101. The memory card 150 is configured by a nonvolatile memory, and data can be written, stored, and read according to instructions from the CPU 101.

液晶モニタ105は、CPU101からの指示により画像やテキストなどの情報を表示する。テキスト情報は、PJ内蔵電子カメラの操作メニュー、メッセージなどである。外部インターフェイス回路104は、CPU101からの指示により不図示のケーブルまたは無線通信ユニットを介して外部機器(パーソナルコンピュータ、クレードルなど)との間でコマンドおよびデータを送受信する。   The liquid crystal monitor 105 displays information such as images and texts according to instructions from the CPU 101. The text information is an operation menu, a message, and the like of the PJ built-in electronic camera. The external interface circuit 104 transmits / receives commands and data to / from an external device (personal computer, cradle, etc.) via a cable (not shown) or a wireless communication unit according to an instruction from the CPU 101.

カメラユニット100は撮像光学系121、撮像素子122および撮像制御回路123を有し、CPU101からの指示に応じて撮影を行う。撮像光学系121は、撮像素子122の撮像面上に被写体像を結像させる。撮像素子122としては、CCDやCMOS撮像素子などが用いられる。撮像制御回路123は、CPU101からの指示により撮像素子122を駆動制御するとともに、撮像素子122から出力される画像信号に対して所定の信号処理を行う。信号処理後の画像のデータは、所定形式の画像ファイルとしてメモリカード150に記録される。   The camera unit 100 includes an image pickup optical system 121, an image pickup element 122, and an image pickup control circuit 123, and performs shooting according to an instruction from the CPU 101. The imaging optical system 121 forms a subject image on the imaging surface of the imaging element 122. As the image sensor 122, a CCD, a CMOS image sensor, or the like is used. The imaging control circuit 123 controls driving of the imaging element 122 according to an instruction from the CPU 101 and performs predetermined signal processing on an image signal output from the imaging element 122. The image data after the signal processing is recorded in the memory card 150 as an image file in a predetermined format.

照明装置106は、撮影時にCPU101から発光指示された場合に所定光量で閃光発光し、被写体を照明する。照明光は照明光窓106Aを介してカメラ前方へ射出される。   The illumination device 106 flashes with a predetermined light amount to illuminate the subject when a light emission instruction is issued from the CPU 101 during shooting. The illumination light is emitted forward of the camera through the illumination light window 106A.

投射ユニット200は、投影光学系221、液晶パネル222、LED光源223、および投射制御回路224を含む。LED光源223は、供給電流に応じた明るさで液晶パネル222を照明する。液晶パネル222は、投射制御回路224からの駆動信号に応じて光像を生成する。投影光学系221は、液晶パネル222から射出される光像を投射する。投射制御回路224は、CPU101からの指示により、LED光源223および液晶パネル222へ制御信号を送出する。   The projection unit 200 includes a projection optical system 221, a liquid crystal panel 222, an LED light source 223, and a projection control circuit 224. The LED light source 223 illuminates the liquid crystal panel 222 with brightness according to the supply current. The liquid crystal panel 222 generates a light image according to the drive signal from the projection control circuit 224. The projection optical system 221 projects a light image emitted from the liquid crystal panel 222. The projection control circuit 224 sends a control signal to the LED light source 223 and the liquid crystal panel 222 according to an instruction from the CPU 101.

投射ユニット200は、メモリカード150内に保存されている画像データの他、外部インターフェイス回路104を介して外部機器から供給される画像データによる再生画像を投影可能に構成され、CPU101から指示された画像を投影する。   The projection unit 200 is configured to be able to project a reproduction image based on image data supplied from an external device via the external interface circuit 104 in addition to image data stored in the memory card 150, and an image instructed by the CPU 101. Project.

PJ内蔵電子カメラは、カメラユニット100で撮影を行う撮影モードと、投射ユニット200から情報を投影する投影モードとを有する。本実施形態は、投影モードにおいて「安全モード」が指示された場合の動作に特徴を有するので、この動作を中心に説明する。「安全モード」は、投影範囲にプレゼンターなどの「顔」を検出すると光源輝度を抑制するモードである。   The electronic camera with a built-in PJ has a shooting mode for shooting with the camera unit 100 and a projection mode for projecting information from the projection unit 200. Since the present embodiment is characterized by an operation when the “safe mode” is instructed in the projection mode, this operation will be mainly described. The “safe mode” is a mode in which light source luminance is suppressed when a “face” such as a presenter is detected in the projection range.

<顔検出>
PJ内蔵電子カメラは、撮影モード時にオートフォーカス調節の対象とするフォーカスエリアを決定するため、「顔検出」処理を実行可能に構成されている。顔検出は、撮影時の撮影準備画像(いわゆるスルー画像)の中から人物の顔に対応する画像領域を抽出するものである。スルー画像は、撮影指示前に撮像素子122で逐次撮像され、液晶モニタ105に再生表示される画像である。
<Face detection>
The electronic camera with a built-in PJ is configured to execute a “face detection” process in order to determine a focus area that is a target of autofocus adjustment in the shooting mode. Face detection is to extract an image area corresponding to a human face from a shooting preparation image (so-called through image) at the time of shooting. The through image is an image that is sequentially picked up by the image sensor 122 before being instructed to be photographed and reproduced and displayed on the liquid crystal monitor 105.

CPU101は、スルー画像の中から以下のように顔領域を抽出する。抽出方法としては、特開平9−138470号公報に開示されるように、特定色を抽出する方法、特定形状パターンを抽出する方法、背景に相当すると推定される領域を除去する方法等の複数の異なる抽出方法をあらかじめ評価して重みを定め、各抽出方法で主要な被写体像(主要部)を抽出し、抽出された主要部を定めた重みで重み付けし、その結果に応じて主要部を判定および抽出する。   The CPU 101 extracts a face area from the through image as follows. As an extraction method, as disclosed in JP-A-9-138470, there are a plurality of methods such as a method of extracting a specific color, a method of extracting a specific shape pattern, a method of removing a region estimated to correspond to the background, and the like. Evaluate different extraction methods in advance to determine the weight, extract the main subject image (main part) with each extraction method, weight the extracted main part with the determined weight, and determine the main part according to the result And extract.

また、別の主要部抽出方法としては、特開平9−138471号公報に開示されるように、画像中の複数点の濃度または輝度を測定してその変化量を求め、変化量が所定値以上の点を基準点として設定した後に、基準点から所定範囲内で濃度等の変化量等を用いて検索範囲および検索方向パターンを設定し、検索範囲内で検索方向パターンが示す方向における濃度等の変化量が所定値以上の箇所を検索し、次いでこの箇所を基準として検索を行うことを繰り返し、検索・設定した基準点を結んで主要部を抽出する。   As another main part extraction method, as disclosed in Japanese Patent Laid-Open No. 9-138471, the density or luminance of a plurality of points in an image is measured to determine the amount of change, and the amount of change is equal to or greater than a predetermined value. After setting the point as a reference point, a search range and a search direction pattern are set using a change amount of density and the like within a predetermined range from the reference point, and the density and the like in the direction indicated by the search direction pattern within the search range are set. A part where the amount of change is equal to or greater than a predetermined value is searched, and then the search is repeated using this part as a reference, and the main part is extracted by connecting the searched and set reference points.

CPU101は、液晶モニタ105に表示しているスルー画像について顔領域を抽出し、液晶モニタ105に抽出した顔領域を示す表示を行わせる。図3は、この場合における液晶モニタ105の表示画面を例示する図である。図3において、顔30が認識され、認識した顔(上記抽出した顔)を示す枠31がスルー画像に重ねてオーバーレイ表示される。   The CPU 101 extracts a face area from the through image displayed on the liquid crystal monitor 105 and causes the liquid crystal monitor 105 to display the extracted face area. FIG. 3 is a diagram illustrating a display screen of the liquid crystal monitor 105 in this case. In FIG. 3, the face 30 is recognized, and a frame 31 indicating the recognized face (the extracted face) is overlaid on the through image.

CPU101は、このように認識した顔を示す枠31内に対応する画像データを用いてフォーカス調節を行うことにより、認識した顔にピント合わせを行う。複数の顔を認識した場合には、たとえばカメラに最至近の顔を対象にピント合わせを行う。撮像光学系121を構成するフォーカスレンズのピント合わせ後の位置(合焦位置)は、カメラから被写体(顔)までの距離に応じて異なる。   The CPU 101 focuses on the recognized face by performing focus adjustment using image data corresponding to the frame 31 indicating the face recognized in this way. When a plurality of faces are recognized, for example, focusing on the face closest to the camera is performed. The position (focus position) after focusing of the focus lens constituting the imaging optical system 121 differs depending on the distance from the camera to the subject (face).

本実施形態のPJ内蔵電子カメラは、投影モード時にも上記顔認識を行うことにより、LED光源223の発光量を制御する安全モードの動作を行う。   The electronic camera with a built-in PJ according to this embodiment performs a safety mode operation for controlling the light emission amount of the LED light source 223 by performing the face recognition even in the projection mode.

図4および図5は、安全モードの場合にCPU101が実行する光量制御処理の流れを説明するフローチャートである。CPU101は、投影モード時に操作部材103を構成する不図示の安全スイッチからオン操作信号が入力されると、図4による処理を起動する。図4および図5による処理は、不図示の安全スイッチからオフ操作信号が入力されるまで繰り返し行われる。   4 and 5 are flowcharts for explaining the flow of the light amount control processing executed by the CPU 101 in the safety mode. When an on operation signal is input from a safety switch (not shown) that constitutes the operation member 103 in the projection mode, the CPU 101 activates the process illustrated in FIG. 4 and 5 are repeatedly performed until an OFF operation signal is input from a safety switch (not shown).

図4のステップS1において、CPU101はレンズ位置がWIDEか否かを判定する。CPU101は、撮像光学系121を構成するズームレンズの位置が所定位置よりWIDE側にある場合にステップS1を肯定判定してステップS3へ進み、所定位置よりTELE側にある場合にはステップS1を否定判定してステップS2へ進む。   In step S1 of FIG. 4, the CPU 101 determines whether or not the lens position is WIDE. The CPU 101 makes an affirmative decision in step S1 when the position of the zoom lens constituting the imaging optical system 121 is on the WIDE side from the predetermined position, proceeds to step S3, and negates step S1 if it is on the TELE side from the predetermined position. Determine and proceed to step S2.

ステップS2において、CPU101は撮像制御回路123へ指示を送り、ズームレンズを所定のWIDE位置へ移動させてステップS3へ進む。これにより、PJ内蔵電子カメラは、投射ユニット200が投影する投影範囲より広い範囲をカメラユニット100で撮影するように撮影画角が制御される。   In step S2, the CPU 101 sends an instruction to the imaging control circuit 123, moves the zoom lens to a predetermined WIDE position, and proceeds to step S3. As a result, the camera angle of view of the electronic camera with built-in PJ is controlled so that the camera unit 100 captures a range wider than the projection range projected by the projection unit 200.

ステップS3において、CPU101は投射制御回路224へ指示を送り、LED光源223を低輝度で点灯させてステップS4へ進む。低輝度は、LED光源223による通常の点灯輝度(高輝度点灯)に比べて、たとえば半分の輝度に発光量を絞った状態である。これにより、指示されている投影ソース(たとえば、メモリカード150に記録されている画像ファイル)の再生画像が、投射ユニット200からスクリーン(不図示)へ低輝度で投影される。   In step S3, the CPU 101 sends an instruction to the projection control circuit 224, turns on the LED light source 223 with low luminance, and proceeds to step S4. The low luminance is a state in which the light emission amount is reduced to, for example, half the luminance as compared with the normal lighting luminance (high luminance lighting) by the LED light source 223. Thereby, a reproduction image of the designated projection source (for example, an image file recorded in the memory card 150) is projected from the projection unit 200 onto the screen (not shown) with low luminance.

ステップS4において、CPU101は投影面(スクリーン)に焦点合わせが可能か否かを判定する。図6は、カメラユニット100で撮影される撮影画面を例示する図である。図6において、PJ内蔵電子カメラは、投影範囲61より広い撮影範囲60を撮影する。投射ユニット200が低輝度で投影を行うため、撮影範囲60において投影範囲61の外側には枠状に投影範囲外領域62が存在する。投影範囲61は投影範囲外領域62より明るく撮像されることから、CPU101は投影範囲61と投影範囲外領域62との間でコントラスト検出が可能である。   In step S4, the CPU 101 determines whether or not focusing on the projection surface (screen) is possible. FIG. 6 is a diagram illustrating a shooting screen shot by the camera unit 100. In FIG. 6, the PJ built-in electronic camera captures an imaging range 60 wider than the projection range 61. Since the projection unit 200 performs projection with low luminance, a region outside the projection range 62 exists in a frame shape outside the projection range 61 in the imaging range 60. Since the projection range 61 is imaged brighter than the region outside the projection range 62, the CPU 101 can detect contrast between the projection range 61 and the region outside the projection range 62.

CPU101は、カメラユニット100で取得された画像からコントラストを検出した場合にステップS4を肯定判定してステップS5へ進み、カメラユニット100で取得された画像からコントラストを検出できない場合には当該判定処理を繰り返す。   The CPU 101 makes a positive determination in step S4 when the contrast is detected from the image acquired by the camera unit 100 and proceeds to step S5. If the contrast cannot be detected from the image acquired by the camera unit 100, the CPU 101 performs the determination process. repeat.

ステップS5へ進む場合は、CPU101がスクリーンに対してコントラスト方式による焦点調節を行う。具体的には、撮像光学系121のフォーカスレンズを光軸方向に進退移動させながら、撮像素子122から出力される撮像信号に基づいて周知の焦点評価値演算を行うことにより、画像の高周波成分を尖鋭度に置き換えた焦点評価値(コントラスト情報と呼ぶ)を算出する。コントラスト情報は、撮像光学系121が撮像素子122上に尖鋭像を結ぶ合焦状態で最大になるため、コントラスト情報を最大にする位置へフォーカスレンズを移動させる。   When the process proceeds to step S5, the CPU 101 performs focus adjustment by a contrast method on the screen. Specifically, a known focus evaluation value calculation is performed based on the imaging signal output from the imaging element 122 while moving the focus lens of the imaging optical system 121 forward and backward in the optical axis direction, thereby obtaining a high-frequency component of the image. A focus evaluation value (referred to as contrast information) replaced with sharpness is calculated. Since the contrast information is maximized when the imaging optical system 121 is focused on a sharp image on the image sensor 122, the focus lens is moved to a position where the contrast information is maximized.

ステップS5において、CPU101は合焦位置(合焦後のフォーカスレンズ位置)を示すデータをメモリ102の所定領域に記録してステップS6へ進む。ステップS6において、CPU101は顔認識データがあるか否かを判定する。CPU101は、投影中の画像ファイル内に顔領域を示すデータが記録されている場合、当該データを読み出してステップS6を肯定判定し、図5のステップS13へ進む。CPU101は、投影中の画像ファイル内に顔領域を示すデータが記録されていない場合、ステップS6を否定判定してステップS7へ進む。   In step S5, the CPU 101 records data indicating the in-focus position (focus lens position after in-focus) in a predetermined area of the memory 102, and proceeds to step S6. In step S6, the CPU 101 determines whether there is face recognition data. When data indicating a face area is recorded in the image file being projected, the CPU 101 reads the data, makes an affirmative decision in step S6, and proceeds to step S13 in FIG. If the data indicating the face area is not recorded in the image file being projected, the CPU 101 makes a negative determination in step S6 and proceeds to step S7.

ステップS7において、CPU101は、投影中の画像データを対象に顔認識処理を開始してステップS8へ進む。ステップS8において、CPU101は顔認識に必要な特徴点を抽出してステップS9へ進む。ステップS9において、CPU101は顔認識可能か否かを判定する。CPU101は、顔認識できた場合にステップS9を肯定判定してステップS10へ進み、顔認識できなかった場合にはステップS9を否定判定し、図5のステップS13へ進む。   In step S7, the CPU 101 starts face recognition processing for the image data being projected, and proceeds to step S8. In step S8, the CPU 101 extracts feature points necessary for face recognition, and proceeds to step S9. In step S9, the CPU 101 determines whether face recognition is possible. If the face can be recognized, the CPU 101 makes a positive determination in step S9 and proceeds to step S10. If the face cannot be recognized, the CPU 101 makes a negative determination in step S9 and proceeds to step S13 in FIG.

ステップS10において、CPU101は、認識した顔の位置および領域(大きさ)を示すデータを投影中の画像ファイル内に記録して図5のステップS13へ進む。記録データは、たとえば、メモリ102内に展開した画像データ中で顔を示す枠31に対応するデータの座標と範囲を表す。   In step S10, the CPU 101 records the data indicating the recognized face position and area (size) in the image file being projected, and proceeds to step S13 in FIG. The recorded data represents, for example, the coordinates and range of data corresponding to the frame 31 indicating the face in the image data developed in the memory 102.

図5のステップS22を肯定判定した場合、またはステップS25を肯定判定した場合に進むステップS11において、CPU101は投影している画像が同じか否かを判定する。CPU101は、前回顔認識を行った時点と同じ画像を投影している場合はステップS11を肯定判定して図5のステップS13へ進む。CPU101は、同じ画像を投影していない場合にはステップS11を否定判定し、ステップS4へ戻る。   In step S11 that proceeds when step S22 in FIG. 5 is affirmatively determined or when step S25 is affirmatively determined, the CPU 101 determines whether or not the projected images are the same. If the CPU 101 is projecting the same image as when the previous face recognition was performed, the CPU 101 makes a positive determination in step S11 and proceeds to step S13 in FIG. If the same image is not projected, the CPU 101 makes a negative determination in step S11 and returns to step S4.

上記ステップS11の判定処理では、静止画像を投影している場合またはスライドショー投影している場合において、顔認識を行った時点と同じコマの画像を投影していればステップS13へ進む。一方、静止画像またはスライドショー投影している場合において顔認識を行った時点と異なるコマの画像を投影している場合、および動画像を投影している場合は、いずれもステップS4へ戻る。ステップS4へ戻る場合は投影中の画像を対象に顔認識処理を再び行い、ステップS13へ進む場合はスルー画像を対象に顔認識処理を行う。   In the determination process of step S11, when a still image is projected or a slide show is projected, the process proceeds to step S13 if an image of the same frame as that at the time of face recognition is projected. On the other hand, if a still image or a slide show is being projected, an image of a frame different from the point at which face recognition was performed is projected, and if a moving image is being projected, the process returns to step S4. When returning to step S4, face recognition processing is performed again on the image being projected, and when proceeding to step S13, face recognition processing is performed on the through image.

図5のステップS13において、CPU101は、撮影データ(投影中の投影画像を撮像したスルー画像)を対象に顔認識処理を開始してステップS14へ進む。ステップS14において、CPU101は顔認識に必要な特徴点を抽出してステップS15へ進む。ステップS15において、CPU101は顔認識可能か否かを判定する。CPU101は、顔認識できた場合にステップS15を肯定判定してステップS16へ進み、顔認識できなかった場合にはステップS15を否定判定し、ステップS21へ進む。   In step S13 of FIG. 5, the CPU 101 starts face recognition processing on the photographic data (through image obtained by capturing the projected image being projected), and proceeds to step S14. In step S14, the CPU 101 extracts feature points necessary for face recognition, and proceeds to step S15. In step S15, the CPU 101 determines whether face recognition is possible. If the face can be recognized, the CPU 101 makes a positive determination in step S15 and proceeds to step S16. If the face cannot be recognized, the CPU 101 makes a negative determination in step S15 and proceeds to step S21.

ステップS16において、CPU101は投影データと撮影データ(スルー画像)とを比較判定してステップS17へ進む。比較判定は、両画像において認識した顔の位置および領域を対象にする。ステップS17において、CPU101は、投影データから認識されていない顔が撮影データから認識されたか否かを判定する。CPU101は、ステップS10において記録したデータに対応しない顔がスルー画像から認識された場合にステップS17を肯定判定してステップS18へ進む。一方、CPU101は、ステップS10において記録したデータに対応する顔のみがスルー画像から認識された場合にステップS17を否定判定してステップS21へ進む。   In step S16, the CPU 101 compares and determines the projection data and the shooting data (through image), and proceeds to step S17. The comparison determination is performed on the face positions and areas recognized in both images. In step S <b> 17, the CPU 101 determines whether a face that has not been recognized from the projection data has been recognized from the shooting data. If a face that does not correspond to the data recorded in step S10 is recognized from the through image, the CPU 101 makes a positive determination in step S17 and proceeds to step S18. On the other hand, if only the face corresponding to the data recorded in step S10 is recognized from the through image, the CPU 101 makes a negative determination in step S17 and proceeds to step S21.

図6に例示したスルー画像において、顔30Aが認識されている。認識した顔を示す枠31Aは、投影データにおいて認識された顔枠31(図3)に対応する。スルー画像において他に顔が認識されない場合、CPU101はステップS17を否定判定する。   In the through image illustrated in FIG. 6, the face 30 </ b> A is recognized. A frame 31A indicating the recognized face corresponds to the face frame 31 (FIG. 3) recognized in the projection data. If no other face is recognized in the through image, the CPU 101 makes a negative determination in step S17.

ステップS18において、CPU101は一番手前(PJ内蔵電子カメラに近い)顔に対して焦点調節を行ってステップS19へ進む。具体的には、当該顔領域に対応する撮像信号に基づいてコントラスト情報を算出し、このコントラストを最大にする位置へフォーカスレンズを移動させる。   In step S18, the CPU 101 performs focus adjustment on the foremost face (close to the electronic camera with a built-in PJ), and proceeds to step S19. Specifically, contrast information is calculated based on the imaging signal corresponding to the face area, and the focus lens is moved to a position that maximizes the contrast.

ステップS19において、CPU101は、一番手前の顔に対する合焦位置が投影面(スクリーン)に対する合焦位置と同じか否かを判定する。CPU101は、メモリ102の所定領域に記録した(ステップS5)合焦位置と一番手前の顔に対する合焦位置とが合致する(一番手前の顔までの距離がスクリーンまでの距離と同じ)場合はステップS19を肯定判定してステップS21へ進み、合致しない(一番手前の顔までの距離がスクリーンまでの距離より短い)場合にはステップS19を否定判定してステップS20へ進む。   In step S19, the CPU 101 determines whether or not the in-focus position with respect to the foremost face is the same as the in-focus position with respect to the projection plane (screen). When the in-focus position recorded in a predetermined area of the memory 102 matches the in-focus position with respect to the foremost face (the distance to the foremost face is the same as the distance to the screen) Makes an affirmative decision in step S19 and proceeds to step S21. If not matched (the distance to the foremost face is shorter than the distance to the screen), a negative determination is made in step S19 and the process proceeds to step S20.

ステップS20において、CPU101は投射制御回路224へ指示を送り、LED光源223を低輝度で点灯させてステップS22へ進む。なお、既に低輝度で点灯している場合は低輝度状態を維持させる。   In step S20, the CPU 101 sends an instruction to the projection control circuit 224, turns on the LED light source 223 with low luminance, and proceeds to step S22. Note that when the light is already lit at a low luminance, the low luminance state is maintained.

ステップS21において、CPU101は投射制御回路224へ指示を送り、LED光源223を高輝度で点灯させてステップS22へ進む。高輝度は、LED光源223による点灯輝度を低輝度の2倍(通常輝度)に高めた状態をいう。   In step S21, the CPU 101 sends an instruction to the projection control circuit 224, turns on the LED light source 223 with high luminance, and proceeds to step S22. High luminance means a state in which the lighting luminance of the LED light source 223 is increased to twice the normal luminance (normal luminance).

ステップS22において、CPU101は、投影範囲外で輝度変化があるか否かを判定する。CPU101は、図6に例示した投影範囲外領域62に対応する画素信号の信号値が所定値以上変化した場合にステップS22を肯定判定し、図4のステップS11へ進む。CPU101は、投影範囲外領域62に対応する画素信号の信号値の変化が所定値未満の場合にはステップS22を否定判定し、ステップS23へ進む。   In step S22, the CPU 101 determines whether there is a luminance change outside the projection range. When the signal value of the pixel signal corresponding to the out-of-projection range region 62 illustrated in FIG. 6 has changed by a predetermined value or more, the CPU 101 makes a positive determination in step S22 and proceeds to step S11 in FIG. If the change in the signal value of the pixel signal corresponding to the out-of-projection area 62 is less than the predetermined value, the CPU 101 makes a negative determination in step S22 and proceeds to step S23.

ステップS23において、CPU101は1秒待機してステップS24へ進む。ステップS24において、CPU101はカウンタに1を加算してステップS25へ進む。ステップS25において、CPU101はカウント値=10か否かを判定する。CPU101は、カウンタの値が10の場合にステップS25を肯定判定し、図4のステップS11へ進む。CPU101は、カウント値が10でない場合にはステップS25を否定判定し、ステップS22へ戻る。   In step S23, the CPU 101 waits for 1 second and proceeds to step S24. In step S24, the CPU 101 adds 1 to the counter and proceeds to step S25. In step S25, the CPU 101 determines whether or not the count value = 10. If the value of the counter is 10, the CPU 101 makes a positive determination in step S25 and proceeds to step S11 in FIG. If the count value is not 10, the CPU 101 makes a negative determination in step S25 and returns to step S22.

以上説明した実施形態によれば、以下の作用効果が得られる。   According to the embodiment described above, the following effects can be obtained.

(1)PJ内蔵電子カメラは、投射ユニット200から投影中にカメラユニット100によりスルー画像を取得する。さらに、スルー画像を対象に顔認識を行い、顔認識結果を用いて投射ユニット200の光源部の輝度を制御するので、スルー画像から顔を認識した場合にのみ投影光の輝度を変えることができる。 (1) The PJ built-in electronic camera acquires a through image from the projection unit 200 by the camera unit 100 during projection. Furthermore, since the face recognition is performed on the through image and the brightness of the light source unit of the projection unit 200 is controlled using the face recognition result, the brightness of the projection light can be changed only when the face is recognized from the through image. .

(2)PJ内蔵電子カメラは、スルー画像において認識した顔の位置に応じて投射ユニット200の光源部の輝度を制御するので、スルー画像の所定領域内に顔を認識した場合にのみ投影光の輝度を変えることができる。
(3)投射ユニット200による投影範囲に対応する領域内に顔を認識した場合に投影光の輝度を通常輝度より下げたので、投影範囲に位置する顔を対象に防眩動作を行うことができる。
(2) Since the electronic camera with a built-in PJ controls the brightness of the light source unit of the projection unit 200 according to the position of the face recognized in the through image, only when the face is recognized within a predetermined area of the through image, The brightness can be changed.
(3) When the face is recognized in the region corresponding to the projection range by the projection unit 200, the brightness of the projection light is lowered from the normal brightness, so that the anti-glare operation can be performed on the face located in the projection range. .

(4)PJ内蔵電子カメラは、スルー画像において認識した顔までの距離情報に応じて投射ユニット200の光源部の輝度を制御するので、PJ内蔵電子カメラから所定距離内に顔を認識した場合にのみ投影光の輝度を変えることができる。
(5)一番手前の顔までの距離がスクリーンまでの距離より短い、すなわち、顔認識した顔がPJ内蔵電子カメラから所定距離内の場合に投影光の輝度を通常輝度より下げたので、近距離の顔を対象に防眩動作を行うことができる。
(4) Since the PJ built-in electronic camera controls the brightness of the light source unit of the projection unit 200 according to the distance information to the recognized face in the through image, when the face is recognized within a predetermined distance from the PJ built-in electronic camera. Only the brightness of the projection light can be changed.
(5) When the distance to the foremost face is shorter than the distance to the screen, that is, when the face recognized face is within a predetermined distance from the electronic camera with built-in PJ, the brightness of the projected light is lowered from the normal brightness. An anti-glare operation can be performed on a face at a distance.

(6)PJ内蔵電子カメラは、スルー画像において認識した顔の位置、および当該顔までの距離情報に応じて投射ユニット200の光源部の輝度を制御するので、スルー画像の所定領域内であり、PJ内蔵電子カメラから所定距離内に顔を認識した場合にのみ投影光の輝度を変えることができる。
(7)投射ユニット200による投影範囲に対応する領域内であり、かつPJ内蔵電子カメラから所定距離内に顔を認識した場合に投影光の輝度を通常輝度より下げたので、投影範囲内で近距離の顔を対象に防眩動作を行うことができる。
(6) Since the PJ built-in electronic camera controls the brightness of the light source unit of the projection unit 200 according to the position of the face recognized in the through image and the distance information to the face, it is within a predetermined region of the through image, The brightness of the projection light can be changed only when the face is recognized within a predetermined distance from the PJ built-in electronic camera.
(7) When the face is recognized within a predetermined distance from the PJ built-in electronic camera within the area corresponding to the projection range by the projection unit 200, the brightness of the projection light is lowered from the normal brightness. An anti-glare operation can be performed on a face at a distance.

(8)PJ内蔵電子カメラは、投射ユニット200による投影像を含むようにカメラユニット100でスルー画像を取得する。さらに、投射ユニット200が投影する画像データ、およびスルー画像を対象にそれぞれ顔認識を行い、投影する画像データから認識されない顔がスルー画像から認識されるか否かに応じて投射ユニット200の光源部の輝度を制御する。これにより、投影像と異なる顔に向かう投影光の輝度を変えることができる上に、投影像に含まれる顔を防眩動作の対象にすることがない。
(9)投影像と異なる顔を認識した場合に投影光の輝度を通常輝度より下げたので、投影像と異なる顔を対象に防眩動作を行うことができる。
(8) The PJ built-in electronic camera acquires a through image with the camera unit 100 so as to include a projection image by the projection unit 200. Further, face recognition is performed on each of the image data projected by the projection unit 200 and the through image, and a light source unit of the projection unit 200 is determined depending on whether a face that is not recognized from the projected image data is recognized from the through image. To control the brightness. Thereby, the brightness of the projection light directed to the face different from the projected image can be changed, and the face included in the projected image is not subjected to the antiglare operation.
(9) When the face different from the projected image is recognized, the brightness of the projected light is lowered from the normal brightness, so that the anti-glare operation can be performed on the face different from the projected image.

(10)PJ内蔵電子カメラの通常姿勢における投射ユニット200の投影光学系221の開口と、カメラユニット100の撮像光学系121の開口とを縦に並べて配設した。これにより、投影像より左右に広いスルー画像が得られ、かつ距離によらず水平方向の位置ずれがなくなるため、投影像の左右において投影像と異なる顔や輝度変化を認識しやすくなる。 (10) The opening of the projection optical system 221 of the projection unit 200 and the opening of the imaging optical system 121 of the camera unit 100 in the normal posture of the electronic camera with a built-in PJ are arranged vertically. As a result, a through image that is wider to the left and right than the projected image is obtained, and there is no horizontal displacement regardless of the distance, making it easier to recognize a face or brightness change different from the projected image on the left and right of the projected image.

(11)顔認識を行った後、スルー画像において投影像の外側で輝度変化が生じた場合に再び顔認識を行うようにしたので、投影像の外側から投影範囲内に物体が進入する場合に、再び顔認識させることができる。
(12)顔認識を行った後、所定時間が経過すると再び顔認識を行うようにしたので、上記輝度変化が検出できない場合に、再度顔認識させることができる。
(11) After performing the face recognition, the face recognition is performed again when the brightness change occurs outside the projection image in the through image. Therefore, when the object enters the projection range from the outside of the projection image. , Face recognition can be made again.
(12) Since the face recognition is performed again after a predetermined time has elapsed after performing the face recognition, the face can be recognized again when the luminance change cannot be detected.

(変形例1)
上記(10)において、投影光学系221の開口と撮像光学系121の開口とを縦に並べて、両者の視差の影響を水平方向において抑える例を説明した。しかしながら、垂直方向については、PJ内蔵電子カメラから投影面(スクリーン)までの距離が短い場合に視差の影響を受ける場合がある。具体的には、投影範囲61が必ずしも撮影範囲60内で同じ位置とならない。
(Modification 1)
In the above (10), the example in which the aperture of the projection optical system 221 and the aperture of the imaging optical system 121 are arranged vertically to suppress the influence of both parallaxes in the horizontal direction has been described. However, the vertical direction may be affected by parallax when the distance from the PJ built-in electronic camera to the projection surface (screen) is short. Specifically, the projection range 61 is not necessarily in the same position within the shooting range 60.

図7は、投影面(スクリーン)までの距離と、その距離における投影範囲61および撮影範囲60を説明する図である。図7において、投影光学系221の光軸と撮像光学系121の光軸とを平行とし、両光軸間の距離をdとする。位置A(PJ内蔵電子カメラからの距離La)、位置B(PJ内蔵電子カメラからの距離Lb)、位置C(PJ内蔵電子カメラからの距離Lc)にそれぞれスクリーンを設けた場合、当該スクリーン上の投影範囲61と撮影範囲60との相対位置は距離に応じて変化する。なお、3つの距離La、Lb、Lcにおける投影範囲61および撮影範囲60の大きさは、同じ大きさで図示するように比率を変えている。   FIG. 7 is a diagram for explaining the distance to the projection surface (screen) and the projection range 61 and the photographing range 60 at the distance. In FIG. 7, the optical axis of the projection optical system 221 and the optical axis of the imaging optical system 121 are parallel, and the distance between the optical axes is d. When screens are provided at position A (distance La from the electronic camera with built-in PJ), position B (distance Lb from the electronic camera with built-in PJ), and position C (distance Lc from the electronic camera with built-in PJ), respectively, The relative position between the projection range 61 and the shooting range 60 changes according to the distance. The projection range 61 and the photographing range 60 at the three distances La, Lb, and Lc have the same size and the ratio is changed as illustrated.

図7によれば、PJ内蔵電子カメラと投影面(スクリーン)までの距離が短いほど、撮影範囲60の中心と投影範囲61の中心とのずれが大きくなる。両者の垂直方向の距離をyとすると、位置Aの場合の距離yaは、ya=Y×d/(2×La×tanθ)である。ただし、撮影画像の高さをYとし、撮影画角を(2×θ)とする。同様に、位置Bの場合の距離ybは、yb=Y×d/(2×Lb×tanθ)であり、位置Cの場合の距離ycは、yc=Y×d/(2×Lc×tanθ)である。   According to FIG. 7, the shorter the distance between the PJ built-in electronic camera and the projection surface (screen), the greater the deviation between the center of the shooting range 60 and the center of the projection range 61. If the distance between the two in the vertical direction is y, the distance ya in the case of position A is ya = Y × d / (2 × La × tan θ). However, the height of the captured image is Y, and the captured field angle is (2 × θ). Similarly, the distance yb in the case of the position B is yb = Y × d / (2 × Lb × tan θ), and the distance yc in the case of the position C is yc = Y × d / (2 × Lc × tan θ). It is.

距離dはカメラボディの設計情報から既知であり、角度θは撮像光学系121の設計情報から既知である(撮像光学系121がズーム光学系の場合は、ズーム繰出し量から換算すればよい)。したがって、合焦動作によって投影面(スクリーン)までの距離Lが得られれば、CPU101に上式を演算させることによって撮影範囲60内における投影範囲61の位置を予測させることができる。   The distance d is known from the design information of the camera body, and the angle θ is known from the design information of the imaging optical system 121 (if the imaging optical system 121 is a zoom optical system, it may be converted from the zoom extension amount). Therefore, if the distance L to the projection plane (screen) is obtained by the focusing operation, the position of the projection range 61 within the photographing range 60 can be predicted by causing the CPU 101 to calculate the above equation.

以上説明したように、投影光学系221と撮像光学系121との視差の影響がある場合でも、撮影範囲60内で投影範囲61の位置を予測できる。このような予測演算をステップS16において投影データと撮影データ(スルー画像)とを比較する際に用いることにより、スルー画像から比較対象の顔部分を速く認識することができる。   As described above, even when there is an influence of parallax between the projection optical system 221 and the imaging optical system 121, the position of the projection range 61 can be predicted within the imaging range 60. By using such a prediction calculation when comparing projection data and captured data (through image) in step S16, the face portion to be compared can be quickly recognized from the through image.

(変形例2)
PJ内蔵電子カメラから一番手前の顔までの距離がPJ内蔵電子カメラからスクリーンまでの距離より短い場合、すなわち、ステップS19を否定判定する場合にLED光源223を低輝度で点灯させる例を説明した。LED光源223を低輝度点灯する代わりに、LED光源223を消灯させるようにしてもよい。
(Modification 2)
The example in which the LED light source 223 is turned on with low brightness when the distance from the PJ built-in electronic camera to the foremost face is shorter than the distance from the PJ built-in electronic camera to the screen, that is, when negative determination is made in step S19 has been described. . Instead of turning on the LED light source 223 with low luminance, the LED light source 223 may be turned off.

(変形例3)
コントラスト方式による焦点調節を行った際にコントラスト情報を検出できなかった場合にも、ステップS19を否定判定させるとよい。この場合、コントラスト情報が得られずに焦点調節できない状況でLED光源223を低輝度で点灯させるので、PJ内蔵電子カメラに極めて近い空間内に顔が存在するおそれがある場合にも防眩動作を行わせることができる。
(Modification 3)
Even when contrast information cannot be detected when focus adjustment is performed using the contrast method, a negative determination may be made in step S19. In this case, since the LED light source 223 is turned on with low brightness in a situation where the focus information cannot be adjusted without obtaining contrast information, the anti-glare operation is performed even when there is a possibility that a face is present in a space very close to the electronic camera with a built-in PJ. Can be done.

(変形例4)
変形例3の代わりに、焦点調節できない状況でLED光源223を消灯させてもよい。PJ内蔵電子カメラに極めて近い空間内に顔が存在するおそれがある場合にLED光源223を消灯させることで、より安全な投影装置が得られる。
(Modification 4)
Instead of the third modification, the LED light source 223 may be turned off in a situation where the focus cannot be adjusted. By turning off the LED light source 223 when there is a possibility that a face exists in a space very close to the electronic camera with a built-in PJ, a safer projection apparatus can be obtained.

(変形例5)
認識した顔を含む領域へ向かう投影光を選択的に減光するように構成してもよい。この場合のCPU101は、ステップS13〜ステップS15においてスルー画像から新たに認識した顔領域(すなわち、ステップS10において記録したデータに対応しない顔)に対応する方向へ投射ユニット200が射出する投影光を部分的に減衰させる。具体的には、CPU101が投射制御回路224へ指示を送り、液晶パネル222が生成する光像のうち、該当する領域の画素の透過率を通常時より抑え(たとえば1/2)、液晶パネル222の画素濃度を高めるように制御する。これにより、新たに認識された顔に向けて投射ユニット200から投影される投影光が選択的に減光される。スクリーンに投影されている画像が白基調の場合、LED光源223を低輝度で点灯させても投影像が十分に暗くならない場合がある。このような場面で変形例5の制御を行うことによって投影像を部分的に暗くすれば、顔に向けて射出される光を部分的に弱めることができる。
(Modification 5)
You may comprise so that the projection light which goes to the area | region containing the recognized face may be selectively attenuated. In this case, the CPU 101 performs partial projection light emitted by the projection unit 200 in the direction corresponding to the face area newly recognized from the through image in steps S13 to S15 (that is, the face not corresponding to the data recorded in step S10). Attenuate. Specifically, the CPU 101 sends an instruction to the projection control circuit 224, and the transmittance of the pixels in the corresponding region in the optical image generated by the liquid crystal panel 222 is suppressed (for example, ½) from the normal time. The pixel density is controlled to be increased. Thereby, the projection light projected from the projection unit 200 toward the newly recognized face is selectively reduced. When the image projected on the screen is white, the projected image may not be sufficiently dark even if the LED light source 223 is turned on with low luminance. If the projection image is partially darkened by performing the control of Modification 5 in such a scene, the light emitted toward the face can be partially weakened.

(変形例6)
LED光源223を低輝度で点灯させる場合、通常輝度の1/2に低減する例を説明した。この代わりに、スルー画像において認識した顔までの距離情報に応じてLED光源223の点灯輝度を異ならせてもよい。PJ内蔵電子カメラから顔までの距離が短いほど発光輝度の低減率を高め(発光輝度は低い)、PJ内蔵電子カメラから顔までの距離が長いほど発光輝度の低減率を低く(発光輝度は高い)する。低輝度点灯時の発光輝度の変化は、距離の2乗に比例させる。
(Modification 6)
In the case where the LED light source 223 is turned on with low luminance, an example in which the LED light source 223 is reduced to ½ of normal luminance has been described. Instead of this, the lighting brightness of the LED light source 223 may be varied according to the distance information to the face recognized in the through image. The shorter the distance from the PJ built-in electronic camera to the face, the higher the emission luminance reduction rate (low emission luminance), and the longer the distance from the PJ built-in electronic camera to the face, the lower the emission luminance reduction rate (high emission luminance). ) The change in the light emission luminance during low-intensity lighting is proportional to the square of the distance.

(変形例7)
LED光源223を低輝度で点灯させる場合に、これを報知する警告用LEDを設けてもよい。この警告用LEDには、不図示の電源ランプやAF補助光源を流用してもよい。また、液晶モニタ105にアラームメッセージやマークを表示させたり、不図示のスピーカから電子音を発生させて知らせるように構成してもよい。
(Modification 7)
When the LED light source 223 is turned on with low luminance, a warning LED may be provided to notify this. A power lamp (not shown) or an AF auxiliary light source may be used for the warning LED. In addition, an alarm message or mark may be displayed on the liquid crystal monitor 105, or an electronic sound may be generated from a speaker (not shown).

(変形例8)
上述した説明では、スルー画像において認識した顔の位置および領域に応じて行う判定(ステップS16、S17)、PJ内蔵電子カメラから認識した顔までの距離情報に応じて行う判定(ステップS18、S19)、および投影する画像データから認識されない顔がスルー画像から認識されるか否かに応じて行う判定(ステップ10、ステップS16、S17)を組み合わせて行う例を示した。この代わりに、3つの判定を単独で行ったり、いずれか2つの判定を組み合わせる構成にしてもよい。
(Modification 8)
In the above description, the determination is made according to the position and area of the face recognized in the through image (steps S16 and S17), and the determination is made according to the distance information from the PJ built-in electronic camera to the recognized face (steps S18 and S19). In addition, an example is shown in which the determination (step 10, step S16, S17) performed in accordance with whether or not a face that is not recognized from the image data to be projected is recognized from the through image is combined. Instead of this, three determinations may be performed independently, or any two determinations may be combined.

(変形例9)
上記の説明では、PJ内蔵電子カメラから被写体(顔、スクリーンなど)までの距離情報を取得する例としてコントラスト検出を行う焦点調節方式を例示した。焦点調節方式は、コントラスト検出方式に限らず位相差検出方式であってもよい。
(Modification 9)
In the above description, the focus adjustment method for performing contrast detection is illustrated as an example of acquiring distance information from the electronic camera with built-in PJ to the subject (face, screen, etc.). The focus adjustment method is not limited to the contrast detection method, and may be a phase difference detection method.

(変形例10)
PJ内蔵電子カメラの通常姿勢における投射ユニット200の投影光学系221の開口、およびカメラユニット100の撮像光学系121の開口の配置は、横に並べて配設してもよい。この場合は投影像より上下に広いスルー画像が得られ、投影像の上下において投影像と異なる顔や輝度変化などを検出しやすくなる。
(Modification 10)
The arrangement of the projection optical system 221 of the projection unit 200 and the opening of the imaging optical system 121 of the camera unit 100 in the normal posture of the PJ built-in electronic camera may be arranged side by side. In this case, a through image that is wider above and below the projected image is obtained, and it becomes easier to detect a face and a brightness change that are different from the projected image above and below the projected image.

(変形例11)
カメラユニット100で撮像する範囲が、投射ユニット200で投射する範囲より広い場合について説明したが、カメラユニット100で撮像する範囲は、投射ユニット200で投射する投影像の範囲の少なくとも一部を含む領域でも構わない。また、カメラユニット100の撮像範囲に投射ユニット200で投射する投影像を全く含まず、投影像の近傍を撮像し、この撮像範囲に人がいるかどうかを判断して投影像の輝度を変化させてもよい。投影像の近傍に人がいる場合、この人が投影領域に入ってくる可能性があるためである。
(Modification 11)
Although the case where the range captured by the camera unit 100 is wider than the range projected by the projection unit 200 has been described, the range captured by the camera unit 100 is an area including at least a part of the range of the projected image projected by the projection unit 200. It doesn't matter. In addition, the imaging range of the camera unit 100 does not include the projection image projected by the projection unit 200, and the vicinity of the projection image is captured, and it is determined whether there is a person in the imaging range and the brightness of the projection image is changed. Also good. This is because if there is a person in the vicinity of the projection image, this person may enter the projection area.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

本発明の一実施の形態によるPJ内蔵電子カメラを前方から見た図である。It is the figure which looked at the electronic camera with a built-in PJ according to an embodiment of the present invention from the front. PJ内蔵電子カメラの構成を説明するブロック図である。It is a block diagram explaining the structure of a PJ built-in electronic camera. 抽出した顔領域を示す表示を例示する図である。It is a figure which illustrates the display which shows the extracted face area. CPUが実行する光量制御処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the light quantity control process which CPU performs. CPUが実行する光量制御処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the light quantity control process which CPU performs. カメラユニットで撮影される撮影画面を例示する図である。It is a figure which illustrates the imaging | photography screen image | photographed with a camera unit. 投影面までの距離と、その距離における投影範囲および撮影範囲を説明する図である。It is a figure explaining the distance to a projection surface, and the projection range and imaging | photography range in the distance.

符号の説明Explanation of symbols

100…カメラユニット
101…CPU
103…操作部材
121…撮影光学系
200…投射ユニット
221…投影光学系
222…液晶パネル
223…LED光源
224…投射制御回路
100 ... Camera unit 101 ... CPU
DESCRIPTION OF SYMBOLS 103 ... Operation member 121 ... Shooting optical system 200 ... Projection unit 221 ... Projection optical system 222 ... Liquid crystal panel 223 ... LED light source 224 ... Projection control circuit

Claims (14)

像を形成する素子を発光部で照明して光学像を投影する投射ユニットと、
被写体像を撮像し、画像信号を出力する撮像ユニットと、
画像から顔を検出する顔検出手段と、
前記投射ユニットによる投影中に前記光学像の少なくとも一部または前記光学像の近傍を含む領域を前記撮像ユニットに撮像させ、前記撮像ユニットが出力する画像信号から顔検出するように前記顔検出手段を制御するとともに、前記顔検出手段による検出結果を用いて前記光学像の輝度を制御する制御手段と、を備え、
前記制御手段は、前記顔検出手段が顔検出を実行後、前記撮像ユニットが出力する画像信号において前記投射ユニットによる投影像の外側に対応する画像信号で輝度変化が生じた場合、前記顔検出手段に再度顔検出を実行させることを特徴とする投影装置。
A projection unit that projects an optical image by illuminating an element that forms an image with a light emitting unit;
An imaging unit that captures a subject image and outputs an image signal;
Face detection means for detecting a face from an image;
The face detection unit is configured to cause the imaging unit to capture an area including at least a part of the optical image or the vicinity of the optical image during projection by the projection unit, and to detect a face from an image signal output from the imaging unit. Control means for controlling the brightness of the optical image using the detection result by the face detection means,
When the brightness change occurs in the image signal corresponding to the outside of the projection image by the projection unit in the image signal output by the imaging unit after the face detection unit performs the face detection, the control unit detects the face Projecting apparatus that causes face detection to be executed again.
請求項1に記載の投影装置において、
前記制御手段は、前記顔検出手段が検出した画像中の顔位置に応じて前記光学像の輝度を制御することを特徴とする投影装置。
The projection device according to claim 1 ,
The projection device characterized in that the control means controls the luminance of the optical image in accordance with the face position in the image detected by the face detection means.
請求項2に記載の投影装置において、
前記制御手段は、前記顔位置が前記投射ユニットによる投影範囲内に対応する場合に前記光学像の輝度を通常輝度より下げることを特徴とする投影装置。
The projection apparatus according to claim 2 , wherein
The projection device according to claim 1, wherein the control means lowers the luminance of the optical image below the normal luminance when the face position corresponds to a projection range by the projection unit.
請求項1に記載の投影装置において、
被写体までの距離情報を取得する測距手段をさらに備え、
前記制御手段は、前記顔検出手段が検出した顔について取得された前記距離情報に応じて前記光学像の輝度を制御することを特徴とする投影装置。
The projection device according to claim 1 ,
It further comprises distance measuring means for acquiring distance information to the subject,
The projection apparatus, wherein the control unit controls the luminance of the optical image in accordance with the distance information acquired for the face detected by the face detection unit.
請求項4に記載の投影装置において、
前記制御手段は、前記距離情報が所定距離以下を示す場合に前記光学像の輝度を通常輝度より下げることを特徴とする投影装置。
The projection apparatus according to claim 4 , wherein
The control unit is characterized in that the brightness of the optical image is lowered from the normal brightness when the distance information indicates a predetermined distance or less.
請求項1に記載の投影装置において、
被写体までの距離情報を取得する測距手段をさらに備え、
前記制御手段は、前記顔検出手段が検出した画像中の顔位置および前記顔検出手段が検出した顔について取得された前記距離情報に応じて前記光学像の輝度を制御することを特徴とする投影装置。
The projection device according to claim 1 ,
It further comprises distance measuring means for acquiring distance information to the subject,
The control means controls the brightness of the optical image according to the face position in the image detected by the face detection means and the distance information acquired for the face detected by the face detection means. apparatus.
請求項6に記載の投影装置において、
前記制御手段は、前記顔位置が前記投射ユニットによる投影範囲に対応し、かつ前記距離情報が所定距離以下を示す場合に前記光学像の輝度を通常輝度より下げることを特徴とする投影装置。
The projection apparatus according to claim 6 , wherein
The projection device according to claim 1, wherein the control means lowers the luminance of the optical image from a normal luminance when the face position corresponds to a projection range by the projection unit and the distance information indicates a predetermined distance or less.
請求項4〜7のいずれか一項に記載の投影装置において、
前記制御手段は、前記測距手段で距離情報を取得不能の場合、前記光学像の投影を停止させることを特徴とする投影装置。
In the projection device according to any one of claims 4 to 7 ,
The control device stops projection of the optical image when distance information cannot be acquired by the distance measuring device.
請求項1に記載の投影装置において、
前記制御手段は、前記投射ユニットが投影する画像、および前記撮像ユニットが出力する画像信号からそれぞれ顔検出するように前記顔検出手段を制御するとともに、前記顔検出手段が、前記投影する画像から検出していない顔を前記画像信号から検出するか否かに応じて前記光学像の輝度を制御することを特徴とする投影装置。
The projection device according to claim 1 ,
The control means controls the face detection means so as to detect each face from an image projected by the projection unit and an image signal output from the imaging unit, and the face detection means detects from the projected image. A projection apparatus, wherein brightness of the optical image is controlled in accordance with whether or not a face that has not been detected is detected from the image signal.
請求項9に記載の投影装置において、
前記制御手段は、前記顔検出手段が、前記投影する画像から検出していない顔を前記画像信号から検出した場合に前記光学像の輝度を通常輝度より下げることを特徴とする投影装置。
The projection apparatus according to claim 9 , wherein
The projection device according to claim 1, wherein the control means lowers the brightness of the optical image from a normal brightness when the face detection means detects a face not detected from the projected image from the image signal.
請求項9または10に記載の投影装置において、
前記投射ユニットの開口および前記撮像ユニットの開口を縦に並べて配設したことを特徴とする投影装置。
The projection device according to claim 9 or 10 , wherein:
A projection apparatus, wherein an opening of the projection unit and an opening of the imaging unit are arranged side by side vertically.
請求項1に記載の投影装置において、
前記制御手段は、前記顔検出手段が顔検出を実行してから所定時間が経過した場合、前記顔検出手段に再度顔検出を実行させることを特徴とする投影装置。
The projection device according to claim 1,
The projection device, wherein the control unit causes the face detection unit to perform face detection again when a predetermined time has elapsed since the face detection unit performed face detection.
請求項1〜12のいずれか一項に記載の投影装置において、
前記制御手段は、前記素子に形成する像のうち、前記顔検出手段が検出した顔に対応する領域の前記光学像の輝度が低くなるように前記投射ユニットをさらに制御することを特徴とする投影装置。
In the projection device according to any one of claims 1 to 12 ,
The control means further controls the projection unit so that the luminance of the optical image in a region corresponding to the face detected by the face detection means among images formed on the element is lowered. apparatus.
請求項1〜13のいずれか一項に記載の投影装置を備えることを特徴とするカメラ。
A camera comprising the projection device according to claim 1 .
JP2006334162A 2006-12-12 2006-12-12 Projector and camera Expired - Fee Related JP5298425B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006334162A JP5298425B2 (en) 2006-12-12 2006-12-12 Projector and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006334162A JP5298425B2 (en) 2006-12-12 2006-12-12 Projector and camera

Publications (2)

Publication Number Publication Date
JP2008148089A JP2008148089A (en) 2008-06-26
JP5298425B2 true JP5298425B2 (en) 2013-09-25

Family

ID=39607752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006334162A Expired - Fee Related JP5298425B2 (en) 2006-12-12 2006-12-12 Projector and camera

Country Status (1)

Country Link
JP (1) JP5298425B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013088656A1 (en) * 2011-12-16 2013-06-20 日本電気株式会社 Object detection device, object detection method, and object detection program
WO2013088657A1 (en) * 2011-12-16 2013-06-20 日本電気株式会社 Projecting projector device, optical anti-glare method, and optical anti-glare program
CN103424974B (en) * 2012-05-22 2015-09-23 宏碁股份有限公司 Projection arrangement and focusing method
WO2013186993A1 (en) * 2012-06-15 2013-12-19 日本電気株式会社 Projection-type projector, anti-glare method, and program for anti-glare
JP5791577B2 (en) 2012-09-28 2015-10-07 楽天株式会社 Image processing apparatus, image display method, and program
US20160021351A1 (en) * 2013-03-14 2016-01-21 Nittoh Kogaku K.K. Optical system and device having optical system
JP6212984B2 (en) * 2013-06-27 2017-10-18 カシオ計算機株式会社 Projection apparatus, projection method, and program
JP6534096B2 (en) * 2014-06-25 2019-06-26 パナソニックIpマネジメント株式会社 Projection system
JP6684534B2 (en) * 2018-09-18 2020-04-22 三菱ロジスネクスト株式会社 Unmanned transport system
CN113840125A (en) * 2021-08-30 2021-12-24 展讯半导体(南京)有限公司 Projector control method, projector control device, projector, and storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3272584B2 (en) * 1995-09-19 2002-04-08 シャープ株式会社 Region extraction device and direction detection device using the same
JP3630015B2 (en) * 1999-04-21 2005-03-16 セイコーエプソン株式会社 Projection display apparatus and information storage medium
JP3849654B2 (en) * 2003-02-21 2006-11-22 株式会社日立製作所 Projection display
JP2005215504A (en) * 2004-01-30 2005-08-11 Olympus Corp Projector
JP4631370B2 (en) * 2004-09-21 2011-02-16 株式会社ニコン Projector device, mobile phone, camera
JP5089023B2 (en) * 2005-03-30 2012-12-05 京セラ株式会社 Mobile terminals and electronic devices

Also Published As

Publication number Publication date
JP2008148089A (en) 2008-06-26

Similar Documents

Publication Publication Date Title
JP5298425B2 (en) Projector and camera
US8102465B2 (en) Photographing apparatus and photographing method for photographing an image by controlling light irradiation on a subject
JP5830373B2 (en) Imaging device
JP4460560B2 (en) Imaging apparatus and imaging method
JP5418020B2 (en) Imaging device
JPWO2006038577A1 (en) Electronic apparatus having a projector device
JP2010010729A (en) Image pickup apparatus, and program
JP2008187591A (en) Imaging apparatus and imaging method
JP2012186743A (en) Photographing device with tracking function, and photographing method
JP4802058B2 (en) Mobile phone with camera and imaging method thereof
JP4552997B2 (en) Imaging apparatus and program
KR20150078275A (en) Digital Photographing Apparatus And Method For Capturing a Moving Subject
JP2010117663A (en) Autofocus system
JP2014107750A (en) Photographing apparatus
JP2008283379A (en) Imaging device and program
JP2007049631A (en) Imaging apparatus
JP4717867B2 (en) Imaging apparatus and imaging method
JP2008092007A (en) Photography apparatus
JP2013201793A (en) Imaging apparatus
JP2013205675A (en) Imaging apparatus
JP2006258943A (en) Autofocus system
JP4973427B2 (en) Camera with projector
JP4841111B2 (en) Digital camera device and program
JP2005266223A (en) Camera system and program
JP5889507B2 (en) Camera device, shooting timing notification method, shooting timing notification program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130603

R150 Certificate of patent or registration of utility model

Ref document number: 5298425

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees