JP2008298819A - Portable electronic equipment, camera and cellular phone - Google Patents

Portable electronic equipment, camera and cellular phone Download PDF

Info

Publication number
JP2008298819A
JP2008298819A JP2007141442A JP2007141442A JP2008298819A JP 2008298819 A JP2008298819 A JP 2008298819A JP 2007141442 A JP2007141442 A JP 2007141442A JP 2007141442 A JP2007141442 A JP 2007141442A JP 2008298819 A JP2008298819 A JP 2008298819A
Authority
JP
Japan
Prior art keywords
image
imaging
projection
portable electronic
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007141442A
Other languages
Japanese (ja)
Inventor
Noboru Akami
昇 赤見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007141442A priority Critical patent/JP2008298819A/en
Publication of JP2008298819A publication Critical patent/JP2008298819A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide portable electronic equipment, a camera and a cellular phone capable of stabilizing a projection image. <P>SOLUTION: When the image is projected from a projection part 220, operation concerning a projector function is performed based on the change of an image obtained by imaging by an imaging part 120. Since the operation concerning the projector function is performed even though a user does not touch an electronic camera 10 with a PJ, a situation that the position of the electronic camera 10 with the PJ moves to cause deviation of the projecting position of the projection image and convergence of already adjusted focus of the projection image is prevented. Therefore, the projection image is stabilized, and sense of incongruity is prevented from being given to an observer. Icons 172 to 175, 192 and 193 corresponding to operation instructions concerning the projector function are displayed on a liquid crystal display unit 107. Thus, the icons 172 to 175, 192 and 193 become a guide for the user (operator), so that the operability concerning the projector function is improved. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像の投影機能を有する携帯電子機器、カメラおよび携帯電話機に関する。   The present invention relates to a portable electronic device, a camera, and a mobile phone having an image projection function.

被写体像の撮影機能と、画像の投影機能とを備えた電子機器として、プロジェクタを備えたカメラが知られている(たとえば、特許文献1参照)。プロジェクタはカメラ本体に組み込まれており、プロジェクタ用の投影光学系を用いて画像をスクリーンに投影するように構成されている。   2. Description of the Related Art A camera equipped with a projector is known as an electronic device equipped with a subject image photographing function and an image projecting function (see, for example, Patent Document 1). The projector is incorporated in the camera body, and is configured to project an image on a screen using a projection optical system for the projector.

特開2006−222547号公報JP 2006-222547 A

しかしながら、プロジェクタによる画像投影中に操作ボタンを操作するためには、机上などに置かれたカメラ本体にユーザが直接触れなければならず、カメラの位置が動いて投影画像の投影位置がずれてしまうなどの問題がある。   However, in order to operate the operation buttons during image projection by the projector, the user must directly touch the camera body placed on a desk or the like, and the position of the camera moves and the projection position of the projection image is shifted. There are problems such as.

(1) 請求項1の発明による携帯電子機器は、被写体像を撮像して画像信号を出力する撮像装置と、光像形成素子に形成された像を投射するプロジェクタ装置と、画像信号の変化を検出する画像変化検出手段と、撮像装置による撮影範囲のうち、画像信号の変化が検出された領域に応じてプロジェクタ装置の動作に関する指示を行う指示手段と、撮像装置により撮像して得た画像を表示可能な表示装置と、表示装置に表示させる表示内容を制御し、指示に対応する表示を表示装置に表示させる表示制御手段とを備えることを特徴とする。
(2) 請求項2の発明は、請求項1に記載の携帯電子機器において、表示制御手段は、撮像装置により撮像して得た画像を表示装置に表示させることを特徴とする。
(3) 請求項3の発明は、請求項1に記載の携帯電子機器において、表示制御手段は、光像形成素子に形成された像と同じ画像を表示装置に表示させることを特徴とする。
(4) 請求項4の発明は、請求項1に記載の携帯電子機器において、表示制御手段は、光像形成素子に形成された像と同じ画像を撮像装置により撮像して得た画像に合成して表示装置に表示させることを特徴とする。
(5) 請求項5の発明は、請求項1〜4のいずれか一項に記載の携帯電子機器において、撮像装置は、プロジェクタ装置が投影する像の少なくとも一部を含む領域を撮像することを特徴とする。
(6) 請求項6の発明は、請求項1に記載の携帯電子機器において、撮像装置は、プロジェクタ装置が投影する像を含まない領域を撮像することを特徴とする。
(7) 請求項7の発明は、請求項1〜6のいずれか一項に記載の携帯電子機器において、撮像装置は、それぞれ異なる領域を撮像する第1および第2の撮像装置を有することを特徴とする。
(8) 請求項8の発明によるカメラは、請求項1〜7のいずれか一項に記載の携帯電子機器と、撮像装置で撮像して得た被写体像の画像信号を処理して記録する画像信号処理記録手段とを備えることを特徴とする。
(9) 請求項9の発明による携帯電話機は、請求項1〜7のいずれか一項に記載の携帯電子機器と、基地局との間で無線により通信可能な通信手段とを備えることを特徴とする。
(1) A portable electronic device according to a first aspect of the invention includes an imaging device that captures a subject image and outputs an image signal, a projector device that projects an image formed on an optical image forming element, and a change in the image signal. An image change detecting means for detecting, an instruction means for giving an instruction regarding the operation of the projector device in accordance with an area in which a change in the image signal is detected in a photographing range of the imaging device, and an image obtained by imaging with the imaging device It is characterized by comprising a display device capable of display, and display control means for controlling display contents to be displayed on the display device and causing the display device to display a display corresponding to the instruction.
(2) The invention according to claim 2 is the portable electronic device according to claim 1, wherein the display control means causes the display device to display an image obtained by imaging with the imaging device.
(3) The invention according to claim 3 is the portable electronic device according to claim 1, wherein the display control means causes the display device to display the same image as the image formed on the optical image forming element.
(4) According to a fourth aspect of the present invention, in the portable electronic device according to the first aspect, the display control means combines the same image as the image formed on the optical image forming element with the image obtained by the imaging device. And displaying on a display device.
(5) According to a fifth aspect of the present invention, in the portable electronic device according to any one of the first to fourth aspects, the imaging device captures an area including at least a part of an image projected by the projector device. Features.
(6) According to a sixth aspect of the present invention, in the portable electronic device according to the first aspect, the imaging device images a region that does not include an image projected by the projector device.
(7) According to a seventh aspect of the present invention, in the portable electronic device according to any one of the first to sixth aspects, the imaging device includes first and second imaging devices that capture different areas. Features.
(8) A camera according to an eighth aspect of the invention is an image that processes and records an image signal of a subject image obtained by imaging with the portable electronic device according to any one of the first to seventh aspects and an imaging device. Signal processing recording means.
(9) A cellular phone according to a ninth aspect of the invention includes the portable electronic device according to any one of the first to seventh aspects and a communication unit capable of wirelessly communicating with a base station. And

本発明によれば、投影画像を安定化することができる。   According to the present invention, a projection image can be stabilized.

図1〜11を参照して、本発明によるカメラの一実施の形態を説明する。図1は、本発明によるプロジェクタ付き電子カメラ(以下、PJ付き電子カメラと呼ぶ)を斜め前方から見た図である。図1において、PJ付き電子カメラ10の正面には、撮影レンズ11と、照明光窓12と、プロジェクタ投射窓13とが設けられている。PJ付き電子カメラ10の上面には、レリーズボタン14と、ズームスイッチ16と、モード切替ダイヤル15と、メインスイッチ22とが設けられている。   An embodiment of a camera according to the present invention will be described with reference to FIGS. FIG. 1 is a view of an electronic camera with a projector according to the present invention (hereinafter referred to as an electronic camera with a PJ) viewed obliquely from the front. In FIG. 1, a photographing lens 11, an illumination light window 12, and a projector projection window 13 are provided in front of the electronic camera 10 with PJ. A release button 14, a zoom switch 16, a mode switching dial 15, and a main switch 22 are provided on the upper surface of the electronic camera 10 with PJ.

図2は、図1のPJ付き電子カメラ10を斜め後方から見た図である。図2において、PJ付き電子カメラ10の背面には、液晶表示器17と、操作部材19と、スピーカ孔20とが設けられている。   FIG. 2 is a view of the electronic camera with PJ 10 of FIG. 1 as viewed obliquely from behind. In FIG. 2, a liquid crystal display 17, an operation member 19, and a speaker hole 20 are provided on the back surface of the electronic camera 10 with PJ.

PJ付き電子カメラ10は、机上などに載置された状態でPJ付き電子カメラ10の正面側に配設されるスクリーンなどに向けて、内蔵する投射部(プロジェクタ)による画像などの投影情報をプロジェクタ投射窓13から投影する。PJ付き電子カメラ10はスピーカ孔20の裏側にスピーカ21を内蔵しており、音声などの情報をPJ付き電子カメラ10の後方へ向けて再生する。   The electronic camera 10 with a PJ projects projection information such as an image from a built-in projection unit (projector) toward a screen or the like disposed on the front side of the electronic camera 10 with a PJ while being placed on a desk or the like. Projecting from the projection window 13. The electronic camera with PJ 10 has a built-in speaker 21 on the back side of the speaker hole 20, and reproduces information such as sound toward the rear of the electronic camera 10 with PJ.

モード切り替えダイヤル15は、撮影モードや投影モードなどのPJ付き電子カメラ10の動作モードを切り替えるためのモード切り替え操作部材である。撮影モードは、被写体像を撮影し、撮影した画像データをメモリカードなどで構成される記録媒体に画像ファイルとして保存する動作モードである。撮影開始指示は、レリーズボタン14の押下操作に応じて出力される操作信号が対応する。PJ付き電子カメラ10は、撮影時に被写体を照明する照明装置を内蔵する。撮影モードでは、スピーカ21とともにスピーカ孔20の裏側に内蔵されているマイクによって音声を集音し、その音声データを記録媒体に保存することも可能に構成されている。   The mode switching dial 15 is a mode switching operation member for switching the operation mode of the electronic camera 10 with PJ, such as a shooting mode and a projection mode. The photographing mode is an operation mode in which a subject image is photographed and the photographed image data is saved as an image file in a recording medium constituted by a memory card or the like. The shooting start instruction corresponds to an operation signal output in response to the pressing operation of the release button 14. The PJ-equipped electronic camera 10 has a built-in lighting device that illuminates a subject during shooting. In the photographing mode, the voice is collected by the microphone built in the back side of the speaker hole 20 together with the speaker 21, and the voice data can be stored in a recording medium.

投影モードは、撮影済みの画像データを記録媒体(たとえば、後述するメモリカード150や内部メモリ)から読出すなどして、画像データによる再生画像を投射部によってプロジェクタ投射窓13から投影する動作モードである。音声データが記録されている場合にはスピーカ21から音声再生も行う。投影ソースとしては、記録媒体に記録されているデータの他に、内部メモリに記録されているデータなどが選択可能である。投射部は、投影ソースの中から選択されたデータによる再生画像を投影する。複数のデータが選択された場合、投射部は、画像を順次切り替えて複数の画像データの再生画像を投影する。   The projection mode is an operation mode in which captured image data is read from a recording medium (for example, a memory card 150 or an internal memory described later), and a reproduced image based on the image data is projected from the projector projection window 13 by the projection unit. is there. When audio data is recorded, audio reproduction is also performed from the speaker 21. As the projection source, in addition to the data recorded on the recording medium, data recorded on the internal memory can be selected. The projection unit projects a reproduced image based on data selected from the projection source. When a plurality of data are selected, the projection unit sequentially switches the images and projects a reproduced image of the plurality of image data.

PJ付き電子カメラ10には、レンズ鏡筒Pをカメラ筐体内に沈胴させる沈胴機構が設けられているが、プロジェクタ投射窓13から投影された光が撮影レンズ11のレンズ鏡筒Pでけられることがないように構成されている。   The electronic camera 10 with PJ is provided with a retracting mechanism for retracting the lens barrel P in the camera housing, but the light projected from the projector projection window 13 can be captured by the lens barrel P of the photographing lens 11. It is configured so that there is no.

図3は、PJ付き電子カメラ10の回路構成を説明するブロック図である。図3においてPJ付き電子カメラ10は、投射部220と、撮像部120と、CPU101と、メモリ102と、操作部材103と、液晶表示器104と、スピーカ105と、マイク106と、電源回路108とを有する。不図示のカードスロットには、メモリカード150が実装されている。メモリカード150は着脱可能である。また、不図示の電池ホルダに電池109が実装される。   FIG. 3 is a block diagram illustrating a circuit configuration of the electronic camera 10 with PJ. In FIG. 3, the electronic camera 10 with PJ includes a projection unit 220, an imaging unit 120, a CPU 101, a memory 102, an operation member 103, a liquid crystal display 104, a speaker 105, a microphone 106, and a power circuit 108. Have A memory card 150 is mounted in a card slot (not shown). The memory card 150 is detachable. A battery 109 is mounted on a battery holder (not shown).

CPU101は、制御プログラムに基づいてPJ付き電子カメラ10を構成する各部から入力される信号を用いて所定の演算を行うなどして、PJ付き電子カメラ10の各部へ制御信号を送出することにより、撮影動作および投影動作の制御を行う。CPU101はASIC( Application Specific Integrated Circuit )より構成される。なお、制御プログラムはCPU101内の不図示の不揮発性メモリに格納されている。   The CPU 101 sends a control signal to each part of the electronic camera with PJ 10 by performing a predetermined calculation using a signal input from each part constituting the electronic camera with PJ based on the control program. Controls the shooting and projection operations. The CPU 101 is composed of an ASIC (Application Specific Integrated Circuit). The control program is stored in a nonvolatile memory (not shown) in the CPU 101.

メモリ102はCPU101の作業用メモリとして使用される。操作部材103は、図1におけるメインスイッチ22、レリーズボタン14、ズームスイッチ16、モード切り替えダイヤル15、および図2の操作部材19に対応する。操作部材103は、それぞれの操作内容に応じた操作信号をCPU101へ送出する。   The memory 102 is used as a working memory for the CPU 101. The operation member 103 corresponds to the main switch 22, the release button 14, the zoom switch 16, the mode switching dial 15, and the operation member 19 shown in FIG. The operation member 103 sends an operation signal corresponding to each operation content to the CPU 101.

メモリカード150はフラッシュメモリなどの不揮発性メモリによって構成され、CPU101からの指示により撮像部120で撮影された画像のデータ書き込み、保存および読み出しが可能である。   The memory card 150 is configured by a non-volatile memory such as a flash memory, and can write, save, and read data of an image captured by the imaging unit 120 according to an instruction from the CPU 101.

電源回路108は、CPU101からの指示によりオン/オフされ、オン時に電池109による電圧を各回路で必要な電圧に変換し、PJ付き電子カメラ10の各部へ電力を供給する。なお、CPU101は、電源回路108のオン/オフ状態にかかわらず、電池109が装填されると常に通電されるように構成されている。   The power supply circuit 108 is turned on / off according to an instruction from the CPU 101. When the power supply circuit 108 is turned on, the voltage from the battery 109 is converted into a voltage required by each circuit, and power is supplied to each unit of the electronic camera 10 with PJ. Note that the CPU 101 is configured to be energized whenever the battery 109 is loaded, regardless of whether the power supply circuit 108 is on or off.

液晶表示器104(図2において符号17に対応)は、CPU101の指示により画像などの情報を表示する。なお、液晶表示器104は、撮像して得られた画像や各種のメニュー画面を表示する表示モニタとして働くほか、撮像時に、被写体の画像(スルー画)を表示する電子ファインダとして働く。スルー画は、本撮影の前段階として後述する撮像素子で繰り返し取得される予備撮影画像である。スピーカ105(図2において符号21に対応)は、CPU101から出力される音声データによる音声を再生する。   The liquid crystal display 104 (corresponding to reference numeral 17 in FIG. 2) displays information such as an image in accordance with an instruction from the CPU 101. The liquid crystal display 104 functions as a display monitor that displays an image obtained by imaging and various menu screens, and also functions as an electronic viewfinder that displays an image of a subject (through image) at the time of imaging. The through image is a pre-photographed image that is repeatedly acquired by an image sensor, which will be described later, as a pre-stage of the main photographing. The speaker 105 (corresponding to reference numeral 21 in FIG. 2) reproduces sound based on sound data output from the CPU 101.

マイク106は、集音した音声を電気信号に変換してCPU101へ送出する。音声信号のデータは、撮影モード時にメモリカード150に記録される。   The microphone 106 converts the collected sound into an electrical signal and sends it to the CPU 101. The audio signal data is recorded on the memory card 150 in the shooting mode.

−−−撮像部−−−
撮像部120は、撮影光学系121(図1において符号11に対応)と、撮像素子122と、レンズ駆動部123と、撮影制御回路124と、鏡筒沈胴機構125とを含む。撮像素子122としては、たとえばCCDが用いられる。撮影制御回路124は、CPU101からの指示により撮像素子122およびレンズ駆動部123を駆動制御するとともに、撮像素子122から出力される撮像信号(蓄積電荷信号)に対して所定の画像処理を行う。
--- Imaging unit ---
The imaging unit 120 includes a photographing optical system 121 (corresponding to reference numeral 11 in FIG. 1), an imaging element 122, a lens driving unit 123, a photographing control circuit 124, and a lens barrel retracting mechanism 125. For example, a CCD is used as the image sensor 122. The imaging control circuit 124 drives and controls the image sensor 122 and the lens driving unit 123 according to an instruction from the CPU 101 and performs predetermined image processing on the image signal (accumulated charge signal) output from the image sensor 122.

撮影光学系121は、撮像素子122の撮像面上に被写体像を結像させる。撮影制御回路124は、撮影開始指示に応じて撮像素子122に撮像を開始させ、撮像終了後に撮像素子122から蓄積電荷信号を読出し、上記画像処理を施した上で画像データとしてCPU101へ送出する。   The imaging optical system 121 forms a subject image on the imaging surface of the imaging element 122. The imaging control circuit 124 causes the imaging device 122 to start imaging in response to an imaging start instruction, reads the accumulated charge signal from the imaging device 122 after the imaging is completed, sends the image processing to the CPU 101 as image data.

レンズ駆動部123は、撮影制御回路124から出力されるフォーカス調節信号に基づいて、撮影光学系121を構成するフォーカスレンズ(不図示)を光軸方向に進退駆動する。また、レンズ駆動部123は、撮影制御回路124から出力されるズーム調節信号に基づいて、撮影光学系121を構成するズームレンズ(不図示)を光軸方向(望遠側もしくは広角側)へ進退駆動する。フォーカス調節量およびズーム調節量は、CPU101から撮影制御回路124へ指示される。   The lens driving unit 123 drives a focus lens (not shown) constituting the photographing optical system 121 forward and backward in the optical axis direction based on the focus adjustment signal output from the photographing control circuit 124. The lens driving unit 123 drives the zoom lens (not shown) constituting the photographing optical system 121 to advance and retreat in the optical axis direction (telephoto side or wide angle side) based on the zoom adjustment signal output from the photographing control circuit 124. To do. The focus adjustment amount and the zoom adjustment amount are instructed from the CPU 101 to the photographing control circuit 124.

−−−投射部−−−
投射部220は、投影光学系221と、液晶パネル222と、LED(発光ダイオード)光源223と、レンズ駆動部224と、投射制御回路225とを含む。投射制御回路225は電流可変回路部を有し、CPU101から出力される投影指示に応じてLED光源223へ供給される駆動電流の電流量を制御する。LED光源223は、供給電流に応じた明るさで液晶パネル222を照明する。
---- Projection part ---
The projection unit 220 includes a projection optical system 221, a liquid crystal panel 222, an LED (light emitting diode) light source 223, a lens driving unit 224, and a projection control circuit 225. The projection control circuit 225 has a current variable circuit unit, and controls the amount of drive current supplied to the LED light source 223 in accordance with a projection instruction output from the CPU 101. The LED light source 223 illuminates the liquid crystal panel 222 with brightness according to the supply current.

投射制御回路225はさらに、CPU101から送出される画像データに応じて液晶パネル駆動信号を生成し、生成した駆動信号で液晶パネル222を駆動する。具体的には、液晶層に対して画像信号に応じた電圧を画素ごとに印加する。電圧が印加された液晶層は液晶分子の配列が変わり、当該液晶層の光の透過率が変化する。このように、画像信号に応じてLED光源223からの光を変調することにより、液晶パネル222が光像を生成(形成)する。   The projection control circuit 225 further generates a liquid crystal panel drive signal according to the image data sent from the CPU 101, and drives the liquid crystal panel 222 with the generated drive signal. Specifically, a voltage corresponding to the image signal is applied to the liquid crystal layer for each pixel. In the liquid crystal layer to which a voltage is applied, the arrangement of liquid crystal molecules changes, and the light transmittance of the liquid crystal layer changes. Thus, the liquid crystal panel 222 generates (forms) an optical image by modulating the light from the LED light source 223 in accordance with the image signal.

投影光学系221は、液晶パネル222から射出される光像をスクリーンなどへ向けて投影する。レンズ駆動部224は、投射制御回路225から出力されるフォーカス調節信号に基づいて、投影光学系221を構成するフォーカスレンズ(不図示)を光軸方向へ進退駆動する。レンズ駆動部224はさらに、投射制御回路225から出力されるズーム調節信号に基づいて、投影光学系221を構成するズームレンズ(不図示)を光軸方向へ進退駆動する。フォーカス調節量およびズーム調節量は、CPU101から投射制御回路225へ指示される。   The projection optical system 221 projects the light image emitted from the liquid crystal panel 222 onto a screen or the like. The lens driving unit 224 drives a focus lens (not shown) constituting the projection optical system 221 to advance and retreat in the optical axis direction based on the focus adjustment signal output from the projection control circuit 225. The lens driving unit 224 further drives a zoom lens (not shown) constituting the projection optical system 221 forward and backward in the optical axis direction based on the zoom adjustment signal output from the projection control circuit 225. The CPU 101 instructs the projection control circuit 225 for the focus adjustment amount and the zoom adjustment amount.

−−−撮像機能を利用したプロジェクタ機能の操作について−−−
本実施の形態のPJ付き電子カメラ10では、操作部材103の操作の他、撮像部120の撮像範囲にユーザが指や手などを置くことで、以下のようにプロジェクタ機能に関する操作を行うことができる。すなわち、本実施の形態のPJ付き電子カメラ10では、撮像機能を利用してプロジェクタ機能に関して操作可能である。
---- About projector function operation using imaging function ---
In the electronic camera with a PJ 10 according to the present embodiment, in addition to the operation of the operation member 103, the user can perform operations related to the projector function as follows by placing a finger or a hand in the imaging range of the imaging unit 120. it can. That is, in the electronic camera with PJ 10 of the present embodiment, the projector function can be operated using the imaging function.

撮像機能を利用したプロジェクタ機能の操作についての具体的な説明に先立って、投射部220からの投影画像と撮像部120の撮像範囲との関係について説明する。図4は、PJ付き電子カメラ10の正面のスクリーン301に投射部220から画像を投射(投影)した状態を示す図である。図4において、311は投射部220からスクリーン301に投影された画像(投影画像の範囲)を示す。   Prior to specific description of the operation of the projector function using the imaging function, the relationship between the projected image from the projection unit 220 and the imaging range of the imaging unit 120 will be described. FIG. 4 is a diagram illustrating a state in which an image is projected (projected) from the projection unit 220 onto the screen 301 in front of the electronic camera 10 with PJ. In FIG. 4, reference numeral 311 denotes an image (projected image range) projected from the projection unit 220 onto the screen 301.

図5(a),(b)は、スクリーン301に投影された投影画像311と、広角側に設定された撮像部120による撮像範囲との関係を示す図であり、図5(a)はスクリーン301の側面から見たときの図であり、図5(b)はスクリーン301の正面から見たときの図である。図5(b)において、321は撮像部120の撮像範囲である。図5(a),(b)に示すように、広角側に設定されると、撮像部120の撮像画角が投射部220の投影画角よりも広くなるため、PJ付き電子カメラ10とスクリーン301とが所定の距離以上離れれば、撮像部120はスクリーン301に投影された投影画像311よりも広い範囲を撮像できる。なお、本実施の形態のPJ付き電子カメラ10では、プロジェクタ投射窓13がレンズ鏡筒Pの上方に設けられているため、投影画像311の中心位置は、撮像範囲321の中心位置よりも高くなる。   5A and 5B are diagrams showing the relationship between the projected image 311 projected on the screen 301 and the imaging range by the imaging unit 120 set on the wide-angle side, and FIG. FIG. 5B is a diagram when viewed from the side of the screen 301, and FIG. 5B is a diagram when viewed from the front of the screen 301. In FIG. 5B, reference numeral 321 denotes an imaging range of the imaging unit 120. As shown in FIGS. 5A and 5B, when set to the wide angle side, the imaging field angle of the imaging unit 120 becomes wider than the projection field angle of the projection unit 220. If the distance 301 is more than a predetermined distance, the imaging unit 120 can capture a wider range than the projected image 311 projected on the screen 301. In the electronic camera 10 with PJ of the present embodiment, since the projector projection window 13 is provided above the lens barrel P, the center position of the projection image 311 is higher than the center position of the imaging range 321. .

図6(a),(b)は、スクリーン301に投影された投影画像311と、望遠側に設定された撮像部120による撮像範囲との関係を示す図であり、図6(a)はスクリーン301の側面から見たときの図であり、図6(b)はスクリーン301の正面から見たときの図である。図6(a),(b)に示すように、望遠側に設定されると、撮像部120の撮像画角が投射部220の投影画角よりも狭くなるため、撮像部120はスクリーン301に投影された投影画像311の範囲よりも狭い範囲しか撮像できない。   6A and 6B are diagrams showing the relationship between the projected image 311 projected on the screen 301 and the imaging range by the imaging unit 120 set on the telephoto side, and FIG. 6A is the screen. FIG. 6B is a diagram when viewed from the side of the screen 301, and FIG. 6B is a diagram when viewed from the front of the screen 301. As shown in FIGS. 6A and 6B, when set to the telephoto side, the imaging field angle of the imaging unit 120 becomes narrower than the projection field angle of the projection unit 220. Only a range narrower than the projected image 311 can be captured.

また、上述したように、投影画像311の中心位置が撮像範囲321の中心位置よりも高いため、PJ付き電子カメラ10とスクリーン301との距離が近いと(たとえば図6(a)の距離L1)、撮像部120は、投影画像311よりも下側の領域を主に撮像することになる。PJ付き電子カメラ10とスクリーン301との距離が図6(a)のL1,L2,L3・・・と離れるほど、撮像部120はスクリーン301に投影された投影画像311を主に撮像することになる。なお、図6(b)に示す図は、PJ付き電子カメラ10とスクリーン301との距離が図6(a)における距離L2に略等しい場合に相当する。   As described above, since the center position of the projected image 311 is higher than the center position of the imaging range 321, if the distance between the electronic camera with PJ 10 and the screen 301 is short (for example, the distance L1 in FIG. 6A). The imaging unit 120 mainly captures an area below the projection image 311. The imaging unit 120 mainly captures the projected image 311 projected on the screen 301 as the distance between the electronic camera with PJ 10 and the screen 301 increases from L1, L2, L3... In FIG. Become. 6B corresponds to the case where the distance between the electronic camera with PJ 10 and the screen 301 is substantially equal to the distance L2 in FIG. 6A.

−−−撮像画角が広角側に設定された場合−−−
本実施の形態のPJ付き電子カメラ10では、モード切り替えダイヤル15の操作によって投影モードに切り替えられ、かつ、撮像画角が広角側に設定されるとCPU101が次のように各部を制御する。CPU101は、操作部材103であるモード切り替えダイヤル15からの出力信号に基づいて、投影モードに切り替えられたと判断すると、たとえばメモリカード150に記録されている複数の画像のデータのうち、最も新しい画像のデータを読み込み、投射部220から画像を投影するよう各部を制御する。
---- When the field of view is set to the wide-angle side ---
In the electronic camera 10 with PJ of this embodiment, when the mode switching dial 15 is operated to switch to the projection mode and the imaging field angle is set to the wide angle side, the CPU 101 controls each unit as follows. When the CPU 101 determines that the projection mode has been switched based on the output signal from the mode switching dial 15 that is the operation member 103, for example, among the plurality of image data recorded on the memory card 150, for example, Each unit is controlled to read data and project an image from the projection unit 220.

また、CPU101は、撮像部120を起動して、PJ付き電子カメラ10の前方を撮像させるとともに、撮像部120で撮像して得た画像(スルー画)を液晶表示器17に表示させる。また、CPU101は、操作部材103である不図示のズーム操作ボタンからの出力信号に基づいて、撮影光学系121を構成する不図示のズームレンズを光軸方向へ進退駆動するよう撮影制御回路124に制御信号を出力する。   Further, the CPU 101 activates the imaging unit 120 to image the front of the electronic camera with PJ 10 and causes the liquid crystal display 17 to display an image (through image) obtained by imaging with the imaging unit 120. Further, the CPU 101 instructs the photographing control circuit 124 to drive a zoom lens (not shown) constituting the photographing optical system 121 forward and backward in the optical axis direction based on an output signal from a zoom operation button (not shown) that is the operation member 103. Output a control signal.

撮影制御回路124は、CPU101から受信した制御信号に基づいて、レンズ駆動部123にズーム調節信号を出力する。また、撮影制御回路124は、たとえば公知のコントラスト検出方式のAF制御演算を行い、ピント調節を行うようレンズ駆動部123に制御信号を出力する。なお、AF制御演算の方式はコントラスト検出方式に限らず、AF測距センサによる位相差検出方式や、コントラスト検出方式と位相差検出方式を組み合わせたハイブリッド方式など、様々な方式であってもよい。   The imaging control circuit 124 outputs a zoom adjustment signal to the lens driving unit 123 based on the control signal received from the CPU 101. The imaging control circuit 124 performs, for example, a known contrast detection AF control calculation and outputs a control signal to the lens driving unit 123 so as to perform focus adjustment. Note that the AF control calculation method is not limited to the contrast detection method, and may be various methods such as a phase difference detection method using an AF distance sensor, and a hybrid method combining the contrast detection method and the phase difference detection method.

CPU101は、投射制御回路225から投影光学系221の投影画角に関する情報を取得する。またCPU101は、撮影制御回路124からAF制御演算によって得られた被写体(たとえばスクリーン301)までの距離に関する情報と、現在の撮像光学系121の撮像画角(以下、現在撮像画角Aと呼ぶ)の情報を取得する。そして、CPU101は、取得した投影画角に関する情報およびスクリーン301までの距離に関する情報に基づいて、スクリーン301に投影される画像の全体を撮像可能な撮像光学系121の撮像画角(以下、算出撮像画角Bと呼ぶ)を算出する。   The CPU 101 acquires information regarding the projection angle of view of the projection optical system 221 from the projection control circuit 225. The CPU 101 also obtains information regarding the distance to the subject (for example, the screen 301) obtained by the AF control calculation from the shooting control circuit 124, and the current imaging angle of view of the imaging optical system 121 (hereinafter referred to as the current imaging angle of view A). Get information about. Then, the CPU 101 captures an imaging field angle (hereinafter, calculated imaging) of the imaging optical system 121 capable of capturing the entire image projected on the screen 301 based on the acquired information regarding the projection angle of view and information regarding the distance to the screen 301. (Referred to as an angle of view B).

CPU101は、上述した現在撮像画角Aと算出撮像画角Bとを比較して、現在撮像画角Aが算出撮像画角Bよりも所定角度以上大きいか否かを判断する。すなわち、CPU101は、図5(a),(b)に示すように、スクリーン301に投影された投影画像311よりも所定範囲だけ広い範囲を(投影画像311よりもひと回り広い範囲を)撮像部120で撮像しているか否かを判断する。CPU101は、現在撮像画角Aが算出撮像画角Bよりも所定角度以上大きいと判断されると、図7(a),(b)に示すように、撮像部120で撮像して得た画像170と、プロジェクタ機能の操作に関するアイコン172〜175とを液晶表示器17に重畳的に表示させる。   The CPU 101 compares the above-described current imaging angle of view A with the calculated imaging angle of view B, and determines whether or not the current imaging angle of view A is greater than the calculated imaging angle of view B by a predetermined angle or more. That is, as shown in FIGS. 5A and 5B, the CPU 101 captures a range wider than the projection image 311 projected on the screen 301 by a predetermined range (a range wider than the projection image 311). It is determined whether or not the image is captured. When the CPU 101 determines that the current imaging angle of view A is larger than the calculated imaging angle of view B by a predetermined angle or more, as shown in FIGS. 7A and 7B, the image obtained by the imaging unit 120 is obtained. 170 and icons 172 to 175 relating to the operation of the projector function are displayed on the liquid crystal display 17 in a superimposed manner.

撮像部120で撮像して得た画像170には、スクリーン301に投影された投影画像311と、投影画像311の周囲とが含まれている。画像171は、画像170中の投影画像311の画像を指す。アイコン172は、画像171の右側に表示されて、投射部220から投影される画像の1コマ送りを意味する三角形状のアイコンである。アイコン173は、画像171の左側に表示されて、投射部220から投影される画像の1コマ戻しを意味する三角形状のアイコンである。アイコン174は、画像171の上側に表示されて、投射部220から投影される画像の拡大(投影画角の増加)を意味するアイコンである。アイコン175は、画像171の下側に表示されて、投射部220から投影される画像の縮小(投影画角の減少)を意味するアイコンである。   An image 170 obtained by imaging with the imaging unit 120 includes a projection image 311 projected on the screen 301 and the periphery of the projection image 311. An image 171 indicates an image of the projection image 311 in the image 170. The icon 172 is a triangular icon which is displayed on the right side of the image 171 and signifies one frame advance of the image projected from the projection unit 220. The icon 173 is a triangular icon that is displayed on the left side of the image 171 and means that one frame of the image projected from the projection unit 220 is returned. The icon 174 is an icon that is displayed on the upper side of the image 171 and signifies enlargement of the image projected from the projection unit 220 (increase in the projected angle of view). The icon 175 is an icon displayed on the lower side of the image 171 and means reduction of the image projected from the projection unit 220 (decrease in the projected angle of view).

本実施の形態のPJ付き電子カメラ10では、PJ付き電子カメラ10の前方で、撮像部120の撮像範囲内にたとえばユーザの指が置かれると、図8に示すように、その置かれた指(指F)が撮像素子122で撮像される。そして、投影画像311の画像171やアイコン172〜175とともに指Fの画像179が液晶表示器17に表示される。   In the electronic camera with PJ 10 according to the present embodiment, when a user's finger is placed in the imaging range of the imaging unit 120 in front of the electronic camera 10 with PJ, as shown in FIG. (Finger F) is imaged by the image sensor 122. Then, the image 179 of the finger F is displayed on the liquid crystal display 17 together with the image 171 of the projection image 311 and the icons 172 to 175.

PJ付き電子カメラ10では、図8に示すようにアイコン172の近傍で指Fの画像179が表示されると、投射部220から投影される画像が1コマだけ送られる。同様に、アイコン173の近傍で指Fの画像179が表示されると、投射部220から投影される画像が1コマだけ戻される。また、アイコン174の近傍で指Fの画像179が表示されると、投射部220から投影される画像が拡大され、アイコン175の近傍で指Fの画像179が表示されると、投射部220から投影される画像が縮小される。   In the electronic camera 10 with PJ, when the image 179 of the finger F is displayed in the vicinity of the icon 172 as shown in FIG. 8, only one frame projected from the projection unit 220 is sent. Similarly, when the image 179 of the finger F is displayed in the vicinity of the icon 173, the image projected from the projection unit 220 is returned by one frame. Further, when the image 179 of the finger F is displayed near the icon 174, the image projected from the projection unit 220 is enlarged, and when the image 179 of the finger F is displayed near the icon 175, the image is projected from the projection unit 220. The projected image is reduced.

すなわち、CPU101は、撮像素子122で撮像して得られたスルー画を順次読み込んで、撮像素子122から出力される画像信号の変化を検出する。そして、CPU101は、検出した画像信号の変化に基づいてスクリーン301に投影された投影画像311よりも右側部分の画像に変化があるか否かを判断する。たとえば撮像範囲内に指が置かれるなどして、スクリーン301に投影された投影画像311よりも右側部分の画像のうち、所定の画素数以上の領域に変化があると判断されると、CPU101は、投射部220から投影される画像を1コマだけ送るよう、各部を制御する。   That is, the CPU 101 sequentially reads through images obtained by imaging with the image sensor 122 and detects a change in the image signal output from the image sensor 122. Then, the CPU 101 determines whether there is a change in the image on the right side of the projected image 311 projected on the screen 301 based on the detected change in the image signal. For example, when it is determined that there is a change in the area of a predetermined number of pixels or more in the image on the right side of the projected image 311 projected on the screen 301 by placing a finger within the imaging range, the CPU 101 Each unit is controlled so that only one frame of the image projected from the projection unit 220 is sent.

同様に、スクリーン301に投影された投影画像311よりも左側部分の画像のうち、所定の画素数以上の領域に変化があると判断されると、CPU101は、投射部220から投影される画像を1コマだけ戻すよう、各部を制御する。スクリーン301に投影された投影画像311よりも上側部分の画像のうち、所定の画素数以上の領域に変化があると判断されると、CPU101は、投射部220から投影される画像を拡大するよう、各部を制御する。スクリーン301に投影された投影画像311よりも下側部分の画像のうち、所定の画素数以上の領域に変化があると判断されると、CPU101は、投射部220から投影される画像を縮小するよう、各部を制御する。   Similarly, when it is determined that there is a change in an area of a predetermined number of pixels or more in the image on the left side of the projection image 311 projected on the screen 301, the CPU 101 displays the image projected from the projection unit 220. Each part is controlled so that only one frame is returned. When it is determined that there is a change in an area of a predetermined number of pixels or more in the image above the projection image 311 projected on the screen 301, the CPU 101 enlarges the image projected from the projection unit 220. Control each part. If it is determined that there is a change in an area of a predetermined number of pixels or more in the lower part of the projected image 311 projected on the screen 301, the CPU 101 reduces the image projected from the projection unit 220. Control each part.

具体的には、CPU101は、図9に示すように、撮像素子122で撮像して得られたスルー画のうち、画像171よりも右側の領域であって、アイコン172の周囲を破線で囲んだ領域(斜線部分)182の画像の変化を監視する。CPU101は、領域182の画像のうち、所定の画素数以上の領域に変化があると判断されると、投射部220から投影される画像を1コマだけ送るよう指示されたものと判断する。そして、CPU101は、たとえば、メモリカード150から画像データを読み込んで投射部220から画像を投影している場合、現在投影している画像のデータよりも1コマだけ新しい画像のデータをメモリカード150から読み込んで、投射部220から画像を投影するように各部を制御する。なお、CPU101は、領域182に上述のように変化があると判断された後、領域182の画像が元に戻り(たとえば指Fが撮像されなくなった)、その後再び領域182に上述のように変化があると判断されると、さらに1コマだけ新しい画像を投射部220から投影するように各部を制御する。   Specifically, as illustrated in FIG. 9, the CPU 101 is an area on the right side of the image 171 in the through image obtained by imaging with the imaging element 122 and surrounds the icon 172 with a broken line. A change in the image of the region (shaded portion) 182 is monitored. If the CPU 101 determines that there is a change in an area of a predetermined number of pixels or more in the image of the area 182, it determines that an instruction to send only one image projected from the projection unit 220 is given. Then, for example, when the CPU 101 reads image data from the memory card 150 and projects an image from the projection unit 220, the CPU 101 stores image data that is one frame newer than the currently projected image data from the memory card 150. Each unit is controlled to read and project an image from the projection unit 220. Note that after the CPU 101 determines that the area 182 has changed as described above, the image of the area 182 is restored (for example, the finger F is no longer imaged), and then changes again to the area 182 as described above. If it is determined that there is an image, each unit is controlled to project a new image from the projection unit 220 by one frame.

同様に、CPU101は、図9に示すスルー画のうち、画像171よりも左側の領域であって、アイコン173の周囲を破線で囲んだ領域(斜線部分)183の画像の変化を監視する。CPU101は、領域183の画像のうち、所定の画素数以上の領域に変化があると判断されると、投射部220から投影される画像を1コマだけ戻すよう指示されたものと判断する。そして、CPU101は、たとえば、メモリカード150から画像データを読み込んで投射部220から画像を投影している場合、現在投影している画像のデータよりも1コマだけ古い画像のデータをメモリカード150から読み込んで、投射部220から画像を投影するように各部を制御する。なお、CPU101は、領域183に上述のように変化があると判断された後、領域183の画像が元に戻り(たとえば指Fが撮像されなくなった)、その後再び領域183に上述のように変化があると判断されると、さらに1コマだけ古い画像を投射部220から投影するように各部を制御する。   Similarly, the CPU 101 monitors the change in the image of the region (shaded portion) 183 in the region on the left side of the image 171 in the through image shown in FIG. 9 and surrounded by a broken line around the icon 173. When the CPU 101 determines that there is a change in an area of a predetermined number of pixels or more in the image of the area 183, the CPU 101 determines that an instruction to return the image projected from the projection unit 220 by one frame is given. For example, when the CPU 101 reads image data from the memory card 150 and projects an image from the projection unit 220, the CPU 101 stores image data that is one frame older than the currently projected image data from the memory card 150. Each unit is controlled to read and project an image from the projection unit 220. Note that the CPU 101 determines that the area 183 has changed as described above, the image of the area 183 is restored (for example, the finger F is no longer imaged), and then changes again to the area 183 as described above. If it is determined that there is an image, each unit is controlled to project an image that is one frame older from the projection unit 220.

CPU101は、図9に示すスルー画のうち、画像171よりも上側の領域であって、アイコン174の周囲を破線で囲んだ領域(斜線部分)184の画像の変化を監視する。CPU101は、領域184の画像のうち、所定の画素数以上の領域に変化があると判断されると、投射部220から投影される画像を拡大するよう指示されたものと判断する。そして、CPU101は、投影画角を広げるように投射制御回路225へ制御信号(画角拡大指示信号)を出力する。なお、CPU101は、領域184に所定の画素数以上の領域に変化があると判断されている間(たとえば指Fが撮像されている間)は、画角拡大指示信号を出力し続ける。   The CPU 101 monitors an image change in an area (shaded portion) 184 that is an area above the image 171 and surrounded by a broken line in the through image shown in FIG. When the CPU 101 determines that there is a change in an area of a predetermined number of pixels or more in the image of the area 184, the CPU 101 determines that an instruction to enlarge the image projected from the projection unit 220 is given. Then, the CPU 101 outputs a control signal (view angle expansion instruction signal) to the projection control circuit 225 so as to widen the projection view angle. Note that the CPU 101 continues to output the angle-of-view expansion instruction signal while it is determined that there is a change in the area 184 having a predetermined number of pixels or more (for example, while the finger F is imaged).

同様に、CPU101は、図9に示すスルー画のうち、画像171よりも下側の領域であって、アイコン175の周囲を破線で囲んだ領域(斜線部分)185の画像の変化を監視する。CPU101は、領域185の画像のうち、所定の画素数以上の領域に変化があると判断されると、投射部220から投影される画像を縮小するよう指示されたものと判断する。そして、CPU101は、投影画角を狭めるように投射制御回路225へ制御信号(画角縮小指示信号)を出力する。なお、CPU101は、領域185に所定の画素数以上の領域に変化があると判断されている間(たとえば指Fが撮像されている間)は、画角縮小指示信号を出力し続ける。   Similarly, the CPU 101 monitors the change in the image in the region (shaded portion) 185 in the region below the image 171 in the through image shown in FIG. 9 and surrounded by a broken line around the icon 175. If the CPU 101 determines that there is a change in an area of a predetermined number of pixels or more in the image of the area 185, the CPU 101 determines that an instruction to reduce the image projected from the projection unit 220 is given. Then, the CPU 101 outputs a control signal (view angle reduction instruction signal) to the projection control circuit 225 so as to narrow the projection view angle. Note that the CPU 101 continues to output the angle-of-view reduction instruction signal while it is determined that there is a change in the area 185 that is equal to or larger than the predetermined number of pixels (for example, while the finger F is imaged).

上述の説明では、所定の画素数以上の領域に変化があるか否かを判断している。なお、これは、投影画像311の周囲にたとえば虫が飛んできたといった場合のように、画像171の周囲の領域の画像の予期せぬ僅かな変化によってプロジェクタ機能がユーザの意に反して操作されることを防止するようにしても構わない。   In the above description, it is determined whether or not there is a change in an area having a predetermined number of pixels or more. Note that this is because the projector function is operated against the user's will due to an unexpected slight change in the image in the area around the image 171, for example, when an insect is flying around the projection image 311. You may make it prevent that.

なお、上述の説明では、ユーザ(操作者)がPJ付き電子カメラ10の背面に配設された液晶表示器17を見ながらPJ付き電子カメラ10の前面側の撮像範囲内に指Fを置くことになる。撮像部120のピントは、上述したピント調節機能により、被写体であるスクリーン301またはスクリーン301上に投影された投影画像311に合わされることとなる。そのため、スクリーン301までの距離が近ければ、すなわち、スクリーン301がユーザの指Fの届く範囲内にあれば、ユーザが指Fをスクリーン301上に置くことができるので、指Fが撮像部120で鮮明に撮像されることとなる。したがって、上述したように、CPU101は、所定の画素数以上の領域に変化があるか否かを判断できる。   In the above description, the user (operator) places the finger F within the imaging range on the front side of the electronic camera 10 with PJ while looking at the liquid crystal display 17 disposed on the back surface of the electronic camera 10 with PJ. become. The focus of the imaging unit 120 is adjusted to the screen 301 as a subject or the projected image 311 projected onto the screen 301 by the above-described focus adjustment function. For this reason, if the distance to the screen 301 is short, that is, if the screen 301 is within the reach of the user's finger F, the user can place the finger F on the screen 301. A clear image is captured. Therefore, as described above, the CPU 101 can determine whether or not there is a change in an area having a predetermined number of pixels or more.

スクリーン301までの距離が遠ければ、すなわち、スクリーン301がユーザの指Fの届く範囲内になければ、ユーザが指Fをスクリーン301上に置くことができないので、指Fはぼやけた状態で撮像されることとなる。しかし、この場合であっても、ユーザが指Fを撮像部120の撮像範囲内に置くことで、図9に示したスルー画の各領域182〜185に所定の画素数以上の変化を与えることができる。したがって、スクリーン301がユーザの指Fの届く範囲内になくても、上述したように、CPU101は、所定の画素数以上の領域に変化があるか否かを判断できる。   If the distance to the screen 301 is long, that is, if the screen 301 is not within the reach of the user's finger F, the user cannot place the finger F on the screen 301, so the finger F is imaged in a blurred state. The Rukoto. However, even in this case, when the user places the finger F within the imaging range of the imaging unit 120, the regions 182 to 185 of the through image shown in FIG. Can do. Therefore, even if the screen 301 is not within the reach of the user's finger F, as described above, the CPU 101 can determine whether or not there is a change in an area greater than the predetermined number of pixels.

このように、本実施の形態のPJ付き電子カメラ10では、PJ付き電子カメラ10の前方に指Fが置かれることなどによってプロジェクタ機能に関する操作を指示できる。また、本実施の形態のPJ付き電子カメラ10では、当該指示に対応する表示(アイコン172〜175)を液晶表示器17に表示している。すなわち、液晶表示器17に表示されるアイコン172〜175と、プロジェクタ機能に関する操作内容とが一致しているので、指Fを置く位置や操作の内容が直感的に理解し易くなっている。   Thus, in the electronic camera with PJ 10 according to the present embodiment, an operation related to the projector function can be instructed by placing the finger F in front of the electronic camera 10 with PJ. Further, in the electronic camera with PJ 10 of the present embodiment, the display (icons 172 to 175) corresponding to the instruction is displayed on the liquid crystal display 17. That is, since the icons 172 to 175 displayed on the liquid crystal display device 17 and the operation content related to the projector function match, it is easy to intuitively understand the position where the finger F is placed and the operation content.

−−−撮像画角が望遠側に設定された場合−−−
なお、本実施の形態のPJ付き電子カメラ10では、モード切り替えダイヤル15の操作によって投影モードに切り替えられ、かつ、撮像画角が望遠側に設定されるとCPU101が次のように各部を制御する。CPU101は、操作部材103であるモード切り替えダイヤル15からの出力信号に基づいて、投影モードに切り替えられたと判断すると、上述の場合と同様に、たとえばメモリカード150に記録されている複数の画像のデータのうち、最も新しい画像のデータを読み込み、投射部220から画像を投影するよう各部を制御する。
---- When the field of view is set to the telephoto side ---
In the electronic camera 10 with PJ of the present embodiment, when the mode is switched to the projection mode by operating the mode switching dial 15 and the imaging field angle is set to the telephoto side, the CPU 101 controls each unit as follows. . When the CPU 101 determines that the projection mode has been switched based on the output signal from the mode switching dial 15 that is the operation member 103, the data of a plurality of images recorded in the memory card 150, for example, as described above, is used. Of these, the data of the newest image is read, and each unit is controlled to project the image from the projection unit 220.

また、CPU101は、上述の場合と同様に、撮像部120を起動して、PJ付き電子カメラ10の前方を撮像させるとともに、撮像部120で撮像して得た画像(スルー画)を液晶表示器17に表示させる。また、CPU101は、操作部材103である不図示のズーム操作ボタンからの出力信号に基づいて、撮影光学系121を構成する不図示のズームレンズを光軸方向へ進退駆動するよう撮影制御回路124に制御信号を出力する。   Similarly to the above-described case, the CPU 101 activates the imaging unit 120 to image the front of the electronic camera with PJ 10 and also displays an image (through image) obtained by imaging with the imaging unit 120 on the liquid crystal display. 17 is displayed. Further, the CPU 101 instructs the photographing control circuit 124 to drive a zoom lens (not shown) constituting the photographing optical system 121 forward and backward in the optical axis direction based on an output signal from a zoom operation button (not shown) that is the operation member 103. Output a control signal.

撮影制御回路124は、上述の場合と同様に、CPU101から受信した制御信号に基づいて、レンズ駆動部123にズーム調節信号を出力する。また、撮影制御回路124は、たとえば公知のコントラスト検出方式のAF制御演算を行い、ピント調節を行うようレンズ駆動部123に制御信号を出力する。   The imaging control circuit 124 outputs a zoom adjustment signal to the lens driving unit 123 based on the control signal received from the CPU 101 in the same manner as described above. The imaging control circuit 124 performs, for example, a known contrast detection AF control calculation and outputs a control signal to the lens driving unit 123 so as to perform focus adjustment.

CPU101は、投射制御回路225から投影光学系221の投影画角に関する情報を取得する。またCPU101は、撮影制御回路124からAF制御演算によって得られた被写体(たとえばスクリーン301)までの距離に関する情報と、現在撮像画角Aを取得する。そして、CPU101は、取得した投影画角に関する情報およびスクリーン301までの距離に関する情報に基づいて、図6(b)に示すように、スクリーン301に投影される画像311の下部の一部と、画像311よりも下側の部分とを撮像可能な撮像光学系121の撮像画角(以下、算出撮像画角Cと呼ぶ)を算出する。   The CPU 101 acquires information regarding the projection angle of view of the projection optical system 221 from the projection control circuit 225. Further, the CPU 101 acquires information regarding the distance to the subject (for example, the screen 301) obtained by the AF control calculation from the photographing control circuit 124 and the current imaging angle of view A. Then, based on the acquired information about the projection angle of view and the information about the distance to the screen 301, the CPU 101, as shown in FIG. 6B, a part of the lower part of the image 311 projected on the screen 301, and the image An imaging field angle (hereinafter referred to as a calculated imaging field angle C) of the imaging optical system 121 capable of imaging a portion below 311 is calculated.

CPU101は、上述した現在撮像画角Aと算出撮像画角Cとを比較して、現在撮像画角Aが算出撮像画角Cを含む所定の角度範囲内に入っているか否かを判断する。すなわち、CPU101は、図6(b)に示すように、スクリーン301に投影される画像311の下部の一部と、画像311よりも下側の部分とを撮像しているか否かを判断する。CPU101は、現在撮像画角Aが算出撮像画角Cを含む所定の角度範囲内に入っていると判断されると、図10(a),(b)に示すように、撮像部120で撮像して得た画像170と、プロジェクタ機能の操作に関するアイコン192,193とを液晶表示器17に重畳的に表示させる。   The CPU 101 compares the above-described current imaging angle of view A with the calculated imaging angle of view C, and determines whether or not the current imaging angle of view A is within a predetermined angle range including the calculated imaging angle of view C. That is, as illustrated in FIG. 6B, the CPU 101 determines whether or not the lower part of the image 311 projected on the screen 301 and the lower part of the image 311 are captured. When the CPU 101 determines that the current imaging angle of view A is within a predetermined angle range including the calculated imaging angle of view C, the image is captured by the imaging unit 120 as shown in FIGS. 10 (a) and 10 (b). The image 170 obtained in this way and the icons 192 and 193 relating to the operation of the projector function are displayed on the liquid crystal display 17 in a superimposed manner.

図10(b)は、図10(a)における液晶表示器17の表示部分の拡大図である。176は、画像311よりも下側の部分の画像である。アイコン192は、画像170の右側に重畳的に表示されて、投射部220から投影される画像の1コマ送りを意味する三角形状のアイコンである。アイコン193は、画像170の右側に重畳的に表示されて、投射部220から投影される画像の1コマ戻しを意味する三角形状のアイコンである。194は、液晶表示器17の表示部分の左右方向略中央に表示された中央線である。   FIG. 10B is an enlarged view of a display portion of the liquid crystal display 17 in FIG. Reference numeral 176 denotes an image of a portion below the image 311. The icon 192 is a triangular icon that is displayed in a superimposed manner on the right side of the image 170 and means that one frame of the image projected from the projection unit 220 is forwarded. The icon 193 is a triangular icon that is displayed in a superimposed manner on the right side of the image 170 and means that the image projected from the projection unit 220 is returned by one frame. Reference numeral 194 denotes a center line displayed at the approximate center in the left-right direction of the display portion of the liquid crystal display 17.

本実施の形態のPJ付き電子カメラ10では、PJ付き電子カメラ10の前方で、撮像部120の撮像範囲内にたとえばユーザの指が置かれると、図11に示すように、その置かれた指Fが撮像素子122で撮像される。そして、画像171やアイコン192,193などとともに指Fの画像179が液晶表示器17に表示される。   In the electronic camera with PJ 10 according to the present embodiment, when a user's finger is placed in the imaging range of the imaging unit 120 in front of the electronic camera 10 with PJ, as shown in FIG. F is imaged by the image sensor 122. Then, the image 179 of the finger F is displayed on the liquid crystal display 17 together with the image 171 and the icons 192 and 193.

PJ付き電子カメラ10では、中央線194の右側の領域で指Fの画像179が表示されると、投射部220から投影される画像が1コマだけ送られる。同様に、中央線194の左側の領域で指Fの画像179が表示されると、投射部220から投影される画像が1コマだけ戻される。   In the electronic camera with PJ 10, when the image 179 of the finger F is displayed in the area on the right side of the center line 194, only one image projected from the projection unit 220 is sent. Similarly, when the image 179 of the finger F is displayed in the area on the left side of the center line 194, the image projected from the projection unit 220 is returned by one frame.

具体的には、CPU101は、撮像素子122で撮像して得られたスルー画を順次読み込んで、スルー画の中央よりも右側部分(スルー画右側領域)に所定の画素数以上の領域に変化があると判断されると、投射部220から投影される画像を1コマだけ送るよう指示されたものと判断する。そして、CPU101は、たとえば、メモリカード150から画像データを読み込んで投射部220から画像を投影している場合、現在投影している画像のデータよりも1コマだけ新しい画像のデータをメモリカード150から読み込んで、投射部220から画像を投影するように各部を制御する。なお、CPU101は、スルー画右側領域に上述のように変化があると判断された後、スルー画右側領域の画像が元に戻り(たとえば指Fが撮像されなくなった)、その後再びスルー画右側領域に上述のように変化があると判断されると、さらに1コマだけ新しい画像を投射部220から投影するように各部を制御する。   Specifically, the CPU 101 sequentially reads through images obtained by imaging with the image sensor 122, and changes to an area of a predetermined number of pixels or more on the right side (through image right area) from the center of the through image. If it is determined that there is an image, it is determined that the projection unit 220 has instructed to send only one frame of the projected image. Then, for example, when the CPU 101 reads image data from the memory card 150 and projects an image from the projection unit 220, the CPU 101 stores image data that is one frame newer than the currently projected image data from the memory card 150. Each unit is controlled to read and project an image from the projection unit 220. Note that the CPU 101 determines that there is a change in the right side area of the through image as described above, the image of the right side area of the through image is restored (for example, the finger F is no longer captured), and then the right side area of the through image again. If it is determined that there is a change as described above, each unit is controlled so that a new image is projected from the projection unit 220 by one more frame.

同様に、CPU101は、撮像素子122で撮像して得られたスルー画を順次読み込んで、スルー画の中央よりも左側部分(スルー画左側領域)に所定の画素数以上の領域に変化があると判断されると、投射部220から投影される画像を1コマだけ戻すよう指示されたものと判断する。そして、CPU101は、たとえば、メモリカード150から画像データを読み込んで投射部220から画像を投影している場合、現在投影している画像のデータよりも1コマだけ古い画像のデータをメモリカード150から読み込んで、投射部220から画像を投影するように各部を制御する。なお、CPU101は、スルー画左側領域に上述のように変化があると判断された後、スルー画左側領域の画像が元に戻り(たとえば指Fが撮像されなくなった)、その後再びスルー画左側領域に上述のように変化があると判断されると、さらに1コマだけ古い画像を投射部220から投影するように各部を制御する。   Similarly, the CPU 101 sequentially reads through images obtained by imaging with the image sensor 122, and if there is a change in an area equal to or more than a predetermined number of pixels in the left side portion (through image left area) of the through image center. If it is determined, it is determined that the projection unit 220 has instructed to return the image projected by one frame. For example, when the CPU 101 reads image data from the memory card 150 and projects an image from the projection unit 220, the CPU 101 stores image data that is one frame older than the currently projected image data from the memory card 150. Each unit is controlled to read and project an image from the projection unit 220. Note that the CPU 101 determines that there is a change in the left side area of the through image as described above, and then the image of the left side area of the through image returns to the original (for example, the finger F is no longer imaged). When it is determined that there is a change as described above, each unit is controlled to project an image that is one frame older from the projection unit 220.

このように、本実施の形態のPJ付き電子カメラ10では、撮像画角が望遠側に設定された場合であっても、PJ付き電子カメラ10の前方に指Fを置くことなどによってプロジェクタ機能に関する操作を指示できる。また、本実施の形態のPJ付き電子カメラ10では、当該指示に対応する表示(アイコン192,193)を液晶表示器17に表示している。すなわち、液晶表示器17に表示されるアイコン192,193と、プロジェクタ機能に関する操作内容とが一致しているので、指Fを置く位置や操作の内容が直感的に理解し易くなっている。さらに、撮像画角が望遠側に設定されることによって、撮像範囲が狭まるので、投影画像311の左右や上方に動きのある被写体が存在していても、その被写体の動きによってプロジェクタ機能がユーザの意に反して操作されることを防止できる。   As described above, in the electronic camera with PJ 10 according to the present embodiment, even when the imaging angle of view is set to the telephoto side, the finger F is placed in front of the electronic camera 10 with PJ, and so on. The operation can be instructed. Further, in the electronic camera with PJ 10 of the present embodiment, a display (icons 192 and 193) corresponding to the instruction is displayed on the liquid crystal display 17. That is, since the icons 192 and 193 displayed on the liquid crystal display device 17 and the operation content related to the projector function coincide with each other, it is easy to intuitively understand the position where the finger F is placed and the operation content. Furthermore, since the imaging field angle is set to the telephoto side, the imaging range is narrowed. Therefore, even if there is a moving subject on the left and right or above the projected image 311, the projector function is controlled by the movement of the subject. Unintentional operation can be prevented.

なお、現在撮像画角Aが算出撮像画角Bよりも所定角度以上大きい場合や、現在撮像画角Aが算出撮像画角Cに近い場合について説明したが、それ以外の場合には従来どおり、操作部材19の操作によってコマ送り/コマ戻しや投影画像の拡大/縮小が行われる。   In addition, although the case where the current imaging field angle A is larger than the calculated imaging field angle B by a predetermined angle or the case where the current imaging field angle A is close to the calculated imaging field angle C has been described, in other cases, By operating the operation member 19, frame advance / frame return and enlargement / reduction of the projected image are performed.

上述したPJ付き電子カメラ10では、次の作用効果を奏する。
(1) 投射部220から画像を投影する際に、撮像部120で撮像して得た画像の変化に基づいて、プロジェクタ機能に関する操作が行われるように構成した。これにより、PJ付き電子カメラ10に触れなくてもプロジェクタ機能に関する操作ができるので、PJ付き電子カメラ10の位置が動いて投影画像の投影位置や調整済みの投影画像のピントがずれてしまうことを防止できる。したがって、投影画像を安定化して、観察者に違和感を与えることを防止できる。
The electronic camera 10 with PJ described above has the following operational effects.
(1) When an image is projected from the projection unit 220, an operation related to the projector function is performed based on a change in the image obtained by the imaging unit 120. As a result, operations relating to the projector function can be performed without touching the electronic camera 10 with PJ, so that the position of the electronic camera 10 with PJ moves and the projected position of the projected image and the adjusted projected image are out of focus. It can be prevented. Therefore, it is possible to stabilize the projected image and prevent the viewer from feeling uncomfortable.

(2) プロジェクタ機能に関する操作指示に対応するアイコン172〜175,192,193を液晶表示器107に表示するように構成した。これにより、アイコン172〜175,192,193がユーザ(操作者)に対するガイドとなるので、プロジェクタ機能に関する操作を向上できる。 (2) The liquid crystal display 107 is configured to display icons 172 to 175, 192, and 193 corresponding to operation instructions related to the projector function. As a result, the icons 172 to 175, 192, and 193 serve as guides for the user (operator), and thus operations related to the projector function can be improved.

(3) 投射部220から投影する画像311を一部に含みつつ、画像311の周囲の領域を撮像部120で撮像するように構成し、画像311の周囲の領域に指Fなど置くことによってプロジェクタ機能に関する操作が可能となるように構成した。これにより、スクリーン301に投影される画像311に指Fなどの影を落とすことなくプロジェクタ機能に関する操作ができるので、画像311の観察者に違和感を与えない。 (3) An image 311 projected from the projection unit 220 is partially included, and the area around the image 311 is captured by the imaging unit 120, and a finger F or the like is placed in the area around the image 311. It was configured to allow operations related to functions. Accordingly, since an operation related to the projector function can be performed without dropping a shadow such as a finger F on the image 311 projected on the screen 301, the viewer of the image 311 does not feel uncomfortable.

(4) 撮像部120で撮像して得たスルー画と、アイコン172〜175,192,193とを重畳的に液晶表示器107に表示するように構成した。これにより、液晶表示器107を観察することで操作者がどこに指Fを置けばよいか、また、置いた指Fが実際にはどのように撮像されているのかを直感的に理解できるので、プロジェクタ機能に関する操作を容易化できる。 (4) The through image obtained by imaging with the imaging unit 120 and the icons 172 to 175, 192, and 193 are configured to be displayed on the liquid crystal display 107 in a superimposed manner. Thus, by observing the liquid crystal display 107, it is possible to intuitively understand where the operator should place the finger F and how the placed finger F is actually imaged. Operations related to the projector function can be facilitated.

(5) 撮像画角が望遠側に設定された場合であっても、PJ付き電子カメラ10の前方に指Fを置くことなどによってプロジェクタ機能に関する操作を指示できるように構成した。撮像画角が望遠側に設定されることによって、撮像範囲が狭まるので、投影画像311の左右や上方に動きのある被写体が存在していても、その被写体の動きによってプロジェクタ機能がユーザの意に反して操作されることを防止できる。 (5) Even when the imaging angle of view is set to the telephoto side, an operation related to the projector function can be instructed by placing a finger F in front of the electronic camera 10 with PJ. By setting the imaging angle of view to the telephoto side, the imaging range is narrowed, so even if there is a moving subject on the left or right or above the projected image 311, the projector function can be controlled by the user depending on the movement of the subject. On the contrary, it can be prevented from being operated.

(6) 撮像画角が望遠側に設定された際には、スクリーン301に投影される画像311の下部の一部と、画像311よりも下側の部分とを撮像している場合に、撮像画像の右半分側、または左半分側に指Fが置かれると、投影される画像のコマ送り/コマ戻しが行われるように構成した。これにより、たとえば、周囲が暗く、指Fの位置が分かり難い場合に、投影画像の投影画角内に僅かに指を入れて、投射部220からの投射光によって指Fを照らすことができるので、操作性が向上する。また、撮像画角が望遠側に設定されることで、置かれた指Fを液晶表示器107に大きく表示できるので、操作性が向上する。 (6) When the imaging angle of view is set to the telephoto side, the imaging is performed when the lower part of the image 311 projected on the screen 301 and the lower part of the image 311 are imaged. When the finger F is placed on the right half side or the left half side of the image, the projected image is forwarded / backwarded. Thereby, for example, when the surroundings are dark and the position of the finger F is difficult to understand, the finger F can be illuminated by the projection light from the projection unit 220 by slightly putting the finger within the projection field angle of the projection image. , Operability is improved. In addition, since the imaging angle of view is set to the telephoto side, the placed finger F can be displayed largely on the liquid crystal display 107, so that operability is improved.

(7) 撮像素子122で撮像して得られたスルー画を順次読み込んで、スルー画の所定の領域に所定の画素数以上の領域に画像の変化があると判断されると、プロジェクタ機能に関する指示がされたものと判断するように構成した。すなわち、指Fを置くことなどをしなければ画像にほとんど変化がないと判断される領域の画像を監視して、当該領域に所定の画素数以上の領域に変化があるか否かを判断するように構成した。これにより、画像解析処理のように、対象物を特定するなどの複雑な処理を行わなくてもよいので、CPU101の処理負荷を低減できる。したがって、処理のアルゴリズムを簡略化できるので、処理の信頼性を高めることができる。また、必要以上に高スペックのCPUを採用しなくても済むので、製造コストを抑制できる。 (7) When a through image obtained by imaging with the image sensor 122 is sequentially read and it is determined that there is a change in the image in a predetermined area or more in a predetermined area of the through image, an instruction related to the projector function It was configured to be judged as having been done. That is, an image of an area that is determined to have almost no change in the image if the finger F is not placed is monitored, and it is determined whether or not there is a change in an area of a predetermined number of pixels or more in the area. It was configured as follows. Accordingly, it is not necessary to perform complicated processing such as specifying an object as in the image analysis processing, so that the processing load on the CPU 101 can be reduced. Therefore, since the processing algorithm can be simplified, the reliability of the processing can be improved. Further, since it is not necessary to employ a CPU with a higher specification than necessary, the manufacturing cost can be suppressed.

−−−変形例−−−
(1) 上述の説明では、撮像部120の撮像範囲に指Fを置くことでプロジェクタ機能に関する操作を行うように構成しているが、本発明はこれに限定されない。指Fは一例であり、指Fの代わりにペンや鉛筆などを置いてもよく、撮像素子122で撮像される所定の画素数以上の領域に変化があるように何らかの物を置いてもよい。また、撮像部120の撮像範囲に指Fなどを置く代わりに、レーザポインタなどでスクリーン301上に照射された光を撮像素子122で撮像することで、プロジェクタ機能に関する操作が行われるようにしてもよい。この場合には、たとえば、CPU101が、図9に示す領域182に所定の輝度以上の高輝度の点が出現したと判断されると、投射部220から投影される画像を1コマだけ送るよう指示されたものと判断するなど、高輝度の点の有無を判断してプロジェクタ機能に関する操作が行われるように構成してもよい。
---- Modified example ---
(1) In the above description, the operation related to the projector function is performed by placing the finger F in the imaging range of the imaging unit 120, but the present invention is not limited to this. The finger F is an example, and a pen, a pencil, or the like may be placed in place of the finger F, or some object may be placed so that there is a change in a region of a predetermined number of pixels or more captured by the image sensor 122. Further, instead of placing the finger F or the like in the imaging range of the imaging unit 120, an operation related to the projector function may be performed by imaging the light irradiated on the screen 301 with a laser pointer or the like with the imaging element 122. Good. In this case, for example, if the CPU 101 determines that a high-luminance point having a predetermined luminance or higher has appeared in the area 182 shown in FIG. 9, the CPU 101 instructs to send only one image projected from the projection unit 220. For example, it may be determined that an operation related to the projector function is performed by determining the presence or absence of a high-luminance point.

(2) 上述の説明では、撮像部120の撮像範囲に指Fなどが置かれたか否かを判断するように構成しているが、本発明はこれに限定されない。たとえば、撮像部120の撮像範囲に指Fなどが置かれただけではなく、その指Fなどが所定時間以上動いていると判断されたときにプロジェクタ機能に関する操作が行われるように構成してもよい。すなわち、撮像素子122で撮像される所定の画素数以上の画素で所定時間以上動きが検出されたときにプロジェクタ機能に関する操作が行われるように構成してもよい。 (2) In the above description, it is configured to determine whether or not the finger F or the like is placed in the imaging range of the imaging unit 120, but the present invention is not limited to this. For example, not only the finger F or the like is placed in the imaging range of the imaging unit 120, but also an operation related to the projector function may be performed when it is determined that the finger F or the like has moved for a predetermined time or more. Good. That is, an operation related to the projector function may be performed when a motion of a predetermined number of pixels or more captured by the image sensor 122 is detected for a predetermined time.

(3) 上述の説明では、撮像画角が広角側に設定された場合および撮像画角が望遠側に設定された場合の双方で、撮像部120の撮像範囲に指Fを置くことでプロジェクタ機能に関する操作を行うように構成しているが、撮像画角が広角側に設定された場合および撮像画角が望遠側に設定された場合のいずれか一方のみであってもよい。 (3) In the above description, the projector function can be obtained by placing the finger F in the imaging range of the imaging unit 120 both when the imaging field angle is set to the wide angle side and when the imaging field angle is set to the telephoto side. However, only one of the case where the imaging angle of view is set to the wide angle side and the case where the imaging angle of view is set to the telephoto side may be used.

(4) 上述の説明では、撮像画角が望遠側に設定されることで撮像範囲を狭めているが、本発明はこれに限定されない。たとえば、撮像画角が広角側に設定された状態であっても、撮像されて得られた画像の一部を切り出して、たとえば、図10(a),(b)に示すように液晶表示器107に表示させ、撮像画角が望遠側に設定された場合と同様にプロジェクタ機能に関する操作が行われるように構成してもよい。 (4) In the above description, the imaging range is narrowed by setting the imaging angle of view to the telephoto side, but the present invention is not limited to this. For example, even when the imaging field angle is set to the wide-angle side, a part of the image obtained by imaging is cut out and, for example, a liquid crystal display as shown in FIGS. 10 (a) and 10 (b) It may be configured such that an operation related to the projector function is performed in the same manner as in the case where the image display angle is set to the telephoto side.

(5) 上述の説明では、撮像部120の撮像範囲に指Fなどを置くことで操作可能なプロジェクタ機能の一例として、コマ送り/コマ戻しや投影画像の拡大/縮小を挙げて説明しているが、本発明はこれに限定されない。コマ送り/コマ戻しや投影画像の拡大/縮小以外にも、たとえば、投影開始や投影終了の操作を行うように構成してもよく、投影画像のピント調整や明るさ調整などの投影機能に関する調整を行うように構成してもよい。 (5) In the above description, as an example of a projector function that can be operated by placing a finger F or the like in the imaging range of the imaging unit 120, frame advance / frame return and projection image enlargement / reduction are described. However, the present invention is not limited to this. In addition to frame advance / return and projection image enlargement / reduction, for example, a projection start or projection end operation may be performed, and adjustments related to projection functions such as focus adjustment and brightness adjustment of the projection image may be performed. You may comprise so that it may perform.

(6) 上述の説明では、PJ付き電子カメラ10における投射部220の投影方向と、撮像部120の撮像方向(被写体が存在する方向)がいずれもPJ付き電子カメラ10の前方であるが、本発明はこれに限定されない。たとえば、投射部220の投影方向と、撮像部120の撮像方向とが異なっていてもよい。すなわち、投射部220の投影する画像を含まない領域を撮像部120が撮像するように構成してもよい。この場合であっても、操作者は、撮像部120の撮像範囲に指Fなどを置くことでプロジェクタ機能に関する操作が可能であり、操作者から液晶表示器107を視認可能であれば、置いた指Fが実際にはどのように撮像されているのかを直感的に理解できるので、上述した作用効果と同様の作用効果を奏する。 (6) In the above description, the projection direction of the projection unit 220 in the electronic camera 10 with PJ and the imaging direction of the imaging unit 120 (direction in which the subject exists) are both in front of the electronic camera 10 with PJ. The invention is not limited to this. For example, the projection direction of the projection unit 220 and the imaging direction of the imaging unit 120 may be different. That is, you may comprise so that the imaging part 120 may image | photograph the area | region which does not contain the image which the projection part 220 projects. Even in this case, the operator can perform operations related to the projector function by placing the finger F or the like in the imaging range of the imaging unit 120, and places the liquid crystal display 107 if the operator can visually recognize the liquid crystal display 107. Since it is possible to intuitively understand how the finger F is actually imaged, the same effects as the above-described effects can be obtained.

また、投射部220の投影方向と、撮像部120の撮像方向とが異なっている場合には、画像の投影時に撮像部120の撮像方向に向けて補助光を照射するようにしてもよい。画像の投影時に撮像部120の撮像方向に向けて補助光を照射することで、周囲が暗い環境下でも、指Fがはっきりと撮像されるので確実にプロジェクタ機能に関する操作ができる。なお、この場合の補助光の光源として、赤外線などのように、撮像素子122が感度を有する不可視光を発する光源を用いれば、投影画像の観察者に違和感を与えることがない。   In addition, when the projection direction of the projection unit 220 and the imaging direction of the imaging unit 120 are different, auxiliary light may be emitted toward the imaging direction of the imaging unit 120 when an image is projected. By irradiating the auxiliary light toward the imaging direction of the imaging unit 120 at the time of projecting the image, the finger F is clearly imaged even in an environment where the surroundings are dark, so that an operation related to the projector function can be surely performed. In this case, if a light source that emits invisible light having sensitivity of the image sensor 122, such as infrared rays, is used as a light source of auxiliary light in this case, the viewer of the projected image does not feel uncomfortable.

(7) 上述の説明では、PJ付き電子カメラ10は、いわゆるコンパクトタイプのデジタルカメラであるが、一眼レフタイプのデジタルカメラであってもよい。また、図12,13に示すように、カメラボディに対して撮像光学系を回動可能に構成したいわゆるスイバルタイプのデジタルカメラであってもよい。スイバルタイプのデジタルカメラ500は、本体部510と鏡筒部520とを有している。本体部510と鏡筒部520とは、不図示の連結機構により回転可能に連結されている。図12(a)は、本体部510に対して鏡筒部520を回転させていない状態の非使用状態を示している。図12(b)は、本体部510に対して鏡筒部520を90度回転した撮影/投射状態を示している。 (7) In the above description, the PJ-equipped electronic camera 10 is a so-called compact type digital camera, but may be a single-lens reflex type digital camera. Also, as shown in FIGS. 12 and 13, a so-called swivel type digital camera in which an imaging optical system is rotatable with respect to the camera body may be used. The swivel type digital camera 500 includes a main body 510 and a lens barrel 520. The main body 510 and the lens barrel 520 are rotatably connected by a connection mechanism (not shown). FIG. 12A shows a non-use state in which the lens barrel 520 is not rotated with respect to the main body 510. FIG. 12B shows a photographing / projecting state in which the lens barrel 520 is rotated 90 degrees with respect to the main body 510.

通常、ユーザは、本体部510のグリップ部分を握ってカメラ500を保持し、カメラ背面に設けられた液晶表示器17(図13参照)を見ながら撮影を行う。図13はカメラ500の背面側を示す図である。本体部510の背面には、液晶表示器17の他に、種々の操作を行うための操作ボタン502が設けられている。図12,13に示したカメラ500では、鏡筒部520に撮像部120と投射部220とを備え、上述したPJ付き電子カメラ10と同様に、投射部220は撮像部120で撮像する被写体の位置する方向と同じ方向に画像を投影(投射)する。そのため、上述した作用効果を同様の作用効果を奏する。   Usually, the user holds the camera 500 by holding the grip portion of the main body 510, and takes a picture while looking at the liquid crystal display 17 (see FIG. 13) provided on the back of the camera. FIG. 13 is a view showing the back side of the camera 500. In addition to the liquid crystal display 17, operation buttons 502 for performing various operations are provided on the back surface of the main body 510. The camera 500 shown in FIGS. 12 and 13 includes an imaging unit 120 and a projection unit 220 in the lens barrel unit 520. Like the electronic camera 10 with PJ described above, the projection unit 220 captures an object to be imaged by the imaging unit 120. An image is projected (projected) in the same direction as the direction in which it is located. For this reason, the same effects as the above-described effects can be obtained.

図14は、カメラ500とは投射部220の画像投影方向が異なるスイバルタイプのデジタルカメラ600の外観を示す図である。カメラ600は、撮像部120で撮像する被写体の位置する方向とは反対の方向に投射部220が画像を投影する。図14(a)は、カメラ600の前方を撮像(後方に画像を投影)するように鏡筒部520を回動させた状態を示す図であり、図14(b)は、カメラ600の後方を撮像(前方に画像を投影)するように鏡筒部520を回動させた状態を示す図である。このカメラ600の場合には、図14(b)に示すように鏡筒部520を回動させて、図15(a)〜(d)に示すように、カメラ600の前方に画像を投影させ、カメラ600の後方に位置するユーザが、液晶表示器17の表示を見ながらプロジェクタ機能に関して操作できる。なお、図15(a),(c)は、カメラ600およびカメラ600の後方に位置するユーザを上方から見たときの図である。図15(b)は、図15(a)の場合における液晶表示器17の表示内容を示す図であり、図15(d)は、図15(c)の場合における液晶表示器17の表示内容を示す図である。   FIG. 14 is a diagram illustrating an appearance of a swivel type digital camera 600 in which the image projection direction of the projection unit 220 is different from that of the camera 500. In the camera 600, the projection unit 220 projects an image in a direction opposite to the direction in which the subject imaged by the imaging unit 120 is located. FIG. 14A is a diagram illustrating a state in which the lens barrel 520 is rotated so as to capture the front of the camera 600 (project an image behind), and FIG. 14B illustrates the rear of the camera 600. 5 is a diagram showing a state in which the lens barrel 520 is rotated so as to image (project an image forward). In the case of the camera 600, the lens barrel 520 is rotated as shown in FIG. 14B, and an image is projected in front of the camera 600 as shown in FIGS. A user located behind the camera 600 can operate the projector function while viewing the display on the liquid crystal display 17. 15A and 15C are diagrams when the camera 600 and the user located behind the camera 600 are viewed from above. FIG. 15B is a diagram showing the display content of the liquid crystal display 17 in the case of FIG. 15A, and FIG. 15D is the display content of the liquid crystal display 17 in the case of FIG. 15C. FIG.

たとえば図15(a)に示すように、カメラ600の後方で、たとえばカメラ600の近くに位置するユーザの胸部から腹部辺りを撮像するように、撮像画角がたとえば広角側に設定されると、図15(b)に示すように、撮像部120で撮像して得た画像の鏡像570と、プロジェクタ機能の操作に関するアイコン192,193と、中央線194とが液晶表示器17に重畳的に表示される。カメラ600では、図15(a),(b)に示すように、中央線194の右側の領域に表示されている右手RHがたとえば上下に動かされると、投射部220から投影される画像が1コマだけ送られる。同様に、図15(c),(d)に示すように、中央線194の左側の領域に表示されている左手LHがたとえば上下に動かされると、投射部220から投影される画像が1コマだけ戻される。   For example, as shown in FIG. 15A, when the imaging angle of view is set to, for example, the wide-angle side so as to image the abdomen from the user's chest located near the camera 600 behind the camera 600, for example. As shown in FIG. 15B, a mirror image 570 of an image obtained by imaging with the imaging unit 120, icons 192 and 193 related to the operation of the projector function, and a center line 194 are displayed on the liquid crystal display 17 in a superimposed manner. Is done. In the camera 600, as shown in FIGS. 15A and 15B, when the right hand RH displayed in the area on the right side of the center line 194 is moved up and down, for example, the image projected from the projection unit 220 is 1. Only frames are sent. Similarly, as shown in FIGS. 15C and 15D, when the left hand LH displayed in the left area of the center line 194 is moved up and down, for example, one image is projected from the projection unit 220. Only returned.

具体的には、CPU101は、撮像素子122で撮像して得られたスルー画を順次読み込んで、スルー画の中央よりも左側部分(スルー画左側領域)で所定の画素数以上の領域に所定時間以上動く領域があると判断されると、投射部220から投影される画像を1コマだけ送るよう指示されたものと判断する。そして、CPU101は、たとえば、メモリカード150から画像データを読み込んで投射部220から画像を投影している場合、現在投影している画像のデータよりも1コマだけ新しい画像のデータをメモリカード150から読み込んで、投射部220から画像を投影するように各部を制御する。なお、CPU101は、上述の判断の後、スルー画左側領域の画像に動く領域がなくなり(たとえば右手RHが動かされなくなった)、その後再びスルー画左側領域に上述のように変化があると判断されると、さらに1コマだけ新しい画像を投射部220から投影するように各部を制御する。   Specifically, the CPU 101 sequentially reads through images obtained by imaging with the image sensor 122, and in a left side portion (through image left region) of the through image in a region of a predetermined number of pixels or more in a predetermined time. If it is determined that there is a moving region as described above, it is determined that the projection unit 220 has instructed to send only one frame of the projected image. Then, for example, when the CPU 101 reads image data from the memory card 150 and projects an image from the projection unit 220, the CPU 101 stores image data that is one frame newer than the currently projected image data from the memory card 150. Each unit is controlled to read and project an image from the projection unit 220. Note that after the above determination, the CPU 101 determines that there is no moving area in the image in the left side area of the through image (for example, the right hand RH is not moved), and then it is determined again that the left area in the through image has changed as described above. Then, each unit is controlled to project a new image from the projection unit 220 by one frame.

同様に、CPU101は、撮像素子122で撮像して得られたスルー画を順次読み込んで、スルー画の中央よりも右側部分(スルー画右側領域)に所定の画素数以上の領域に所定時間以上動く領域があると判断されると、投射部220から投影される画像を1コマだけ戻すよう指示されたものと判断する。そして、CPU101は、たとえば、メモリカード150から画像データを読み込んで投射部220から画像を投影している場合、現在投影している画像のデータよりも1コマだけ古い画像のデータをメモリカード150から読み込んで、投射部220から画像を投影するように各部を制御する。なお、CPU101は、上述の判断の後、スルー画右側領域の画像に動く領域がなくなり(たとえば左手LHが動かされなくなった)、その後再びスルー画右側領域に上述のように変化があると判断されると、さらに1コマだけ古い画像を投射部220から投影するように各部を制御する。   Similarly, the CPU 101 sequentially reads through images obtained by imaging with the image sensor 122 and moves to a region on the right side (through image right region) of the through image more than a predetermined number of pixels for a predetermined time or more. If it is determined that there is a region, it is determined that the projection unit 220 has instructed to return the image projected by one frame. For example, when the CPU 101 reads image data from the memory card 150 and projects an image from the projection unit 220, the CPU 101 stores image data that is one frame older than the currently projected image data from the memory card 150. Each unit is controlled to read and project an image from the projection unit 220. Note that after the above determination, the CPU 101 determines that there is no moving area in the image in the right side area of the through image (for example, the left hand LH is not moved), and then it is determined again that the right area in the through image has changed as described above. Then, each unit is controlled to project an image that is one frame older from the projection unit 220.

なお、撮像部120で撮像して得た画像と、液晶表示器17で表示される画像(鏡像570)とは、左右が反転している。したがって、CPU101でスルー画左側領域で所定の画素数以上の領域に変化があると判断された場合の動作、および、スルー画右側領域で所定の画素数以上の領域に変化があると判断された場合の動作は、上述した実施の形態における「撮像画角が望遠側に設定された場合」とは逆の動作となる。   Note that an image obtained by imaging with the imaging unit 120 and an image (mirror image 570) displayed on the liquid crystal display 17 are reversed left and right. Therefore, the operation when the CPU 101 determines that there is a change in the area of the predetermined number of pixels or more in the left area of the through image, and the area in the right area of the through image is determined to have a change of the predetermined number of pixels or more. The operation in this case is the reverse of the “when the imaging angle of view is set to the telephoto side” in the above-described embodiment.

このように、カメラ600では、上述した実施の形態における「撮像画角が望遠側に設定された場合」と同様の作用効果を奏する。さらに、カメラ600では、ユーザが、カメラ600の背面の液晶表示器17を見ながら、カメラ600の前方に手を伸ばして差し出すような動作をしなくてもよい。すなわち、自分の腹部近傍など、手を持っていきやすいところに手を持っていて動かすだけでプロジェクタ機能に関する操作を行えるので、楽な姿勢で簡単に操作ができ、操作性を向上できる。   As described above, the camera 600 has the same operational effects as “when the imaging field angle is set to the telephoto side” in the above-described embodiment. Further, in the camera 600, the user may not perform an operation of reaching out and pushing out the front of the camera 600 while looking at the liquid crystal display 17 on the back of the camera 600. In other words, since the projector function can be operated simply by holding and moving the hand where it is easy to carry, such as near the abdomen of the user, the user can easily operate with an easy posture and improve operability.

(8) 上述の説明では、メモリカード150や内部メモリから画像データを読み出して
投射部220から画像を投影しているが、本発明はこれに限定されない。たとえば、外部の機器と接続可能なインターフェースを設け、このインターフェースを介してPJ付き電子カメラ10の外部から供給される画像データなどを投影するように構成してもよい。
(8) In the above description, image data is read from the memory card 150 or the internal memory and an image is projected from the projection unit 220, but the present invention is not limited to this. For example, an interface connectable with an external device may be provided, and image data supplied from the outside of the electronic camera with PJ 10 may be projected via this interface.

(9) 上述の説明では、カメラについて説明したが、本発明はカメラに限定されず、被写体像の撮像機能と、画像の投影機能とを備えた各種の携帯電子機器であれば、たとえば、携帯電話機や、PDAなど、様々な携帯電子機器に適用できる。なお、携帯電話機やPDAなどでは、それぞれ異なる範囲を撮像するメインカメラおよびサブカメラが設けられたものがある。このような携帯電話機やPDAの場合には、メインカメラおよびサブカメラのいずれか一方で指Fや手などを撮像することでプロジェクタ機能に関する操作を行うようにしてもよく、上述した作用効果と同様の作用効果を奏する。また、メインカメラおよびサブカメラの双方で指Fや手などを撮像することでプロジェクタ機能に関する操作が可能となるように構成すれば、たとえば本体の背面側に位置するユーザと、たとえば本体の正面側に位置する観察者との双方でプロジェクタ機能に関する操作が可能となる。 (9) In the above description, the camera has been described. However, the present invention is not limited to the camera, and any portable electronic device having a subject image capturing function and an image projecting function can be used, for example. The present invention can be applied to various portable electronic devices such as telephones and PDAs. Some mobile phones, PDAs, and the like are provided with a main camera and a sub camera that capture images of different ranges. In the case of such a cellular phone or PDA, an operation related to the projector function may be performed by taking an image of the finger F or the hand with either the main camera or the sub camera. Has the effect of. Further, if it is configured so that an operation related to the projector function can be performed by imaging a finger F or a hand with both the main camera and the sub camera, for example, a user located on the back side of the main body and a front side of the main body, for example Thus, operations related to the projector function can be performed with both the observer located at the position of the projector.

(10) 上述の説明では、撮像部120で撮像して得たスルー画(画像170)と、プロジェクタ機能の操作に関するアイコン172〜175,192,193とを液晶表示器17に重畳的に表示させているが、本発明はこれに限定されない。たとえば、図16(a)に示す、投射部220から投影される画像と同じ画像312(すなわちメモリカード150から読み込んだデータに基づく画像)と、図16(b)に示す、アイコン172〜175の画像とを合成して、図16(c)に示すように、液晶表示器17に表示させてもよい。このように構成した場合には、撮像部120で撮像して得たスルー画は液晶表示器17には表示されないため、ユーザの指Fなどは、液晶表示器17には表示されない。しかし、液晶表示器17に表示されている画像312とアイコン172〜175との位置関係から、スクリーン301上の投影画像311の近傍でプロジェクタ機能の操作のために指Fなどをどこに置くべきかが直感的に理解できるので、上述した作用効果と同様の作用効果を奏する。 (10) In the above description, the through image (image 170) obtained by imaging with the imaging unit 120 and the icons 172 to 175, 192, and 193 related to the operation of the projector function are displayed on the liquid crystal display 17 in a superimposed manner. However, the present invention is not limited to this. For example, the same image 312 as the image projected from the projection unit 220 shown in FIG. 16A (that is, an image based on the data read from the memory card 150), and icons 172 to 175 shown in FIG. The image may be combined and displayed on the liquid crystal display 17 as shown in FIG. In such a configuration, the through image obtained by imaging by the imaging unit 120 is not displayed on the liquid crystal display 17, and thus the user's finger F or the like is not displayed on the liquid crystal display 17. However, from the positional relationship between the image 312 displayed on the liquid crystal display 17 and the icons 172 to 175, where the finger F should be placed for the operation of the projector function in the vicinity of the projected image 311 on the screen 301. Since it can be understood intuitively, the same operational effects as the above-described operational effects are exhibited.

また、図17(a)に示す、撮像部120で撮像して得たスルー画(画像170)から、図17(b)に示すように投影画像311の画像(画像171)を削除した画像170aのデータを生成する。そして、この画像170aに対して、画像171の存在していた領域に、投射部220から投影される画像と同じ画像312(図17(c))をメモリカード150から読み込んだデータに基づいて合成する。また、画像170aに対して、図17(d)に示す、アイコン172〜175の画像を合成する。このようにして、図17(e)に示すように、投影画像311の画像(画像171)の代わりに、メモリカード150から読み込んだデータに基づく画像312を液晶表示器17に表示するように構成してもよい。このように構成した場合には、撮像部120で撮像して得たスルー画のうち、投影画像311の周囲の領域については液晶表示器17に表示されるため、ユーザの指Fなどは、液晶表示器17に表示されることとなる。したがって、上述した作用効果と同様の作用効果を奏する。   Also, an image 170a obtained by deleting the image (image 171) of the projection image 311 as shown in FIG. 17B from the through image (image 170) obtained by imaging with the imaging unit 120 shown in FIG. Generate data for Then, the same image 312 (FIG. 17C) as the image projected from the projection unit 220 is combined with the image 170a on the area where the image 171 was present based on the data read from the memory card 150. To do. In addition, the images of icons 172 to 175 shown in FIG. In this way, as shown in FIG. 17E, an image 312 based on the data read from the memory card 150 is displayed on the liquid crystal display 17 instead of the image (image 171) of the projection image 311. May be. When configured in this way, the region around the projected image 311 is displayed on the liquid crystal display 17 in the through image obtained by imaging with the imaging unit 120. It will be displayed on the display 17. Therefore, there exists an effect similar to the effect mentioned above.

(11)上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。 (11) Each embodiment and modification described above may be combined.

なお、本発明は、上述した実施の形態のものに何ら限定されず、被写体像を撮像して画像信号を出力する撮像装置と、光像形成素子に形成された像を投射するプロジェクタ装置と、画像信号の変化を検出する画像変化検出手段と、撮像装置による撮影範囲のうち、画像信号の変化が検出された領域に応じてプロジェクタ装置の動作に関する指示を行う指示手段と、撮像装置により撮像して得た画像を表示可能な表示装置と、表示装置に表示させる表示内容を制御する表示制御手段とを備え、表示制御手段は、指示に対応する表示を表示装置に表示させることを特徴とする各種構造の携帯電子機器を含むものである。   The present invention is not limited to the embodiment described above, and an imaging device that captures a subject image and outputs an image signal, a projector device that projects an image formed on an optical image forming element, An image change detecting means for detecting a change in the image signal, an instruction means for giving an instruction regarding the operation of the projector device in accordance with an area in which a change in the image signal is detected in the imaging range of the imaging device, and an image picked up by the imaging device A display device capable of displaying the obtained image and display control means for controlling display contents to be displayed on the display device, wherein the display control means causes the display device to display a display corresponding to the instruction. Includes portable electronic devices of various structures.

本発明によるプロジェクタ付き電子カメラ(PJ付き電子カメラ)10を斜め前方から見た図である。It is the figure which looked at the electronic camera with a projector (electronic camera with PJ) 10 by the present invention from diagonally forward. PJ付き電子カメラ10を斜め後方から見た図である。It is the figure which looked at the electronic camera 10 with PJ from diagonally backward. PJ付き電子カメラ10の回路構成を説明するブロック図である。It is a block diagram explaining the circuit structure of the electronic camera with PJ. PJ付き電子カメラ10の正面のスクリーン301に投射部220から画像を投影した状態を示す図である。It is a figure which shows the state which projected the image from the projection part 220 on the screen 301 of the front of the electronic camera 10 with PJ. スクリーン301に投影された投影画像311と、広角側に設定された撮像部120による撮像範囲との関係を示す図である。It is a figure which shows the relationship between the projection image 311 projected on the screen 301, and the imaging range by the imaging part 120 set to the wide angle side. スクリーン301に投影された投影画像311と、望遠側に設定された撮像部120による撮像範囲との関係を示す図である。It is a figure which shows the relationship between the projection image 311 projected on the screen 301, and the imaging range by the imaging part 120 set to the telephoto side. 撮像画角が広角側に設定された場合の、撮像部120で撮像して得た画像170と、プロジェクタ機能の操作に関するアイコン172〜175とについて説明する図である。It is a figure explaining the image 170 acquired by the imaging part 120 when the imaging angle of view is set to the wide-angle side, and icons 172 to 175 related to the operation of the projector function. プロジェクタ機能の操作について説明する図である。It is a figure explaining operation of a projector function. アイコン172〜175の周囲の領域182〜185について説明する図である。It is a figure explaining the area | regions 182 to 185 around the icons 172 to 175. 撮像画角が望遠側に設定された場合の、撮像部120で撮像して得た画像170と、プロジェクタ機能の操作に関するアイコン192,193とについて説明する図であるIt is a figure explaining the image 170 acquired by the imaging part 120, and the icons 192 and 193 regarding operation of a projector function when an imaging field angle is set to a telephoto side. プロジェクタ機能の操作について説明する図である。It is a figure explaining operation of a projector function. 変形例を示す図である。It is a figure which shows a modification. 変形例を示す図である。It is a figure which shows a modification. 変形例を示す図である。It is a figure which shows a modification. 変形例におけるプロジェクタ機能の操作について説明する図である。It is a figure explaining operation of the projector function in a modification. 変形例を示す図である。It is a figure which shows a modification. 変形例を示す図である。It is a figure which shows a modification.

符号の説明Explanation of symbols

10 プロジェクタ付き電子カメラ(PJ付き電子カメラ)
11 撮影レンズ 13 プロジェクタ投射窓
17 液晶表示器 101 CPU
120 撮像部 122 撮像素子
124 撮影制御回路 150 メモリカード
220 投射部 222 液晶パネル
225 投射制御回路
172〜175,192,193 アイコン
500,600 デジタルカメラ(カメラ)
10 Electronic camera with projector (Electronic camera with PJ)
11 Shooting Lens 13 Projector Projection Window 17 Liquid Crystal Display 101 CPU
DESCRIPTION OF SYMBOLS 120 Image pick-up part 122 Image pick-up element 124 Image pick-up control circuit 150 Memory card 220 Projection part 222 Liquid crystal panel 225 Projection control circuit 172-175,192,193 Icon 500,600 Digital camera (camera)

Claims (9)

被写体像を撮像して画像信号を出力する撮像装置と、
光像形成素子に形成された像を投射するプロジェクタ装置と、
前記画像信号の変化を検出する画像変化検出手段と、
前記撮像装置による撮影範囲のうち、前記画像信号の変化が検出された領域に応じて前記プロジェクタ装置の動作に関する指示を行う指示手段と、
前記撮像装置により撮像して得た画像を表示可能な表示装置と、
前記表示装置に表示させる表示内容を制御し、前記指示に対応する表示を前記表示装置に表示させる表示制御手段とを備えることを特徴とする携帯電子機器。
An imaging device that captures a subject image and outputs an image signal;
A projector device for projecting an image formed on the optical image forming element;
Image change detecting means for detecting a change in the image signal;
Instructing means for instructing an operation of the projector device in accordance with an area in which a change in the image signal is detected in an imaging range by the imaging device;
A display device capable of displaying an image obtained by imaging with the imaging device;
A portable electronic device comprising: display control means for controlling display contents to be displayed on the display device and causing the display device to display a display corresponding to the instruction.
請求項1に記載の携帯電子機器において、
前記表示制御手段は、前記撮像装置により撮像して得た画像を前記表示装置に表示させることを特徴とする携帯電子機器。
The portable electronic device according to claim 1,
The portable electronic device, wherein the display control means causes the display device to display an image obtained by imaging with the imaging device.
請求項1に記載の携帯電子機器において、
前記表示制御手段は、前記光像形成素子に形成された像と同じ画像を前記表示装置に表示させることを特徴とする携帯電子機器。
The portable electronic device according to claim 1,
The portable electronic device, wherein the display control means causes the display device to display the same image as the image formed on the optical image forming element.
請求項1に記載の携帯電子機器において、
前記表示制御手段は、前記光像形成素子に形成された像と同じ画像を前記撮像装置により撮像して得た画像に合成して前記表示装置に表示させることを特徴とする携帯電子機器。
The portable electronic device according to claim 1,
The portable electronic device characterized in that the display control means combines the same image as the image formed on the optical image forming element with an image obtained by the imaging device and displays the synthesized image on the display device.
請求項1〜4のいずれか一項に記載の携帯電子機器において、
前記撮像装置は、前記プロジェクタ装置が投影する像の少なくとも一部を含む領域を撮像することを特徴とする携帯電子機器。
In the portable electronic device as described in any one of Claims 1-4,
The portable electronic device, wherein the imaging device captures an area including at least a part of an image projected by the projector device.
請求項1に記載の携帯電子機器において、
前記撮像装置は、前記プロジェクタ装置が投影する像を含まない領域を撮像することを特徴とする携帯電子機器。
The portable electronic device according to claim 1,
The portable electronic device, wherein the imaging device captures an area not including an image projected by the projector device.
請求項1〜6のいずれか一項に記載の携帯電子機器において、
前記撮像装置は、それぞれ異なる領域を撮像する第1および第2の撮像装置を有することを特徴とする携帯電子機器。
In the portable electronic device as described in any one of Claims 1-6,
The portable electronic device, wherein the imaging device includes first and second imaging devices that capture different areas.
請求項1〜7のいずれか一項に記載の携帯電子機器と、
前記撮像装置で撮像して得た前記被写体像の画像信号を処理して記録する画像信号処理記録手段とを備えることを特徴とするカメラ。
A portable electronic device according to any one of claims 1 to 7,
An image signal processing recording means for processing and recording an image signal of the subject image obtained by imaging with the imaging device.
請求項1〜7のいずれか一項に記載の携帯電子機器と、
基地局との間で無線により通信可能な通信手段とを備えることを特徴とする携帯電話機。
A portable electronic device according to any one of claims 1 to 7,
A mobile phone comprising: a communication means capable of wirelessly communicating with a base station.
JP2007141442A 2007-05-29 2007-05-29 Portable electronic equipment, camera and cellular phone Pending JP2008298819A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007141442A JP2008298819A (en) 2007-05-29 2007-05-29 Portable electronic equipment, camera and cellular phone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007141442A JP2008298819A (en) 2007-05-29 2007-05-29 Portable electronic equipment, camera and cellular phone

Publications (1)

Publication Number Publication Date
JP2008298819A true JP2008298819A (en) 2008-12-11

Family

ID=40172433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007141442A Pending JP2008298819A (en) 2007-05-29 2007-05-29 Portable electronic equipment, camera and cellular phone

Country Status (1)

Country Link
JP (1) JP2008298819A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010058605A1 (en) 2008-11-21 2010-05-27 国立大学法人 北海道大学 Method for evaluating state of cells
JP2010258753A (en) * 2009-04-24 2010-11-11 Kyocera Corp Portable terminal and projection program
JP2012043060A (en) * 2010-08-16 2012-03-01 Sony Corp Information processing device, information processing method and program
JP2015052874A (en) * 2013-09-06 2015-03-19 セイコーエプソン株式会社 Display device, and control method of the same
US9170472B2 (en) 2009-10-28 2015-10-27 Kyocera Corporation Portable photographing device
JP2015211377A (en) * 2014-04-28 2015-11-24 富士通株式会社 Image searching device, image searching method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010058605A1 (en) 2008-11-21 2010-05-27 国立大学法人 北海道大学 Method for evaluating state of cells
JP2010258753A (en) * 2009-04-24 2010-11-11 Kyocera Corp Portable terminal and projection program
US9170472B2 (en) 2009-10-28 2015-10-27 Kyocera Corporation Portable photographing device
JP2012043060A (en) * 2010-08-16 2012-03-01 Sony Corp Information processing device, information processing method and program
JP2015052874A (en) * 2013-09-06 2015-03-19 セイコーエプソン株式会社 Display device, and control method of the same
JP2015211377A (en) * 2014-04-28 2015-11-24 富士通株式会社 Image searching device, image searching method, and program

Similar Documents

Publication Publication Date Title
US9977217B2 (en) Imaging device
JP5029012B2 (en) Electronics
JP5775659B2 (en) Imaging apparatus and mode switching method in imaging apparatus
US7551223B2 (en) Apparatus, method, and computer program for imaging and automatic focusing
JP5157092B2 (en) Projection device with display monitor
JPWO2006038577A1 (en) Electronic apparatus having a projector device
JP2007158919A (en) Image display apparatus and image display method
JPH08139980A (en) Image pickup device and display device
WO2007007559A1 (en) Projection device with display monitor
JP6472929B2 (en) camera
JP2008298819A (en) Portable electronic equipment, camera and cellular phone
KR101510102B1 (en) Digital photographing apparatus
JP5113237B2 (en) Electronic camera
JP2000101879A (en) Image pickup device
JP3777928B2 (en) Mobile device with camera function
JP2004254185A (en) Digital camera
JP5830564B2 (en) Imaging apparatus and mode switching method in imaging apparatus
JP4190935B2 (en) Mobile terminal device
JP2013117650A (en) Digital camera
JP2006115485A (en) Electronic apparatus
JP2006033724A (en) Information processing apparatus and information processing method
JP2007235448A (en) Camera, control method of camera, program, and recording medium
JP2006115486A (en) Electronic apparatus
JP4774118B2 (en) Electronic camera
JP5203155B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD