JP2015029219A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2015029219A
JP2015029219A JP2013158072A JP2013158072A JP2015029219A JP 2015029219 A JP2015029219 A JP 2015029219A JP 2013158072 A JP2013158072 A JP 2013158072A JP 2013158072 A JP2013158072 A JP 2013158072A JP 2015029219 A JP2015029219 A JP 2015029219A
Authority
JP
Japan
Prior art keywords
image
projection
unit
projector
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013158072A
Other languages
Japanese (ja)
Inventor
航 宮▲崎▼
Wataru Miyazaki
航 宮▲崎▼
正樹 大槻
Masaki Otsuki
正樹 大槻
彰信 菅
Akinobu Suga
彰信 菅
幸介 町田
Kosuke Machida
幸介 町田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013158072A priority Critical patent/JP2015029219A/en
Publication of JP2015029219A publication Critical patent/JP2015029219A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Landscapes

  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To appropriately project information corresponding to a subject being photographed.SOLUTION: An electronic apparatus 1 comprises: a photographing unit 10; a projection unit 20 that projects an image on a subject being photographed by the photographing unit; and a control unit 70 that controls the projection unit to perform projection with a first area in the image moved to a second area different from the first area. Or, the electronic apparatus comprises: a photographing unit; a projection unit that is disposed on the opposite side of the photographing unit, and performs projection on a photographer; and a control unit that controls the projection unit to project an image to which a subject is allowed to pay attention.

Description

本発明は、電子機器に関する。   The present invention relates to an electronic device.

カメラユニットおよびプロジェクタユニットを搭載する電子機器が知られている(特許文献1参照)。   An electronic device equipped with a camera unit and a projector unit is known (see Patent Document 1).

特開2006−80875号公報JP 2006-80875 A

従来技術では、カメラユニット(撮影部)の被写体に対する情報の投影が困難であった。   In the prior art, it is difficult to project information on the subject of the camera unit (imaging unit).

請求項1に記載の発明による電子機器は、撮影部と、撮影部で撮影している被写体へ画像を投影する投影部と、画像のうちの第1領域を第1領域とは異なる第2領域に移動させて投影するように投影部を制御する制御部と、を備えることを特徴とする。
請求項8に記載の発明による電子機器は、撮影部と、撮影部とは反対の側に配置され、撮影者に対して投影を行う投影部と、被写体に注目させる画像を投影するように投影部を制御する制御部と、を備えることを特徴とする。
An electronic apparatus according to a first aspect of the present invention includes a photographing unit, a projecting unit that projects an image onto a subject photographed by the photographing unit, and a first region of the image that is different from the first region. And a control unit that controls the projection unit so that the projection unit is moved and projected.
An electronic apparatus according to an eighth aspect of the present invention is configured to project an image capturing unit, a projecting unit that is disposed on the opposite side of the image capturing unit, and that projects an image focused on the subject. And a control unit for controlling the unit.

本発明による電子機器では、被写体に対する情報を適切に投影できる。   In the electronic apparatus according to the present invention, information on the subject can be appropriately projected.

本発明の第一の実施形態によるプロジェクタ搭載カメラの外観を例示する図である。It is a figure which illustrates the external appearance of the projector mounting camera by 1st embodiment of this invention. 図1のプロジェクタ搭載カメラの構成を例示するブロック図である。FIG. 2 is a block diagram illustrating a configuration of a projector-mounted camera in FIG. 1. 人体通信を行う場面を説明する図である。It is a figure explaining the scene which performs human body communication. パズル投影モードが用いられる場面を説明する図である。It is a figure explaining the scene where a puzzle projection mode is used. 図5(a)はパズルピースを本来の領域に配置した図、図5(b)はパズルピースを本来の領域と異なる領域に配置し直した図である。FIG. 5A is a diagram in which the puzzle pieces are arranged in the original region, and FIG. 5B is a diagram in which the puzzle pieces are arranged in a region different from the original region. CPUがパズル投影モードにおいて実行するプログラムによる処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process by the program which CPU performs in puzzle projection mode. 図7(a)は第二の実施形態によるプロジェクタ搭載カメラの正面を含む図、図7(b)はプロジェクタ搭載カメラの背面を含む図である。FIG. 7A is a diagram including the front of the projector-equipped camera according to the second embodiment, and FIG. 7B is a diagram including the rear of the projector-equipped camera. プロジェクタユニットによる撮影アシスト場面を説明する図である。It is a figure explaining the imaging | photography assistance scene by a projector unit. CPUが撮影アシスト投影モードにおいて実行するプログラムによる処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process by the program which CPU performs in imaging | photography assistance projection mode.

以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
図1は、本発明の第一の実施形態によるプロジェクタ搭載カメラ1の外観を例示する図である。図1において、プロジェクタ搭載カメラ1の正面に、撮影光学系11および投影光学系21が設けられている。プロジェクタ搭載カメラ1の上面には、操作部材90が設けられている。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram illustrating the appearance of a projector-mounted camera 1 according to the first embodiment of the invention. In FIG. 1, a photographing optical system 11 and a projection optical system 21 are provided in front of the projector-mounted camera 1. An operation member 90 is provided on the upper surface of the projector-mounted camera 1.

プロジェクタ搭載カメラ1は、撮影光学系11を通して被写体像を撮像する撮影機能の他に、投影光学系21から画像などの情報をスクリーンなどに向けて投影する投影機能を有する。第一の実施形態では、撮影方向と投影方向とが同じ場合を説明する。つまり、後述するカメラユニット10が、後述するプロジェクタユニット20による投影像を含む被写体像を撮影する。   The projector-equipped camera 1 has a projection function for projecting information such as an image from the projection optical system 21 onto a screen or the like in addition to a photographing function for capturing a subject image through the photographing optical system 11. In the first embodiment, a case where the shooting direction and the projection direction are the same will be described. That is, the camera unit 10 described later captures a subject image including an image projected by the projector unit 20 described later.

図2は、図1のプロジェクタ搭載カメラ1の構成を例示するブロック図である。プロジェクタ搭載カメラ1は、カメラユニット(撮影部)10と、プロジェクタユニット(投影部)20と、LCDモニタ30と、通信制御部40と、RAM50と、フラッシュメモリ60と、CPU70と、メモリカードインターフェース(I/F)80と、操作部材90と、を有する。メモリカードI/F80には、着脱可能なメモリカード100が装着される。   FIG. 2 is a block diagram illustrating the configuration of the projector-equipped camera 1 of FIG. The projector-equipped camera 1 includes a camera unit (imaging unit) 10, a projector unit (projection unit) 20, an LCD monitor 30, a communication control unit 40, a RAM 50, a flash memory 60, a CPU 70, a memory card interface ( I / F) 80 and an operation member 90. A removable memory card 100 is attached to the memory card I / F 80.

<カメラユニット10>
カメラユニット10は、撮影光学系11と、撮像素子12と、撮像制御部13と、光学系駆動部14と、を含む。撮像素子12としては、CMOSイメージセンサなどが用いられる。撮像制御部13は、CPU70からの指示を受けて撮像素子12および光学系駆動部14を駆動制御するとともに、撮像素子12から読み出される画像信号に対して所定の画像処理を行う。画像処理は、ガンマ処理や補間処理、ホワイトバランス調整処理などである。
<Camera unit 10>
The camera unit 10 includes a photographing optical system 11, an image pickup device 12, an image pickup control unit 13, and an optical system driving unit 14. As the image sensor 12, a CMOS image sensor or the like is used. In response to an instruction from the CPU 70, the imaging control unit 13 drives and controls the imaging device 12 and the optical system driving unit 14, and performs predetermined image processing on the image signal read from the imaging device 12. Image processing includes gamma processing, interpolation processing, white balance adjustment processing, and the like.

撮影光学系11は、撮像素子12の撮像面上に被写体像を結像させる。撮像制御部13は、撮影開始指示に応じて撮像素子12に撮像を開始させ、撮像終了後に撮像素子12から画像信号を読出す。撮像制御部13はさらに、読み出した画像信号に画像処理を施し、画像処理後の画像データをCPU70へ送出する。   The imaging optical system 11 forms a subject image on the imaging surface of the imaging element 12. The imaging control unit 13 causes the imaging device 12 to start imaging in response to an imaging start instruction, and reads an image signal from the imaging device 12 after the imaging is completed. The imaging control unit 13 further performs image processing on the read image signal and sends the image data after the image processing to the CPU 70.

光学系駆動部14は、撮像制御部13から出力されるフォーカス調節信号に基づいて、撮影光学系11を構成するフォーカスレンズ(不図示)を光軸方向に進退駆動する。また、光学系駆動部14は、撮像制御部13から出力されるズーム調節信号に基づいて、撮影光学系11を構成するズームレンズ(不図示)を光軸方向(テレ側もしくはワイド側)へ進退駆動する。   The optical system driving unit 14 drives a focus lens (not shown) constituting the photographing optical system 11 forward and backward in the optical axis direction based on the focus adjustment signal output from the imaging control unit 13. Further, the optical system driving unit 14 advances and retracts a zoom lens (not shown) constituting the photographing optical system 11 in the optical axis direction (tele side or wide side) based on the zoom adjustment signal output from the imaging control unit 13. To drive.

<フォーカス調節>
カメラユニット10のフォーカス調節は、撮影光学系11を構成するフォーカスレンズを光軸方向に移動させることによって行われる。オートフォーカス調節を行う撮像制御部13は、撮像素子12で撮像された画像信号のうち、所定のフォーカス検出エリア(例えば撮影画面中央)に対応する画像信号に含まれる高周波数成分の積算値(いわゆる焦点評価値)を最大にするように、フォーカス調節信号を光学系駆動部14へ送る。焦点評価値を最大にするフォーカスレンズの位置は、撮像素子12によって撮像される被写体像のエッジのボケをなくし、画像のコントラストを最大にする合焦位置である。
<Focus adjustment>
The focus adjustment of the camera unit 10 is performed by moving a focus lens constituting the photographing optical system 11 in the optical axis direction. The imaging control unit 13 that performs autofocus adjustment includes an integrated value (a so-called value) of high frequency components included in an image signal corresponding to a predetermined focus detection area (for example, the center of the shooting screen) among the image signals captured by the image sensor 12. A focus adjustment signal is sent to the optical system drive unit 14 so as to maximize the focus evaluation value. The position of the focus lens that maximizes the focus evaluation value is a focus position that eliminates blurring of the edge of the subject image captured by the image sensor 12 and maximizes the contrast of the image.

<ズーム調節>
カメラユニット10のズーム調節は、撮影光学系11を構成するズームレンズを光軸方向に移動させることによって行われる。ズーム調節を行う撮像制御部13は、操作部材90を構成する不図示のズームスイッチからCPU70を介して送られるズーム操作信号に応じて、ズーム調節信号を光学系駆動部14へ送る。
<Zoom adjustment>
The zoom adjustment of the camera unit 10 is performed by moving the zoom lens constituting the photographing optical system 11 in the optical axis direction. The imaging control unit 13 that performs zoom adjustment sends a zoom adjustment signal to the optical system drive unit 14 in accordance with a zoom operation signal sent from a zoom switch (not shown) that constitutes the operation member 90 via the CPU 70.

<プロジェクタユニット20>
プロジェクタユニット20は、投影光学系21と、液晶パネル22と、LED光源23と、光学系駆動部24と、投影制御部25と、を含む。投影制御部25は、CPU70からの投影指示に応じてLED光源23に駆動電流を供給する。LED光源23は、供給された電流に応じた明るさで液晶パネル22を照明する。
<Projector unit 20>
The projector unit 20 includes a projection optical system 21, a liquid crystal panel 22, an LED light source 23, an optical system driving unit 24, and a projection control unit 25. The projection control unit 25 supplies a drive current to the LED light source 23 in response to a projection instruction from the CPU 70. The LED light source 23 illuminates the liquid crystal panel 22 with brightness according to the supplied current.

投影制御部25はさらに、CPU70から送出される画像データに応じて液晶パネル駆動信号を生成し、生成した駆動信号で液晶パネル22を駆動する。具体的には、液晶層に対して画像信号に応じた電圧を画素ごとに印加する。電圧が印加された液晶層は液晶分子の配列が変わり、当該液晶層の光の透過率が変化する。このように、画像信号に応じてLED光源23からの光を変調することにより、液晶パネル22が光像を生成する。   The projection control unit 25 further generates a liquid crystal panel drive signal according to the image data sent from the CPU 70, and drives the liquid crystal panel 22 with the generated drive signal. Specifically, a voltage corresponding to the image signal is applied to the liquid crystal layer for each pixel. In the liquid crystal layer to which a voltage is applied, the arrangement of liquid crystal molecules changes, and the light transmittance of the liquid crystal layer changes. Thus, the liquid crystal panel 22 generates an optical image by modulating the light from the LED light source 23 in accordance with the image signal.

投影に用いる画像データとしては、メモリカード100から読み出された画像データや、カメラユニット10から出力された画像データの他、通信制御部40において受信された画像データを使用できる。   As image data used for projection, image data read from the memory card 100, image data output from the camera unit 10, and image data received by the communication control unit 40 can be used.

投影光学系21は、液晶パネル22から射出される光像をスクリーンなどへ向けて投影する。光学系駆動部24は、投影制御部25から出力されるオフセット調節信号に基づいて、投影光学系21を光軸に対して直交する方向へ進退駆動する。また、光学系駆動部24は、投影制御部25から出力されるフォーカス調節信号に基づいて、投影光学系21を構成するフォーカスレンズ(不図示)を光軸方向へ進退駆動する。光学系駆動部24はさらに、投影制御部25から出力されるズーム調節信号に基づいて、投影光学系21を構成するズームレンズ(不図示)を光軸方向へ進退駆動する。   The projection optical system 21 projects the light image emitted from the liquid crystal panel 22 onto a screen or the like. The optical system driving unit 24 drives the projection optical system 21 to advance and retreat in a direction orthogonal to the optical axis based on the offset adjustment signal output from the projection control unit 25. Further, the optical system driving unit 24 drives a focus lens (not shown) constituting the projection optical system 21 to advance and retreat in the optical axis direction based on the focus adjustment signal output from the projection control unit 25. The optical system drive unit 24 further drives the zoom lens (not shown) constituting the projection optical system 21 to advance and retreat in the optical axis direction based on the zoom adjustment signal output from the projection control unit 25.

<投影像のオフセット>
投影像のオフセット調節は、投影光学系21が光軸と直交する向きにシフトされることによって行われる。投影光学系21がシフトすることで、プロジェクタユニット20から射出される光束の射出方向が変化し、投影像がオフセットされる。投影像のオフセットは、投影光学系21をシフトさせて行う他にも、液晶パネル22、LED光源23を光軸に対して垂直方向にシフトさせて行う構成としてもよい。
<Offset of projected image>
The offset adjustment of the projection image is performed by shifting the projection optical system 21 in a direction orthogonal to the optical axis. By shifting the projection optical system 21, the emission direction of the light beam emitted from the projector unit 20 changes, and the projection image is offset. The offset of the projection image may be performed by shifting the projection optical system 21 and shifting the liquid crystal panel 22 and the LED light source 23 in the direction perpendicular to the optical axis.

<投影像のキーストン補正>
投影光学系21、液晶パネル22、LED光源23の一部を光軸に対して垂直方向にシフトさせる際には、そのシフト量に応じて投影するデータに対するキーストン補正を行う。投影像に上記オフセットを与えるだけでは投影像が台形状に変化するので、投影制御部25は、投影像を台形状から長方形状に補正するために画像処理によるキーストン補正を施す。投影制御部25内のメモリには、あらかじめ投影像を方形状に補正するための初期補正値が記憶されている。投影制御部25は、オフセット調節量に対応する初期補正値を読み出し、読み出した初期補正値に基づいて投影する画像データに対するキーストン補正処理を施し、キーストン補正処理後の画像データに基づいて液晶パネル22を駆動する。
<Keystone correction of projected images>
When a part of the projection optical system 21, the liquid crystal panel 22, and the LED light source 23 is shifted in the direction perpendicular to the optical axis, keystone correction is performed on the data to be projected in accordance with the shift amount. Since the projection image changes to a trapezoidal shape only by giving the offset to the projection image, the projection control unit 25 performs keystone correction by image processing to correct the projection image from the trapezoidal shape to the rectangular shape. The memory in the projection control unit 25 stores an initial correction value for correcting the projected image into a square shape in advance. The projection control unit 25 reads an initial correction value corresponding to the offset adjustment amount, performs a keystone correction process on the image data to be projected based on the read initial correction value, and based on the image data after the keystone correction process, the liquid crystal panel 22. Drive.

<投影像のフォーカス調節>
プロジェクタユニット20のフォーカス調節は、投影光学系21を構成するフォーカスレンズを光軸方向にシフトすることによって行われる。オートフォーカス調節を行う投影制御部25は、カメラユニット10で撮像された画像信号のうち、フォーカス検出エリア(例えば撮影画面中央)に対応する画像信号に含まれる高周波数成分の積算値(いわゆる焦点評価値)を最大にするように、フォーカス調節信号を光学系駆動部24へ送る。焦点評価値を最大にするフォーカスレンズの位置は、投影像のエッジのボケをなくし、投影像のコントラストを最大にするフォーカス調節位置である。
<Focus adjustment of projected image>
The focus adjustment of the projector unit 20 is performed by shifting the focus lens constituting the projection optical system 21 in the optical axis direction. The projection control unit 25 that performs autofocus adjustment includes an integrated value (so-called focus evaluation) of high-frequency components included in the image signal corresponding to the focus detection area (for example, the center of the shooting screen) among the image signals captured by the camera unit 10. The focus adjustment signal is sent to the optical system drive unit 24 so as to maximize the value. The position of the focus lens that maximizes the focus evaluation value is a focus adjustment position that eliminates blurring of the edge of the projected image and maximizes the contrast of the projected image.

<投影像のズーム調節>
プロジェクタユニット20のズーム調節は、投影光学系21を構成するズームレンズを光軸方向に移動させることによって行われる。ズーム調節を行う投影制御部25は、操作部材90を構成する不図示のズームスイッチからCPU70を介して送られるズーム操作信号に応じてズーム調節信号を光学系駆動部24へ送る。
<Zoom adjustment of projected image>
Zoom adjustment of the projector unit 20 is performed by moving the zoom lens constituting the projection optical system 21 in the optical axis direction. The projection control unit 25 that performs zoom adjustment sends a zoom adjustment signal to the optical system driving unit 24 in accordance with a zoom operation signal sent from a zoom switch (not shown) constituting the operation member 90 via the CPU 70.

LCDモニタ30は液晶表示パネルによって構成され、CPU70からの指示に応じて画像や操作メニュー画面などを表示する。通信制御部40は、CPU70からの指示に応じて外部機器との間の通信を制御する。通信制御部40は、無線通信回路を備えており、アンテナ40aを介して電波を送受信する。本実施形態では、プロジェクタ搭載カメラ1と同様の構成を有する他のプロジェクタ搭載カメラや、近距離無線通信機能を備える携帯電話機等との間で無線通信を行う。無線通信は、例えばブルートゥース(登録商標)による近距離無線通信である。   The LCD monitor 30 is constituted by a liquid crystal display panel, and displays an image, an operation menu screen, and the like according to an instruction from the CPU 70. The communication control unit 40 controls communication with an external device in accordance with an instruction from the CPU 70. The communication control unit 40 includes a wireless communication circuit, and transmits and receives radio waves via the antenna 40a. In the present embodiment, wireless communication is performed with another projector-equipped camera having the same configuration as the projector-equipped camera 1, a mobile phone having a short-range wireless communication function, or the like. The wireless communication is short-range wireless communication by Bluetooth (registered trademark), for example.

通信制御部40はさらに、CPU70からの指示に応じて人体を介して通信を行う、公知の人体通信機能を備える。具体的には、図1に例示したプロジェクタ搭載カメラ1の筐体の面において、送受信用電極40bが露出するように配設される。そして、図3に例示するように、プロジェクタ搭載カメラ1aの使用者Aと、他のプロジェクタ搭載カメラ1bの使用者Bとが、それぞれ自己のプロジェクタ搭載カメラ1a、1bの送受信用電極40bに触れるようにプロジェクタ搭載カメラ1a、1bを片手で把持し、両使用者A,Bがプロジェクタ搭載カメラ1a、1bを把持していない他方の手で互いに触れる(例えば握手)ことにより、人体および人体間の容量結合によって形成される閉回路によって、両人体をアンテナとしてプロジェクタ搭載カメラ1a、1b間の通信を行うものである。   The communication control unit 40 further includes a known human body communication function that performs communication via the human body in response to an instruction from the CPU 70. Specifically, on the surface of the housing of the projector-mounted camera 1 illustrated in FIG. 1, the transmitting / receiving electrode 40b is disposed so as to be exposed. As illustrated in FIG. 3, the user A of the projector-mounted camera 1a and the user B of the other projector-mounted camera 1b touch the transmission / reception electrodes 40b of their own projector-mounted cameras 1a and 1b, respectively. When the projector-mounted cameras 1a and 1b are held with one hand and both users A and B touch each other with the other hand not holding the projector-mounted cameras 1a and 1b (for example, shaking hands), the human body and the capacity between the human bodies Communication between the projector-equipped cameras 1a and 1b is performed using both human bodies as antennas by a closed circuit formed by coupling.

RAM50は、CPU70のワークメモリとして使用される。フラッシュメモリ60は、CPU70に実行させるプログラムを記憶する。CPU70は、フラッシュメモリ60が記憶するプログラムを実行することによってプロジェクタ搭載カメラ1による動作を制御する。   The RAM 50 is used as a work memory for the CPU 70. The flash memory 60 stores a program to be executed by the CPU 70. The CPU 70 controls the operation of the projector-equipped camera 1 by executing a program stored in the flash memory 60.

メモリカードI/F80は不図示のコネクタを有し、該コネクタにメモリカード100が接続される。メモリカードI/F80は、接続されたメモリカード100に対するデータの書き込みや、メモリカード100からのデータの読み込みを行う。メモリカード100は、フラッシュメモリなどの不揮発性メモリによって構成される。   The memory card I / F 80 has a connector (not shown), and the memory card 100 is connected to the connector. The memory card I / F 80 writes data to the connected memory card 100 and reads data from the memory card 100. The memory card 100 is configured by a nonvolatile memory such as a flash memory.

操作部材90は、レリーズボタン、投影ボタン、モード切替スイッチ、上記カメラユニット10用のズームスイッチ、プロジェクタユニット20用のズームスイッチなどを含む。操作部材90は、レリーズ操作や投影操作、モード切替え操作など、各操作に応じた操作信号をCPU70へ送出する。   The operation member 90 includes a release button, a projection button, a mode switch, a zoom switch for the camera unit 10, a zoom switch for the projector unit 20, and the like. The operation member 90 sends an operation signal corresponding to each operation such as a release operation, a projection operation, and a mode switching operation to the CPU 70.

<パズル投影モード>
本実施形態は、上記プロジェクタ搭載カメラ1がパズル投影モードに切替えられた場合の動作に特徴を有するので、以降の説明は、パズル投影モード時にCPU70が行う制御処理を中心に行う。通常の投影モードは、メモリカード100から読み出すなどした画像データによる画像をそのままプロジェクタユニット20で投影するのに対し、パズル投影モードは、元画像に含まれる主要部を複数のパズルピースに分割し、複数のパズルピースを元の領域(第1領域)から異なる領域(第2領域)に配置してプロジェクタユニット20で投影する点が異なる。
<Puzzle projection mode>
Since the present embodiment has a feature in the operation when the projector-mounted camera 1 is switched to the puzzle projection mode, the following description will be focused on the control processing performed by the CPU 70 in the puzzle projection mode. In the normal projection mode, an image based on image data read out from the memory card 100 is projected as it is by the projector unit 20, whereas in the puzzle projection mode, the main part included in the original image is divided into a plurality of puzzle pieces, The difference is that a plurality of puzzle pieces are arranged in a different area (second area) from the original area (first area) and projected by the projector unit 20.

図4は、パズル投影モードが用いられる場面を説明する図である。プロジェクタ搭載カメラ1は、三脚にセットしても、人物Aが片手で持っていてもよい。図4において、プロジェクタ搭載カメラ1のプロジェクタユニット20から、人物Aに向けてパズルピースの画像が投影されている。図4の例では、メモリカード100から読み出されたヒトの内臓の画像に基づいて、当画像に含まれる主要な臓器をパズルピースとしている。CPU70は、例えば内臓の画像を臓器ごとに分割してパズルピースを形成し、形成したパズルピースを本来の領域(第1領域)から異なる領域(第2領域)に配置し直したパズル画像を生成し、このパズル画像をプロジェクタユニット20から人物Aに向けて投影させる。図5はパズル画像を例示する図であり、図5(a)はパズルピースを本来の領域に配置した図、図5(b)は図5(a)のパズルピースを図5(a)の本来の領域から異なる領域に配置し直した図である。ここで、パズルピースを本来の領域から異なる領域に配置し直す場合、少なくとも一つのパズルピースを異なる領域に配置すればよい。また異なる領域に配置する際に、パズルピースのサイズを変更してもよい。なお、本来の領域(第1領域)と異なる領域(第2領域)との関係は、重畳している領域があってもよい。すなわち、第1及び第2の領域が完全に重畳しているのではなく、一部でも重畳していない部分があれば、第2領域は本来の領域(第1領域)とは異なる領域であるとする。   FIG. 4 is a diagram illustrating a scene in which the puzzle projection mode is used. The projector-mounted camera 1 may be set on a tripod or held by the person A with one hand. In FIG. 4, an image of a puzzle piece is projected toward a person A from the projector unit 20 of the projector-equipped camera 1. In the example of FIG. 4, based on the image of the human internal organs read from the memory card 100, the main organs included in the image are used as puzzle pieces. For example, the CPU 70 divides a visceral image for each organ to form a puzzle piece, and generates a puzzle image in which the formed puzzle piece is rearranged from the original region (first region) to a different region (second region). Then, this puzzle image is projected from the projector unit 20 toward the person A. FIG. 5 is a diagram illustrating a puzzle image. FIG. 5 (a) is a diagram in which the puzzle pieces are arranged in the original region, and FIG. 5 (b) is a diagram of the puzzle pieces in FIG. 5 (a) shown in FIG. It is the figure rearranged from the original area to a different area. Here, when the puzzle piece is rearranged from the original area to a different area, at least one puzzle piece may be arranged in a different area. Further, the size of the puzzle piece may be changed when arranging in different areas. The relationship between the original region (first region) and the different region (second region) may be an overlapping region. That is, the first and second areas are not completely overlapped, and if there is a part that does not overlap at all, the second area is a different area from the original area (first area). And

カメラユニット10は、パズル画像が投影されている人物Aを画面に含むように、所定のフレームレート(例えば60fps)で撮像を繰り返す。人物Bは、人物Aに投影されているパズル画像に対し、パズルピースを本来の正しい領域に移動させるようにジェスチャー操作を行なってパズルを解く。なお、パズルを解いている人物Bの顔を画面に含むように、カメラユニット10の撮影光学系11を魚眼レンズで構成してもよい。   The camera unit 10 repeats imaging at a predetermined frame rate (for example, 60 fps) so that the screen includes the person A on which the puzzle image is projected. The person B solves the puzzle by performing a gesture operation on the puzzle image projected on the person A so as to move the puzzle piece to the original correct area. In addition, you may comprise the imaging | photography optical system 11 of the camera unit 10 with a fisheye lens so that the face of the person B who is solving the puzzle may be included on the screen.

―投影像の生成―
プロジェクタ搭載カメラ1のCPU70は、カメラユニット10で取得された画像データに基づいて人物Aの大きさを検出し、投影するパズル画像を人物Aに重ねるように、パズル画像の大きさを調節して投影像を生成する。人物Aの大きさ検出は、例えばカメラユニット10で取得された画面に占める人物Aの大きさ、および撮影光学系11の焦点距離情報に基づいて行うことができる。CPU70は、人物Aに映るパズルピースが人物Aからはみ出さないように、人物Aの大きさに応じてパズルピースのサイズを決定する。
―Generation of projection image―
The CPU 70 of the projector-equipped camera 1 detects the size of the person A based on the image data acquired by the camera unit 10 and adjusts the size of the puzzle image so that the projected puzzle image is superimposed on the person A. A projection image is generated. The size detection of the person A can be performed based on the size of the person A in the screen acquired by the camera unit 10 and the focal length information of the photographing optical system 11, for example. The CPU 70 determines the size of the puzzle piece according to the size of the person A so that the puzzle piece reflected in the person A does not protrude from the person A.

また、CPU70は、カメラユニット10で取得された画像データに基づいて人物Aの位置および姿勢を推定し、投影するパズル画像を人物Aに重ねるように、パズル画像に対して処理を施して投影像を生成する。ここで、人物Aは静止しているとは限らないため、人物Aの位置に応じてパズル画像の投影位置を移動させるように、パズル画像に対して画像処理を行う。さらに、人物Aに投影されるパズル画像が台形状に変形している場合は台形補正処理を行う。   In addition, the CPU 70 estimates the position and orientation of the person A based on the image data acquired by the camera unit 10, performs a process on the puzzle image so that the puzzle image to be projected is superimposed on the person A, and outputs the projected image. Is generated. Here, since the person A is not always stationary, image processing is performed on the puzzle image so that the projection position of the puzzle image is moved according to the position of the person A. Furthermore, when the puzzle image projected on the person A is deformed into a trapezoid, a trapezoid correction process is performed.

さらに、CPU70は、人物Aが実際に着ている衣装は白とは限らないため、人物Aがもともと着用している服装の色や模様をカメラユニット10から送信された画像データの色情報に基づいて検出し、検出した色や模様を目立たなくする一方で投影するパズル画像が目立つように、パズル画像に対して色や輝度を変える画像処理を行って投影像を生成する。以上のように生成した投影像を人物Aに投影することにより、人物Aに重畳したパズルピースが観察される。   Furthermore, since the costume that the person A is actually wearing is not necessarily white, the CPU 70 determines the color and pattern of the clothes that the person A originally wears based on the color information of the image data transmitted from the camera unit 10. In order to make the detected color and pattern inconspicuous while the projected puzzle image stands out, the puzzle image is subjected to image processing for changing the color and brightness to generate a projected image. By projecting the projection image generated as described above onto the person A, the puzzle piece superimposed on the person A is observed.

上述したプロジェクション・マッピングにおける投影像のための画像処理方法は、例えば、非特許文献:Takuma Nakamura, Akio Watanabe, Naoki Hashimoto, “Dynamic Projection Mapping”, ACM SIGGRAPH, Proc. of ACM SIGGRAPH2012, 2012/08 に記載される手法を用いることができる。   An image processing method for a projection image in the above-described projection mapping is described in, for example, Non-Patent Documents: Takuma Nakamura, Akio Watanabe, Naoki Hashimoto, “Dynamic Projection Mapping”, ACM SIGGRAPH, Proc. Of ACM SIGGRAPH2012, 2012/08 The techniques described can be used.

―ジェスチャー操作―
図4において、人物Bが人物Aに映るパズルピースPに手を重ねると、CPU70は、カメラユニット10から送信された画像データに基づいてパズルピースPが選択されたことを判定する。CPU70は、パズル画像のうちパズルピースPの投影色を他のパズルピースの投影色と異ならせることにより、パズルピースPが選択されたことを知らせる。なお、パズルピースPの投影色を異ならせる代わりに、パズルピースPの投影輝度を他のパズルピースの投影輝度と異ならせたり、パズルピースPを点滅させたりしてもよい。
-Gesture operation-
In FIG. 4, when the person B puts his hand on the puzzle piece P reflected in the person A, the CPU 70 determines that the puzzle piece P is selected based on the image data transmitted from the camera unit 10. The CPU 70 notifies that the puzzle piece P has been selected by making the projection color of the puzzle piece P different from the projection color of the other puzzle pieces in the puzzle image. Instead of making the projection color of the puzzle piece P different, the projection brightness of the puzzle piece P may be made different from the projection brightness of other puzzle pieces, or the puzzle piece P may be blinked.

CPU70は、人物Aに映るパズルピースPに重なる手の位置が移動すると、手の位置の移動に合わせてパズルピースPの投影位置を変化させるように、パズル画像に対して画像処理を行う。具体的には、CPU70は、カメラユニット10から送信された画像データに基づいて手の位置を検出し、検出した手に対応する位置へパズルピースPを投影するようにパズル画像を変更する。これにより、人物Aに重ねて投影されるパズルピースPが、人物Bによってドラッグ操作されているように観察される。   When the position of the hand that overlaps the puzzle piece P reflected in the person A moves, the CPU 70 performs image processing on the puzzle image so as to change the projection position of the puzzle piece P in accordance with the movement of the hand position. Specifically, the CPU 70 detects the position of the hand based on the image data transmitted from the camera unit 10 and changes the puzzle image so as to project the puzzle piece P to the position corresponding to the detected hand. As a result, the puzzle piece P projected onto the person A is observed as if being dragged by the person B.

人物Bが手をプロジェクタ搭載カメラ1の方向へ移動させると、カメラユニット10で撮影される画面において手が占める割合が大きくなる。CPU70は、カメラユニット10で取得された画面に占める手の割合が大きくなるとパズルピースPの選択が解除されたと判定し、パズルピースPの投影色を元の投影色に戻すようにパズル画像に対して画像処理を行う。人物Bは、以上述べたように手を使って個々のパズルピースの投影位置をずらすことにより、パズルを解く作業を行う。   When the person B moves his / her hand in the direction of the projector-equipped camera 1, the proportion of the hand in the screen shot by the camera unit 10 increases. The CPU 70 determines that the selection of the puzzle piece P has been canceled when the proportion of the hand occupying the screen acquired by the camera unit 10 increases, and the puzzle image P is restored to the original projection color so that the projection color of the puzzle piece P is returned to the original projection color. Image processing. As described above, the person B performs the task of solving the puzzle by shifting the projection position of each puzzle piece using the hand.

<フローチャートの説明>
図6は、プロジェクタ搭載カメラ1aのCPU70がパズル投影モードにおいて実行するプログラムによる処理の流れを説明するフローチャートである。CPU70は、操作部材90を構成するモード切替えスイッチからCPU70へパズル投影モードへの切替えを指示する操作信号が入力されると、図6による処理を起動させる。
<Description of flowchart>
FIG. 6 is a flowchart for explaining the flow of processing by a program executed by the CPU 70 of the projector-equipped camera 1a in the puzzle projection mode. When an operation signal for instructing the CPU 70 to switch to the puzzle projection mode is input from the mode switch constituting the operation member 90, the CPU 70 activates the process illustrated in FIG.

図6のステップS101において、CPU70は、操作信号に応じてパズル投影モードを選択してステップS102へ進む。ステップS102において、CPU70は、パズル投影動作の開始を指示してステップS103へ進む。ステップS103において、CPU70は、撮影画像投影モードか、登録画像投影モードかを判定する。撮影画像投影モードは、カメラユニット10で撮影された画像に基づいてパズル画像を生成するモードである。登録画像投影モードは、あらかじめメモリカード100に記録されている登録画像に基づいてパズル画像を生成するモードである。   In step S101 of FIG. 6, the CPU 70 selects a puzzle projection mode in accordance with the operation signal, and proceeds to step S102. In step S102, the CPU 70 instructs the start of the puzzle projection operation and proceeds to step S103. In step S103, the CPU 70 determines whether the captured image projection mode or the registered image projection mode. The captured image projection mode is a mode for generating a puzzle image based on an image captured by the camera unit 10. The registered image projection mode is a mode in which a puzzle image is generated based on a registered image recorded in advance on the memory card 100.

CPU70は、操作部材90からの操作信号が撮影画像投影モードを示す場合にステップS104へ進み、操作部材90からの操作信号が登録画像投影モードを示す場合にはステップS106へ進む。   The CPU 70 proceeds to step S104 when the operation signal from the operation member 90 indicates the captured image projection mode, and proceeds to step S106 when the operation signal from the operation member 90 indicates the registered image projection mode.

ステップS104において、CPU70は、撮影画像投影モード動作における撮影指示(操作部材90を構成するレリーズボタンの押下操作)を受けてステップS105へ進む。ステップS105において、CPU70はカメラユニット10の撮像制御部13へ指示を送り、投影するパズル画像の原形となる画像を撮影させてステップS108へ進む。   In step S <b> 104, the CPU 70 proceeds to step S <b> 105 upon receiving a shooting instruction (pressing operation of a release button constituting the operation member 90) in the shooting image projection mode operation. In step S105, the CPU 70 sends an instruction to the imaging control unit 13 of the camera unit 10 to capture an image that is the original form of the puzzle image to be projected, and then proceeds to step S108.

一方、ステップS106において、CPU70は、登録画像投影モードにおける読み出し指示(操作部材90を構成する読み出しスイッチの操作)を受けてステップS107へ進む。ステップS107において、CPU70はメモリカードI/F80へ指示を送り、投影するパズル画像の原形となる画像(メモリカード100に登録されている画像)をメモリカード100から読み出させてステップS108へ進む。   On the other hand, in step S106, the CPU 70 receives a read instruction in the registered image projection mode (operation of a read switch constituting the operation member 90), and proceeds to step S107. In step S107, the CPU 70 sends an instruction to the memory card I / F 80, reads an image (an image registered in the memory card 100), which is the original form of the puzzle image to be projected, from the memory card 100, and proceeds to step S108.

ステップS108において、CPU70は投影制御部25へ指示を送り、プロジェクタユニット20から投影を開始させる。CPU70は、ステップS105においてカメラユニット10で取得された画像、またはステップS107においてメモリカードI/F80によってメモリカード100から読み出された画像に基づいて生成したパズル画像をプロジェクタユニット20から投影させる。なおCPU70は、投影させるパズル画像を所定時間(例えば10分)投影させると画像の投影を終了させるような制御をおこなってもよい。   In step S <b> 108, the CPU 70 sends an instruction to the projection control unit 25 and starts projection from the projector unit 20. The CPU 70 causes the projector unit 20 to project a puzzle image generated based on the image acquired by the camera unit 10 in step S105 or the image read from the memory card 100 by the memory card I / F 80 in step S107. Note that the CPU 70 may perform control such that the projection of the image is terminated when the puzzle image to be projected is projected for a predetermined time (for example, 10 minutes).

ステップS109において、CPU70は投影画像のパズル化を行う。具体的には、CPU70が投影画像に含まれる主要被写体を複数のパズルピースに分割する。CPU70はさらに、パズルピースを本来の領域(パズル画像の原形の画像に対応する領域)から異なる領域に配置し直したパズル画像を生成し、このパズル画像をプロジェクタユニット20から投影させてステップS110へ進む。なお、個々のパズルピースのサイズを本来のサイズと異なるサイズへ変更したパズル画像を生成してもよい。   In step S109, the CPU 70 creates a puzzle for the projected image. Specifically, the CPU 70 divides the main subject included in the projected image into a plurality of puzzle pieces. The CPU 70 further generates a puzzle image in which the puzzle pieces are rearranged from the original region (region corresponding to the original image of the puzzle image) to a different region, and projects the puzzle image from the projector unit 20 to step S110. move on. A puzzle image in which the size of each puzzle piece is changed to a size different from the original size may be generated.

ステップS110において、CPU70はパズルピースの選択を行う。上述したジェスチャー操作を受け付けて、CPU70は、カメラユニット10から送信された画像データに基づいて人物Bの手と重なって観察されるパズルピースPを選択し、ステップS111へ進む。CPU70は、選択したパズルピースPの投影色を、他のパズルピースの投影色と異ならせる。   In step S110, the CPU 70 selects a puzzle piece. In response to the gesture operation described above, the CPU 70 selects the puzzle piece P that is observed while overlapping the hand of the person B based on the image data transmitted from the camera unit 10, and proceeds to step S111. The CPU 70 makes the projection color of the selected puzzle piece P different from the projection color of other puzzle pieces.

ステップS111において、CPU70は、選択したパズルピースPを移動させる。CPU70は、カメラユニット10から送信された画像データに基づいて検出される人物Bの手に対応する位置へパズルピースPを移動させて、ステップS112へ進む。   In step S111, the CPU 70 moves the selected puzzle piece P. The CPU 70 moves the puzzle piece P to a position corresponding to the hand of the person B detected based on the image data transmitted from the camera unit 10, and proceeds to step S112.

ステップS112において、CPU70は、選択したパズルピースPのサイズを変更させる。CPU70は、カメラユニット10から送信された画像データに基づいて検出される人物Bの手によるピンチイン操作、またはピンチアウト操作に応じてパズルピースPの投影サイズを変化させて、ステップS113へ進む。なお、パズルピースのサイズが本来のサイズと異なるサイズへ変更されていない場合は、ステップS112をスキップして構わない。   In step S112, the CPU 70 changes the size of the selected puzzle piece P. The CPU 70 changes the projection size of the puzzle piece P in accordance with the pinch-in operation or the pinch-out operation by the hand of the person B detected based on the image data transmitted from the camera unit 10, and proceeds to step S113. Note that if the size of the puzzle piece has not been changed to a size different from the original size, step S112 may be skipped.

ステップS113において、CPU70はクリア判定を行う。CPU70は、カメラユニット10から送信された画像データに基づいて、現在のパズルピースの領域(位置およびサイズ)が、本来の正しいパズルピースの領域(位置およびサイズ)と一致する場合に、ステップ113を肯定判定してステップS114へ進む。CPU70は、現在のパズルピースの領域(位置およびサイズ)が、本来のパズルピースの領域(位置およびサイズ)と一致しない場合には、ステップ113を否定判定してステップS110へ戻る。ステップS110へ戻る場合は、上述した処理を繰り返す。なお、本来の正しいパズルピースの領域(位置およびサイズ)と一致する場合には、パズルピースPの投影を強調させる投影にしてもよい。例えば、パズルピースの輪郭部を濃く投影するような強調を行ってもよい。なお、CPU70はクリア判定として、現在のパズルピースの領域(位置およびサイズ)が、本来のパズルピースの領域(位置およびサイズ)と完全に一致していなくてもクリア(肯定)判定を行ってもよい。一致しているとする範囲としては、適宜変更してもよく、本来のパズルピースのサイズと比較してプラスマイナス5%以内のサイズの誤差であったらサイズが一致していると判定してよい。また現在のパズルピースの中心位置と現在のパズルピースの中心位置との位置ズレがパズルピースの大きさと比較して5%以内であればパズルピースの位置は一致していると判定してよい。また、現在のパズルピースの中心位置が本来の正しいパズルピースの中心位置と一致していれば肯定(クリア)判定してもよい。すなわち必ずしも正確にサイズが一致していなくても(上述の5%以内に含まれていなくても)パズルピースの中心位置さえそろっていれば一致していると判定してもよい。図4で挙げた例のように、人物の内蔵を投影する場合は、内蔵の位置が重要になるため、サイズは必ずしも正確に判定する必要がない場合があるためである。なお、前述とは逆に、現在のパズルピースのサイズが本来の正しいパズルピースのサイズと一致していれば肯定(クリア)判定としてもよい。   In step S113, the CPU 70 performs a clear determination. When the current puzzle piece area (position and size) matches the original correct puzzle piece area (position and size) based on the image data transmitted from the camera unit 10, the CPU 70 performs step 113. An affirmative determination is made and the process proceeds to step S114. If the current puzzle piece area (position and size) does not match the original puzzle piece area (position and size), the CPU 70 makes a negative determination in step 113 and returns to step S110. When returning to step S110, the above-described processing is repeated. In addition, when it corresponds with the area | region (position and size) of the original correct puzzle piece, you may make it the projection which emphasizes the projection of the puzzle piece P. FIG. For example, you may perform emphasis which projects the outline part of a puzzle piece deeply. Note that the CPU 70 may perform a clear (positive) determination as a clear determination even if the current puzzle piece area (position and size) does not completely match the original puzzle piece area (position and size). Good. The range of matching may be changed as appropriate, and if the size error is within ± 5% compared to the original size of the puzzle piece, it may be determined that the size matches. . Further, if the positional deviation between the center position of the current puzzle piece and the center position of the current puzzle piece is within 5% of the size of the puzzle piece, it may be determined that the position of the puzzle piece matches. Further, if the center position of the current puzzle piece matches the center position of the original correct puzzle piece, an affirmative (clear) determination may be made. That is, even if the sizes do not necessarily match exactly (even if they are not included within the above 5%), it may be determined that they match if the center positions of the puzzle pieces are all aligned. This is because, as in the example shown in FIG. 4, when projecting a person's built-in, the position of the built-in becomes important, and thus the size may not necessarily be determined accurately. Contrary to the above, if the current size of the puzzle piece matches the size of the original correct puzzle piece, an affirmative (clear) determination may be made.

ステップS114へ進む場合は、人物Bがパズルを解いた場合である。この場合、人物Aのプロジェクタ搭載カメラ1aから人物Bのプロジェクタ搭載カメラ1bに対し、所定のデータが送られる。データは、例えばパズルピースに分割する前の元画像や、人物Aのポートレート画像、人物Aがプロジェクタ搭載カメラ1aに撮りためた画像のデータである。   The process proceeds to step S114 when the person B solves the puzzle. In this case, predetermined data is sent from the person A's projector-equipped camera 1a to the person B's projector-equipped camera 1b. The data is, for example, an original image before being divided into puzzle pieces, a portrait image of the person A, or image data taken by the person A on the projector-mounted camera 1a.

ステップS114において、CPU70は人体通信可能か否かを判定する。CPU70は、図3に例示したように人物Aのプロジェクタ搭載カメラ1aおよび人物Bのプロジェクタ搭載カメラ1bの間で人体通信可能である場合にステップS114を肯定判定してステップS115へ進む。CPU70は、プロジェクタ搭載カメラ1aおよびプロジェクタ搭載カメラ1bの間で人体通信が可能でない場合には、ステップS114を否定判定してステップS116へ進む。なお、クリア判定後に所定時間(例えば10秒)が経過するまでに人体通信できない場合、CPU70はステップS114を否定判定する。   In step S114, the CPU 70 determines whether or not human body communication is possible. If the human body communication is possible between the projector-mounted camera 1a of the person A and the camera-mounted camera 1b of the person B as illustrated in FIG. 3, the CPU 70 makes a positive determination in step S114 and proceeds to step S115. When the human body communication is not possible between the projector-mounted camera 1a and the projector-mounted camera 1b, the CPU 70 makes a negative determination in step S114 and proceeds to step S116. If human body communication is not possible before a predetermined time (for example, 10 seconds) elapses after the clear determination, the CPU 70 makes a negative determination in step S114.

ステップS115において、CPU70は通信制御部40へ指示を送り、人体通信を介して、人物Aのプロジェクタ搭載カメラ1aから人物Bのプロジェクタ搭載カメラ1bへ向けて、パズルピースに分割する前の元画像、人物Aのポートレート画像、人物Aがプロジェクタ搭載カメラ1aに撮りためた画像のデータのうち、あらかじめ送信が許可されている情報を送信させる。CPU70は、以上の情報を送信させるとステップS118へ進む。   In step S115, the CPU 70 sends an instruction to the communication control unit 40, and the original image before being divided into puzzle pieces from the projector-mounted camera 1a of the person A to the projector-mounted camera 1b of the person B via human body communication, Of the portrait image of the person A and the data of the image taken by the person A on the projector-mounted camera 1a, the information permitted to be transmitted in advance is transmitted. If CPU70 is made to transmit the above information, it will progress to step S118.

ステップS116において、CPU70は通信制御部40へ指示を送り、無線通信を介して、人物Aのプロジェクタ搭載カメラ1aから人物Bのプロジェクタ搭載カメラ1bへ向けて、パズルピースに分割する前の元画像、人物Aのポートレート画像、人物Aがプロジェクタ搭載カメラ1aに撮りためた画像のデータのうち、あらかじめ送信が許可されている情報を送信させる。CPU70は、以上の情報を送信させるとステップS118へ進む。   In step S116, the CPU 70 sends an instruction to the communication control unit 40, and the original image before being divided into puzzle pieces from the person A projector-mounted camera 1a to the person B projector-mounted camera 1b via wireless communication, Of the portrait image of the person A and the data of the image taken by the person A on the projector-mounted camera 1a, the information permitted to be transmitted in advance is transmitted. If CPU70 is made to transmit the above information, it will progress to step S118.

ステップS118において、CPU70は、終了操作が行われたか否かを判定する。CPU70は、操作部材90を構成するモード切替えスイッチからパズル投影モードと異なるモードへの切替えを指示する操作信号が入力されると、ステップS118を肯定判定して図6による処理を終了する。CPU70は、パズル投影モードと異なるモードへの切替えを指示する操作信号が入力されない場合は、ステップS118を否定判定してステップS103へ戻り、上述した処理を繰り返す。   In step S118, the CPU 70 determines whether or not an end operation has been performed. When an operation signal instructing switching from a mode switching switch constituting the operation member 90 to a mode different from the puzzle projection mode is input, the CPU 70 makes an affirmative determination in step S118 and ends the processing in FIG. When the operation signal instructing switching to a mode different from the puzzle projection mode is not input, the CPU 70 makes a negative determination in step S118, returns to step S103, and repeats the above-described processing.

以上説明した第一の実施形態によれば、次の作用効果が得られる。
(1)プロジェクタ搭載カメラ1は、カメラユニット10と、カメラユニット10で撮影している被写体(人物A)へ画像を投影するプロジェクタユニット20と、カメラユニット10で撮影している被写体(人物A)に応じた画像を投影するようにプロジェクタユニット20を制御するCPU70とを備えたので、人物Aに対して適切に画像を投影できる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) The projector-mounted camera 1 includes a camera unit 10, a projector unit 20 that projects an image onto a subject (person A) photographed by the camera unit 10, and a subject (person A) photographed by the camera unit 10. Since the CPU 70 that controls the projector unit 20 to project an image according to the above is provided, an image can be appropriately projected onto the person A.

(2)CPU70は、被写体(人物A)の大きさに応じた画像を投影するようにプロジェクタユニット20を制御したので、画像が人物Aから外れないように適切に投影できる。 (2) Since the CPU 70 has controlled the projector unit 20 to project an image according to the size of the subject (person A), the CPU 70 can appropriately project the image so that it does not deviate from the person A.

(3)CPU70は、画像を元の画像と異なる態様で投影するようにプロジェクタユニット20を制御したので、例えば複数ピースに分割したパズル画像を投影する場合に好適である。
(4)CPU70は、画像のうちの第1領域にある画像を第1領域とは異なる第2領域に移動させて(配置し直して)投影するようにプロジェクタユニット20を制御したので、例えば分割ピースの配置を変えたパズル画像を投影する場合に好適である。
(3) Since the CPU 70 has controlled the projector unit 20 so as to project the image in a manner different from the original image, it is suitable for projecting a puzzle image divided into a plurality of pieces, for example.
(4) The CPU 70 has controlled the projector unit 20 to project (rearrange) the image in the first area of the image by moving (rearranging) the image to the second area different from the first area. This is suitable for projecting a puzzle image in which the arrangement of pieces is changed.

(5)プロジェクタユニット20から投影する投影像の態様の変更操作を受け付けるCPU70を備え、CPU70は、受け付けた変更操作に応じて投影像の態様を変化させるようにプロジェクタユニット20を制御するので、例えばパズル画像を解く場合に好適な投影を行える。 (5) A CPU 70 that accepts a change operation of the projection image mode to be projected from the projector unit 20 is provided, and the CPU 70 controls the projector unit 20 to change the projection image mode according to the received change operation. Projection suitable for solving a puzzle image can be performed.

(6)CPU70は、投影像の態様が元の画像と一致するか否かを判定するようにしたので、例えばパズルが解けたかどうかを適切に判定することができる。 (6) Since the CPU 70 determines whether or not the aspect of the projected image matches the original image, it can appropriately determine whether the puzzle has been solved, for example.

(7)CPU70は、一致を判定した場合に所定の情報を外部機器へ送信するようにしたので、例えばパズルの正解を条件として、情報を送ることができる。
(8)人物Aのプロジェクタ搭載カメラ1aに外部機器(人物Bのプロジェクタ搭載カメラ1b)と通信を行うための通信制御部40を備え、通信制御部40は、外部機器(人物Bのプロジェクタ搭載カメラ1b)に対してプロジェクタ搭載カメラ1aに関する情報を送信するようにしたので、例えば人物Aのポートレート画像や人物Aが撮りためた画像などを人物Bのプロジェクタ搭載カメラ1bへ送ることができる。
(7) Since the CPU 70 transmits predetermined information to the external device when the match is determined, for example, the information can be sent on the condition that the puzzle is correct.
(8) The person A projector mounted camera 1a includes a communication control unit 40 for communicating with an external device (person B projector mounted camera 1b), and the communication control unit 40 includes the external device (person B projector mounted camera). Since information related to the projector-mounted camera 1a is transmitted to 1b), for example, a portrait image of the person A, an image taken by the person A, and the like can be transmitted to the projector-mounted camera 1b of the person B.

(変形例1)
上記ステップS116において、無線通信を介してプロジェクタ搭載カメラ1aに関する情報をプロジェクタ搭載カメラ1aから人物Bのプロジェクタ搭載カメラ1bへ送信する場合には、人物Bのプロジェクタ搭載カメラ1bへの送信に加えて、あるいは人物Bのプロジェクタ搭載カメラ1bへの送信に代えて、人物Bの携帯電話機へプロジェクタ搭載カメラ1aに関する情報を送信させてもよい。
(Modification 1)
In the above step S116, when transmitting information related to the projector mounted camera 1a from the projector mounted camera 1a to the person B projector mounted camera 1b via wireless communication, in addition to the transmission of the person B to the projector mounted camera 1b, Alternatively, instead of transmitting the person B to the projector-mounted camera 1b, information regarding the projector-mounted camera 1a may be transmitted to the person B's mobile phone.

また、人物Aのプロジェクタ搭載カメラ1aから人物Bの携帯電話機へ送信する場合には、プロジェクタ搭載カメラ1aに関する情報として、パズルピースに分割する前の元画像、人物Aのポートレート画像、人物Aがプロジェクタ搭載カメラ1aに撮りためた画像のデータの他にも、人物Aが所持する携帯電話機の番号、メールアドレスなどを含めてもよい。   Further, when transmitting from the person A's projector-equipped camera 1a to the person's B mobile phone, information relating to the projector-equipped camera 1a includes an original image before being divided into puzzle pieces, a portrait image of the person A, and a person A. In addition to image data taken by the projector-equipped camera 1a, the mobile phone number, mail address, etc. of the person A may be included.

(変形例2)
上記実施形態の説明では、電子機器としてプロジェクタ搭載カメラ1(1a、1b)を例に説明したが、電子機器としてプロジェクタユニットおよびカメラユニットを搭載する携帯電話機を用いてもよい。変形例2の場合は、人物Aのプロジェクタ搭載携帯電話機から人物Bの携帯電話機へ、人物Aのプロジェクタ搭載携帯電話機に関する情報を、ブルートゥース(登録商標)による近距離無線通信を介して送信する。人物Aのプロジェクタ搭載携帯電話機から人物Bの携帯電話機へ送る情報には、パズルピースに分割する前の元画像、人物Aのポートレート画像、人物Aがプロジェクタ搭載携帯電話機に撮りためた画像のデータの他にも、プロジェクタ搭載携帯電話機の電話番号や、メールアドレスを含めることもできる。また、SNS(Social Networking Service)を利用するための、いわゆる友人申請や招待状を送信してもよい。
(Modification 2)
In the description of the above embodiment, the projector-equipped camera 1 (1a, 1b) has been described as an example of the electronic device. However, a mobile phone equipped with a projector unit and a camera unit may be used as the electronic device. In the case of the second modification, information related to the mobile phone equipped with the projector of the person A is transmitted from the mobile phone equipped with the projector of the person A to the mobile phone of the person B via the short-range wireless communication using Bluetooth (registered trademark). Information sent from the mobile phone equipped with the projector of the person A to the mobile phone of the person B includes the original image before being divided into puzzle pieces, the portrait image of the person A, and the data of the image taken by the person A on the mobile phone equipped with the projector In addition, the telephone number and mail address of the projector-equipped mobile phone can be included. Moreover, you may send what is called a friend application and an invitation for using SNS (Social Networking Service).

(変形例3)
上述した説明では、投影するパズル画像の原形となる画像の主要部を分割してパズルピースを形成し、形成したパズルピースを本来の領域から異なる領域に配置し直したパズル画像を生成した。パズル画像において、個々のパズルピースの向きを元と異なる向き(例えば右側に90度回したり、上下を反転させたりする)に表示させてもよい。
(Modification 3)
In the above description, a puzzle image is generated by dividing the main part of the image that is the original shape of the puzzle image to be projected to form a puzzle piece, and rearranging the formed puzzle piece from the original area to a different area. In the puzzle image, the orientation of the individual puzzle pieces may be displayed in a direction different from the original direction (for example, rotated 90 degrees to the right or flipped up and down).

(変形例4)
上述したように人物の衣服に内臓画像を投影して映す技術を、例えば学校などの教育の場において用いてもよい。図4によれば、人体のどの位置(もしくは領域)にどの臓器が対応するかをわかりやすく投影できる。この場合、内臓画像に代えて、骨格標本画像を人物の衣服に投影してもよい。人体のどの位置(もしくは領域)にどの骨格が対応するかをわかりやすく投影できる。
(Modification 4)
As described above, the technique of projecting an internal image on a person's clothes and projecting it may be used in an educational setting such as a school. According to FIG. 4, it is possible to easily project which organ corresponds to which position (or region) of the human body. In this case, a skeleton sample image may be projected on a person's clothes instead of the internal organ image. It is possible to easily project which skeleton corresponds to which position (or region) of the human body.

(第二の実施形態)
第二の実施形態では、カメラユニット10による撮影方向とプロジェクタユニット20による投影方向とが異なる場合を説明する。図7は、本発明の第二の実施形態によるプロジェクタ搭載カメラ1Xの外観を例示する図である。図7(a)はプロジェクタ搭載カメラ1Xの正面を含む図であり、図7(b)はプロジェクタ搭載カメラ1Xの背面を含む図である。図7(a)において、プロジェクタ搭載カメラ1Xの正面に、撮影光学系11、および光源110が設けられている。図7(b)において、プロジェクタ搭載カメラ1Xの背面には、LCDモニタ30と、投影光学系21と、操作部材90とが設けられている。操作部材90の一部は、プロジェクタ搭載カメラ1Xの上面にも設けられている。
(Second embodiment)
In the second embodiment, a case where the shooting direction by the camera unit 10 and the projection direction by the projector unit 20 are different will be described. FIG. 7 is a diagram illustrating the appearance of a projector-mounted camera 1X according to the second embodiment of the invention. FIG. 7A is a diagram including the front of the projector-equipped camera 1X, and FIG. 7B is a diagram including the back of the projector-equipped camera 1X. In FIG. 7A, a photographing optical system 11 and a light source 110 are provided in front of the projector-mounted camera 1X. In FIG. 7B, an LCD monitor 30, a projection optical system 21, and an operation member 90 are provided on the back of the projector-mounted camera 1X. A part of the operation member 90 is also provided on the upper surface of the projector-mounted camera 1X.

プロジェクタ搭載カメラ1Xは、プロジェクタユニット20からの投影により、カメラユニット10による撮影をアシストすることが可能に構成される。図8は、プロジェクタユニット20による撮影アシスト場面を説明する図である。図8において、人物Aが幼児Cをプロジェクタ搭載カメラ1Xで撮影しようとしている。   The projector-mounted camera 1X is configured to be able to assist shooting by the camera unit 10 by projection from the projector unit 20. FIG. 8 is a diagram for explaining a shooting assist scene by the projector unit 20. In FIG. 8, a person A is about to photograph an infant C with the projector-mounted camera 1X.

幼児Cは、自分が撮られることを理解していないので、プロジェクタ搭載カメラ1Xの方を向いて静止することがない。そこで、プロジェクタユニット20から人物Aに投影像Qを映して、投影像Qによって幼児Cの注意を惹きつける。このタイミングで人物Aがレリーズ操作を行うことで、幼児Cを撮影する。   The infant C does not understand that he / she is photographed, and therefore does not face the projector-mounted camera 1 </ b> X. Therefore, the projection image Q is projected from the projector unit 20 onto the person A, and the attention of the infant C is attracted by the projection image Q. At this timing, the person A performs a release operation to photograph the infant C.

<フローチャートの説明>
図9は、プロジェクタ搭載カメラ1XのCPU70が撮影アシスト投影モードにおいて実行するプログラムによる処理の流れを説明するフローチャートである。CPU70は、操作部材90を構成するモード切替えスイッチからCPU70へ撮影アシスト投影モードへの切替えを指示する操作信号が入力されると、図9による処理を起動させる。
<Description of flowchart>
FIG. 9 is a flowchart for explaining the flow of processing by a program executed by the CPU 70 of the projector-mounted camera 1X in the photographing assist projection mode. When an operation signal for instructing the CPU 70 to switch to the photographing assist projection mode is input from the mode switching switch constituting the operation member 90, the CPU 70 activates the process of FIG.

図9のステップS201において、CPU70は、操作信号に応じて撮影アシスト投影モードを選択してステップS202へ進む。ステップS202において、CPU70は、撮影アシスト投影動作の開始を指示してステップS203へ進む。ステップS203において、CPU70はプロジェクタユニット20の投影制御部25へ指示を送り、プロジェクタユニット20から投影を開始させる。投影する画像としては、例えば幼児Cが興味を持っているアニメーションキャラクタ等の画像データをあらかじめメモリカード100に記録しておく。CPU70は、メモリカードI/F80によってメモリカード100から読み出された画像データに基づいて生成した投影像Qを、プロジェクタユニット20から人物Aに向けて投影させる。   In step S201 in FIG. 9, the CPU 70 selects the photographing assist projection mode according to the operation signal, and proceeds to step S202. In step S202, the CPU 70 instructs the start of the photographing assist projection operation and proceeds to step S203. In step S <b> 203, the CPU 70 sends an instruction to the projection control unit 25 of the projector unit 20 and starts projection from the projector unit 20. As an image to be projected, for example, image data such as an animation character that the infant C is interested in is recorded in the memory card 100 in advance. The CPU 70 projects the projection image Q generated based on the image data read from the memory card 100 by the memory card I / F 80 from the projector unit 20 toward the person A.

ステップS204において、CPU70は投影制御部25へ指示を送り、投影画像のフォーカス調節を行わせてステップS205へ進む。ステップS205において、CPU70は、光源110を発光させてステップS206へ進む。なお、光源110の発光は、幼児Cの注意をプロジェクタ搭載カメラ1Xの方向へ引き寄せるために行うものである。光源110は、AF補助光源を用いても、撮影補助光源を用いてもよい。撮影補助光源を用いる場合は、モニタ発光のように低輝度で発光させるとよい。幼児Cは、光源110からの発光に気づいてプロジェクタ搭載カメラ1Xの方向を見上げると、人物Aの衣服に投影されている投影像Qに気づく。以後、幼児Cは、光源110の発光が停止しても、プロジェクタユニット20による投影像Qに惹きつけられて、人物A(すなわちプロジェクタ搭載カメラ1X)の方向を注目する。   In step S204, the CPU 70 sends an instruction to the projection control unit 25 to adjust the focus of the projection image, and proceeds to step S205. In step S205, the CPU 70 causes the light source 110 to emit light and proceeds to step S206. The light source 110 emits light to attract the attention of the infant C toward the projector-mounted camera 1X. The light source 110 may be an AF auxiliary light source or an imaging auxiliary light source. In the case of using a photographing auxiliary light source, it is preferable to emit light with low luminance like monitor light emission. When the infant C notices the light emitted from the light source 110 and looks up at the direction of the projector-mounted camera 1X, the infant C notices the projected image Q projected on the clothes of the person A. Thereafter, even if the light emission of the light source 110 stops, the infant C is attracted to the projection image Q by the projector unit 20 and pays attention to the direction of the person A (that is, the projector-mounted camera 1X).

ステップS206において、CPU70は、カメラユニット10で取得された画像データに基づいて公知の視線検出を行う。例えば、カメラユニット10で取得された画像のうち、幼児Cの「顔」領域の画像に基づいて、幼児Cの「眼」の特徴量を求める。「眼」の特徴量は、例えば瞳孔中心と角膜反射像との間の距離で表すものとする。角膜反射像は、幼児Cの眼球で光源110からの光が反射することによって観察される像である。   In step S <b> 206, the CPU 70 performs known gaze detection based on the image data acquired by the camera unit 10. For example, the feature amount of the “eye” of the infant C is obtained based on the image of the “face” region of the infant C among the images acquired by the camera unit 10. The feature amount of “eye” is expressed by the distance between the pupil center and the cornea reflection image, for example. The cornea reflection image is an image observed when the light from the light source 110 is reflected by the eyeball of the infant C.

CPU70は、「眼」の特徴量に基づいて算出される幼児Cの視線がプロジェクタ搭載カメラ1Xの方向に向いていることを判定すると、ステップS207へ進む。ステップS207において、CPU70は、幼児Cがプロジェクタ搭載カメラ1Xの方向を向いていることを報知してステップS208へ進む。報知は、例えば電子音を鳴らしたり、インジケータとしてのLEDを点灯させたりして行う。   If the CPU 70 determines that the line of sight of the infant C calculated based on the “eye” feature amount is facing the projector-mounted camera 1X, the CPU 70 proceeds to step S207. In step S207, the CPU 70 notifies that the infant C is facing the projector-mounted camera 1X, and proceeds to step S208. The notification is performed, for example, by sounding an electronic sound or turning on an LED as an indicator.

ステップS208において、CPU70は、自動撮影モードに設定されているか否かを判定する。自動撮影モードは、幼児Cの視線がプロジェクタ搭載カメラ1Xの方向に向いていることを検出した場合に自動で撮影処理を開始するモードであり、あらかじめモード切替スイッチ操作によって自動撮影モードのオンまたはオフが設定される。CPU70は、自動撮影モードがオンに設定されている場合、ステップS208を肯定判定してステップS209へ進み、自動撮影モードがオフに設定されている場合には、ステップS208を否定判定してステップS210へ進む。   In step S208, the CPU 70 determines whether or not the automatic shooting mode is set. The automatic shooting mode is a mode in which shooting processing is automatically started when it is detected that the line of sight of the infant C is directed toward the projector-mounted camera 1X, and the automatic shooting mode is turned on or off in advance by operating the mode switch. Is set. If the automatic shooting mode is set to on, the CPU 70 makes a positive determination in step S208 and proceeds to step S209. If the automatic shooting mode is set to off, the CPU 70 makes a negative determination in step S208 and proceeds to step S210. Proceed to

ステップS209において、CPU70は、カメラユニット10の撮像制御部13へ指示を送り、所定の撮影処理を実行させてステップS211へ進む。ステップS210において、CPU70は、操作部材90を構成するレリーズボタンの押下操作に応じてカメラユニット10に所定の撮影処理を実行させてステップS211へ進む。   In step S209, the CPU 70 sends an instruction to the imaging control unit 13 of the camera unit 10 to execute a predetermined imaging process, and proceeds to step S211. In step S <b> 210, the CPU 70 causes the camera unit 10 to execute a predetermined shooting process in response to the pressing operation of the release button constituting the operation member 90, and proceeds to step S <b> 211.

ステップS211において、CPU70は、終了操作が行われたか否かを判定する。CPU70は、操作部材90を構成するモード切替えスイッチから撮影アシスト投影モードと異なるモードへの切替えを指示する操作信号が入力されると、ステップS211を肯定判定して図9による処理を終了する。CPU70は、撮影アシスト投影モードと異なるモードへの切替えを指示する操作信号が入力されない場合は、ステップS211を否定判定してステップS203へ戻り、上述した処理を繰り返す。   In step S211, the CPU 70 determines whether an end operation has been performed. When an operation signal instructing switching to a mode different from the photographing assist projection mode is input from the mode switching switch constituting the operation member 90, the CPU 70 makes an affirmative determination in step S211 and ends the processing in FIG. When the operation signal instructing switching to a mode different from the photographing assist projection mode is not input, the CPU 70 makes a negative determination in step S211 and returns to step S203 to repeat the above-described processing.

以上説明した第二の実施形態によれば、次の作用効果が得られる。
(1)プロジェクタ搭載カメラ1Xは、カメラユニット10と、カメラユニット10とは反対の側に配置され、撮影者(人物A)に対して投影を行うプロジェクタユニット20と、被写体(幼児C)に注目させる画像を投影するようにプロジェクタユニット20を制御するCPU70とを備えたので、幼児Cに対する画像を適切に投影できる。
According to the second embodiment described above, the following operational effects can be obtained.
(1) The projector-mounted camera 1X is arranged on the side opposite to the camera unit 10 and the camera unit 10, and pays attention to the projector unit 20 that projects the photographer (person A) and the subject (infant C). Since the CPU 70 that controls the projector unit 20 to project the image to be projected is provided, the image for the infant C can be appropriately projected.

(2)被写体(幼児C)に注目させる画像を投影したので、例えば撮影アシストに好適な投影を行うことができる。 (2) Since an image to which attention is paid to the subject (infant C) is projected, it is possible to perform projection suitable for shooting assistance, for example.

(3)CPU70は、複数の画像を順番に投影するようにプロジェクタユニット20を制御するので、1つの画像を投影する場合に比べて、幼児Cを注目させる可能性を高めることができる。 (3) Since the CPU 70 controls the projector unit 20 so as to project a plurality of images in order, it is possible to increase the possibility of attracting attention from the infant C as compared with the case of projecting one image.

(4)CPU70は、前回注目された画像を優先して投影するようにプロジェクタユニット20を制御するので、幼児Cが注目する可能性が高い画像を先に投影できる。 (4) Since the CPU 70 controls the projector unit 20 to preferentially project the image focused on the previous time, the CPU 70 can project an image that is likely to be focused by the infant C first.

(変形例5)
第二の実施形態では、幼児Cが興味を持っているアニメーションキャラクタ等の画像データをあらかじめメモリカード100に記録しておき、この画像データに基づいて生成した投影像Qをプロジェクタユニット20から人物Aに向けて投影させるようにした(S203)。この代わりに、アニメーションキャラクタの他に、航空機、電車、クルマなどの複数の画像データをあらかじめメモリカード100に記録しておき、これらの画像データに基づいて生成した投影像を順番に切り替えて人物Aに向けて投影するようにしてもよい。
(Modification 5)
In the second embodiment, image data such as an animation character that the infant C is interested in is recorded in the memory card 100 in advance, and a projection image Q generated based on this image data is transferred from the projector unit 20 to the person A. Is projected toward the screen (S203). Instead of this, in addition to the animation character, a plurality of image data such as an aircraft, a train, and a car are recorded in advance in the memory card 100, and the projection image generated based on these image data is sequentially switched to switch the person A. You may make it project toward.

CPU70は、1つの投影像を投影して所定時間(例えば3秒)経過しても幼児Cの視線がプロジェクタ搭載カメラ1Xの方向に向いていることを検出しない場合は、次の投影像へ切り替える。CPU70は、幼児Cの視線がプロジェクタ搭載カメラ1Xの方向に向いていることを検出した場合には、ステップS207以降の処理へ進む。   If the CPU 70 does not detect that the line of sight of the infant C is facing the direction of the projector-equipped camera 1X even after a predetermined time (for example, 3 seconds) has elapsed after projecting one projection image, the CPU 70 switches to the next projection image. . When the CPU 70 detects that the line of sight of the infant C is directed toward the projector-mounted camera 1X, the CPU 70 proceeds to the processing after step S207.

変形例5おけるCPU70は、幼児Cの視線がプロジェクタ搭載カメラ1Xの方向に向いていることを検出したときにプロジェクタユニット20から投影していた画像を示す情報をフラッシュメモリ60に記録して学習し、次回の撮影アシスト投影モードの場合には、フラッシュメモリ60の記録情報が示す画像を優先して投影させる。   The CPU 70 in the fifth modification records and learns information indicating the image projected from the projector unit 20 in the flash memory 60 when it is detected that the line of sight of the infant C is directed toward the projector-mounted camera 1X. In the next shooting assist projection mode, the image indicated by the recording information in the flash memory 60 is projected with priority.

以上説明した変形例5によれば、幼児Cの視線がプロジェクタ搭載カメラ1Xの方向に向かうように、適切に撮影アシストを行える。   According to the modified example 5 described above, it is possible to appropriately assist the photographing so that the line of sight of the infant C is directed toward the projector-mounted camera 1X.

(変形例6)
上述した説明では、人物Aがプロジェクタ搭載カメラ1Xからの投影像Qを自身の体に映し、プロジェクタ搭載カメラ1Xに対向する幼児Cを撮影する場合の撮影アシスト場面を例示した。この代わりに、人物Aおよび幼児Cをプロジェクタ搭載カメラ1Xによって撮影することもできる。変形例6では、人物Aおよび幼児Cがプロジェクタ搭載カメラ1Xの正面側に位置し、壁またはスクリーンがプロジェクタ搭載カメラ1Xの背面側に位置する。例えば、壁またはスクリーンのそばにおいて人物Aが幼児Cを抱きかかえ、プロジェクタ搭載カメラ1Xの正面を人物Aおよび幼児Cへ向けて、いわゆる自分撮りを行う。
(Modification 6)
In the above description, the shooting assist scene in the case where the person A projects the projected image Q from the projector mounted camera 1X on his / her body and captures the infant C facing the projector mounted camera 1X is illustrated. Alternatively, the person A and the infant C can be photographed by the projector-mounted camera 1X. In the sixth modification, the person A and the infant C are located on the front side of the projector-equipped camera 1X, and the wall or screen is located on the rear side of the projector-equipped camera 1X. For example, a person A holds an infant C near a wall or a screen, and a so-called self-portrait is performed with the front of the projector-equipped camera 1X facing the person A and the infant C.

幼児Cは、自分が撮られることを理解していないので、プロジェクタ搭載カメラ1Xの方を向いて静止することがない。そこで、プロジェクタユニット20からプロジェクタ搭載カメラ1Xの背面側の壁またはスクリーンへ投影像Qを映し、投影像Qによって幼児Cの注意を惹きつける。壁またはスクリーンの投影像Qを注視する幼児Cの顔は、必然的にプロジェクタ搭載カメラ1Xの正面に対向する。このタイミングで人物Aがレリーズ操作を行うことで、人物Aおよび幼児Cを撮影する。   The infant C does not understand that he / she is photographed, and therefore does not face the projector-mounted camera 1 </ b> X. Therefore, the projected image Q is projected from the projector unit 20 onto the wall or screen on the back side of the projector-mounted camera 1X, and the attention of the infant C is attracted by the projected image Q. The face of the infant C watching the projected image Q on the wall or screen inevitably faces the front of the projector-equipped camera 1X. The person A performs the release operation at this timing, and the person A and the infant C are photographed.

以上説明した変形例6においても、幼児Cの視線がプロジェクタ搭載カメラ1Xの方向に向かうように、適切に撮影アシストを行うことができる。   Also in the modified example 6 described above, it is possible to appropriately perform shooting assistance so that the line of sight of the infant C is directed toward the projector-mounted camera 1X.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

1,1X…プロジェクタ搭載カメラ
10…カメラユニット
20…プロジェクタユニット
30…LCDモニタ
40…通信制御部
70…CPU
90…操作部材
DESCRIPTION OF SYMBOLS 1,1X ... Camera 10 with a projector ... Camera unit 20 ... Projector unit 30 ... LCD monitor 40 ... Communication control part 70 ... CPU
90 ... Operation member

Claims (10)

撮影部と、
前記撮影部で撮影している被写体へ画像を投影する投影部と、
前記画像のうちの第1領域を前記第1領域とは異なる第2領域に移動させて投影するように前記投影部を制御する制御部と、
を備えることを特徴とする電子機器。
A shooting section;
A projection unit for projecting an image onto a subject photographed by the photographing unit;
A control unit that controls the projection unit to project the first region of the image by moving the first region to a second region different from the first region;
An electronic device comprising:
請求項1に記載の電子機器において、
前記投影部から投影する投影像の態様の変更操作を受け付ける操作受付部を備え、
前記制御部は、前記操作受付部で受けた変更操作に応じて前記投影像の態様を変化させるように前記投影部を制御することを特徴とする電子機器。
The electronic device according to claim 1,
An operation receiving unit that receives a change operation of a mode of a projected image projected from the projection unit;
The said control part controls the said projection part so that the aspect of the said projection image may be changed according to the change operation received in the said operation reception part, The electronic device characterized by the above-mentioned.
請求項2に記載の電子機器において、
前記制御部は、前記投影像の態様が前記元の画像と一致するか否かを判定することを特徴とする電子機器。
The electronic device according to claim 2,
The electronic device according to claim 1, wherein the control unit determines whether or not a form of the projected image matches the original image.
請求項3に記載の電子機器において、
前記制御部は、前記一致を判定した場合に所定の情報を外部機器へ送信することを特徴とする電子機器。
The electronic device according to claim 3,
The electronic device according to claim 1, wherein the control unit transmits predetermined information to an external device when the match is determined.
請求項4に記載の電子機器において、
前記外部機器と通信を行うための送信部を備え、
前記送信部は、前記外部機器に対して前記電子機器に関する情報を送信する
ことを特徴とする電子機器。
The electronic device according to claim 4,
A transmission unit for communicating with the external device;
The transmission unit transmits information related to the electronic device to the external device.
請求項1から請求項5のいずれか一項に記載の電子機器において、
前記制御部は、前記撮影部で撮影している被写体に応じた前記画像を投影するように前記投影部を制御することを特徴とする電子機器。
The electronic device according to any one of claims 1 to 5,
The electronic device according to claim 1, wherein the control unit controls the projection unit to project the image corresponding to a subject photographed by the photographing unit.
請求項6に記載の電子機器において、
前記制御部は、前記被写体の大きさに応じた前記画像を投影するように前記投影部を制御することを特徴とする電子機器。
The electronic device according to claim 6,
The electronic device according to claim 1, wherein the control unit controls the projection unit to project the image according to a size of the subject.
撮影部と、
前記撮影部とは反対の側に配置され、撮影者に対して投影を行う投影部と、
被写体に注目させる画像を投影するように前記投影部を制御する制御部と、
を備えることを特徴とする電子機器。
A shooting section;
A projection unit that is disposed on the opposite side of the imaging unit and that projects to the photographer;
A control unit that controls the projection unit to project an image of interest to the subject;
An electronic device comprising:
請求項8に記載の電子機器において、
前記制御部は、複数の画像を順番に投影するように前記投影部を制御することを特徴とする電子機器。
The electronic device according to claim 8,
The said control part controls the said projection part to project a some image in order, The electronic device characterized by the above-mentioned.
請求項9に記載の電子機器において、
前記制御部は、前回注目された画像を優先して投影するように前記投影部を制御することを特徴とする電子機器。
The electronic device according to claim 9,
The electronic device according to claim 1, wherein the control unit controls the projection unit to preferentially project an image focused on the previous time.
JP2013158072A 2013-07-30 2013-07-30 Electronic apparatus Pending JP2015029219A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013158072A JP2015029219A (en) 2013-07-30 2013-07-30 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013158072A JP2015029219A (en) 2013-07-30 2013-07-30 Electronic apparatus

Publications (1)

Publication Number Publication Date
JP2015029219A true JP2015029219A (en) 2015-02-12

Family

ID=52492659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013158072A Pending JP2015029219A (en) 2013-07-30 2013-07-30 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2015029219A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108351576A (en) * 2015-10-08 2018-07-31 罗伯特·博世有限公司 Method for shooting image by mobile device
JP2019161322A (en) * 2018-03-08 2019-09-19 大日本印刷株式会社 Photographing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108351576A (en) * 2015-10-08 2018-07-31 罗伯特·博世有限公司 Method for shooting image by mobile device
JP2018537884A (en) * 2015-10-08 2018-12-20 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh How to take a picture with a mobile device
JP2019161322A (en) * 2018-03-08 2019-09-19 大日本印刷株式会社 Photographing device

Similar Documents

Publication Publication Date Title
JP4884417B2 (en) Portable electronic device and control method thereof
JP6512810B2 (en) Image pickup apparatus, control method and program
US9426379B2 (en) Photographing unit, cooperative photographing method, and recording medium having recorded program
JP2018113551A (en) Imaging apparatus, control method therefor, program, and recording medium
JP6138201B2 (en) Image capturing device and method for controlling image capturing device
JP2008245055A (en) Image display device, photographing device, and image display method
JP7418104B2 (en) Image processing device and method of controlling the image processing device
JP2017069618A (en) Electronic apparatus and imaging method
JP2013131906A (en) Digital camera
JP2020016767A (en) Image capture device
CN113364945A (en) Electronic apparatus, control method, and computer-readable medium
JP2015029219A (en) Electronic apparatus
JP6300569B2 (en) Imaging apparatus and control method thereof
JP2013162420A (en) Camera
CN107800956B (en) Image pickup apparatus, control method, and storage medium
JP2006129173A (en) Camera system
JP2014150508A (en) Imaging device
JP2011250046A (en) Electronic apparatus
JP2021179560A (en) Imaging apparatus
CN112040095A (en) Electronic device, control method of electronic device, and storage medium
JP5615086B2 (en) Imaging apparatus, control method thereof, and program
JP2015159550A (en) Imaging apparatus, imaging method, and program
JP2016065998A (en) Imaging device and imaging program
JP5957117B2 (en) Portable device, display method and program
JP7277149B2 (en) Imaging device and its control method