JP2013098965A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2013098965A
JP2013098965A JP2011243255A JP2011243255A JP2013098965A JP 2013098965 A JP2013098965 A JP 2013098965A JP 2011243255 A JP2011243255 A JP 2011243255A JP 2011243255 A JP2011243255 A JP 2011243255A JP 2013098965 A JP2013098965 A JP 2013098965A
Authority
JP
Japan
Prior art keywords
subject
imaging
image
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011243255A
Other languages
Japanese (ja)
Inventor
Yasuhiro Komiya
康宏 小宮
Masanori Oyama
真紀 大山
Naoyuki Miyashita
尚之 宮下
Hisumi Takai
日淑 高井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011243255A priority Critical patent/JP2013098965A/en
Publication of JP2013098965A publication Critical patent/JP2013098965A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus which, when a photographer takes an image of a subject, prevents the photographer from being invisible from a subject side due to the imaging apparatus.SOLUTION: An imaging apparatus 10 comprises: a pupil position detector 18 which detects the positions of the pupils of a first subject in three-dimensional coordinates corresponding to an actual space on the basis of an image taken by an imaging unit 17; a shape detector 20 for detecting the shape information of a second subject in the three-dimensional coordinates; and a display image generator 13 which on the basis of information on an image taken by an imaging unit 19, the positions of the pupils of the first subject, the shape information of the second subject, and the sizes of the image display surface P1 of a display 14 stored in a storage unit 22, generates an image to be displayed on the display 14 including the second subject projected on the image display surface P1 of the display 14 when the second subject is viewed from the positions of the pupils of the first subject.

Description

本発明は、複数の撮像部を備える撮像装置に関する。   The present invention relates to an imaging device including a plurality of imaging units.

近年、デジタルカメラなどの撮像装置は、複数の撮像部が備えられ、被写体のみならず、撮影者自身も同時に撮影することができるものが提案されている(例えば、特許文献1参照)。   2. Description of the Related Art In recent years, an imaging apparatus such as a digital camera has been proposed that includes a plurality of imaging units and can photograph not only a subject but also a photographer himself (see, for example, Patent Document 1).

ところで、撮影者が撮像装置を自分の顔の近くに持って撮影する場合では、被写体から見て撮影者の顔が撮像装置によって隠れてしまうおそれがある。また、画像表示面が比較的大きく撮像装置全体も大きい場合では、被写体から見て撮影者の顔が撮像装置によってさらに隠れてしまうおそれがある。例えば、母親が赤ちゃんを撮影する場合において、赤ちゃんが母親の顔を見ることができないと、赤ちゃんの安堵感が薄れて赤ちゃんの表情がこわばり赤ちゃんの笑顔を撮影することが困難になるおそれがある。   By the way, when the photographer takes a picture with the imaging device near his / her face, the photographer's face may be hidden by the imaging device when viewed from the subject. Further, when the image display surface is relatively large and the entire imaging apparatus is large, the photographer's face may be further hidden by the imaging apparatus when viewed from the subject. For example, when a mother photographs a baby, if the baby cannot see the mother's face, the baby's sense of relief may fade and the baby's facial expression may be stiff, making it difficult to photograph the baby's smile.

特開2004−147046号公報JP 2004-147046 A

本発明は、撮影者が被写体を撮影する際、被写体側から撮影者のことが撮像装置によって見えなくなってしまうことを防止する。   The present invention prevents the photographer from obscuring the photographer from the subject side when the photographer photographs the subject.

本発明の撮像装置は、第1被写体を撮像する第1撮像手段と、前記第1撮像手段で撮像される画像に基づいて、実空間に対応する3次元座標における前記第1被写体のひとみ位置を検出する第1ひとみ位置検出手段と、前記第1撮像手段の撮像方向を正面方向、前記正面方向と反対方向を背面方向とするとき、前記背面方向に位置する第2被写体を撮像する第2撮像手段と、前記3次元座標における前記第2被写体の形状情報を検出する第1形状検出手段と、画像を表示する表示方向が、前記正面方向となるように配置される第1表示手段と、前記第1表示手段の画像表示面の大きさが記憶される第1記憶手段と、前記第2撮像手段で撮像される画像の情報と、前記第1ひとみ位置検出手段で検出される前記第1被写体のひとみ位置と、前記第1形状検出手段で検出される前記第2被写体の形状情報と、前記第1記憶手段に記憶される前記第1表示手段の画像表示面の大きさとに基づいて、前記第1被写体のひとみ位置から前記第2被写体を見たときに前記第1表示手段の画像表示面に投影される前記第2被写体を含んで前記第1表示手段に表示される画像を生成する第1表示画像生成手段とを備える。   The imaging apparatus of the present invention is configured to determine a pupil position of the first subject in three-dimensional coordinates corresponding to a real space based on a first imaging unit that images the first subject and an image captured by the first imaging unit. First pupil position detecting means for detecting, and second imaging for imaging a second subject located in the back direction when the imaging direction of the first imaging means is the front direction and the direction opposite to the front direction is the back direction. Means, first shape detecting means for detecting shape information of the second subject in the three-dimensional coordinates, first display means arranged so that a display direction for displaying an image is the front direction, First storage means for storing the size of the image display surface of the first display means, information on an image captured by the second imaging means, and the first subject detected by the first pupil position detection means The pupil position of the From the pupil position of the first subject based on the shape information of the second subject detected by the one shape detection means and the size of the image display surface of the first display means stored in the first storage means. First display image generation means for generating an image to be displayed on the first display means including the second subject projected on the image display surface of the first display means when the second subject is viewed; Prepare.

本発明によれば、撮影者である第2被写体が被写体である第1被写体を撮影する際、第2被写体の投影画像が第1表示手段に表示されるため、第1被写体側から第2被写体のことが撮像装置によって見えなくなることを防止することができる。   According to the present invention, when shooting the first subject, the second subject being the photographer, the projected image of the second subject is displayed on the first display means, so that the second subject from the first subject side is displayed. This can be prevented from being invisible by the imaging apparatus.

本発明の第1実施形態の撮像装置を示す図である。It is a figure which shows the imaging device of 1st Embodiment of this invention. 第1実施形態の撮像装置の使用例を示す図である。It is a figure which shows the usage example of the imaging device of 1st Embodiment. 投影点の一例を示す図である。It is a figure which shows an example of a projection point. 表示画像生成部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of a display image generation part. 第1実施形態の撮像装置の変形例(その1)を示す図である。It is a figure which shows the modification (the 1) of the imaging device of 1st Embodiment. 点Pb1、Pb2及び距離L1の関係を示す図である。It is a figure which shows the relationship between point Pb1, Pb2, and distance L1. 第1実施形態の撮像装置の変形例(その2)を示す図である。It is a figure which shows the modification (the 2) of the imaging device of 1st Embodiment. 撮像部の一方のカメラ及び他方のカメラの一例を示す図である。It is a figure which shows an example of one camera and the other camera of an imaging part. 一方のカメラにより撮像された画像の一例を示す図である。It is a figure which shows an example of the image imaged with one camera. 他方のカメラにより撮像された画像の一例を示す図である。It is a figure which shows an example of the image imaged with the other camera. 補正後の画像の一例を示す図である。It is a figure which shows an example of the image after correction | amendment. 第1実施形態の撮像装置の変形例(その3)を示す図である。It is a figure which shows the modification (the 3) of the imaging device of 1st Embodiment. 本発明の第2実施形態の撮像装置を示す図である。It is a figure which shows the imaging device of 2nd Embodiment of this invention. 第2実施形態の撮像装置の使用例を示す図である。It is a figure which shows the usage example of the imaging device of 2nd Embodiment. 投影点の一例を示す図である。It is a figure which shows an example of a projection point. 第2実施形態の撮像装置の変形例(その1)を示す図である。It is a figure which shows the modification (the 1) of the imaging device of 2nd Embodiment. 第2実施形態の撮像装置の変形例(その2)を示す図である。It is a figure which shows the modification (the 2) of the imaging device of 2nd Embodiment. 第2実施形態の撮像装置の変形例(その3)を示す図である。It is a figure which shows the modification (the 3) of the imaging device of 2nd Embodiment.

<第1実施形態> <First Embodiment>

図1は、本発明の第1実施形態の撮像装置を示す図である。   FIG. 1 is a diagram illustrating an imaging apparatus according to a first embodiment of the present invention.

図1に示す撮像装置10は、例えば、スマートフォンやタブレットPCなどであって、第1被写体情報検出部11と、第2被写体情報検出部12と、表示画像生成部13と、表示部14と、記録判断部15と、記録部16とを備える。   An imaging apparatus 10 illustrated in FIG. 1 is, for example, a smartphone or a tablet PC, and includes a first subject information detection unit 11, a second subject information detection unit 12, a display image generation unit 13, a display unit 14, and the like. A recording determination unit 15 and a recording unit 16 are provided.

第1被写体情報検出部11は、撮像部17と、ひとみ位置検出部18とを備える。   The first subject information detection unit 11 includes an imaging unit 17 and a pupil position detection unit 18.

第2被写体情報検出部12は、撮像部19と、形状検出部20とを備える。   The second subject information detection unit 12 includes an imaging unit 19 and a shape detection unit 20.

表示画像生成部13は、投影画像生成部21と、記憶部22とを備える。   The display image generation unit 13 includes a projection image generation unit 21 and a storage unit 22.

なお、図2に示すように、撮像部17の撮像方向を正面方向とする。また、その正面方向と反対方向を背面方向とする。   In addition, as shown in FIG. 2, let the imaging direction of the imaging part 17 be a front direction. Moreover, let the direction opposite to the front direction be a back direction.

また、記録部16は、例えば、ハードディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)、メモリカード、又はUSBメモリなどにより構成される。   The recording unit 16 is configured by, for example, a hard disk, a CD (Compact Disc), a DVD (Digital Versatile Disc), a memory card, or a USB memory.

また、記憶部22は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、又はフラッシュメモリなどにより構成される。また、記憶部22は、表示画像生成部13の外部に設けられてもよい。   The storage unit 22 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), a nonvolatile memory, or a flash memory. The storage unit 22 may be provided outside the display image generation unit 13.

また、第1被写体情報検出部11、第2被写体情報検出部12、及び表示画像生成部13などは、例えば、DSP(Digital Signal Processor)が不図示のメモリに格納されているプログラムを実行することにより実現されてもよいし、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)などを利用して実現されてもよい。   Further, the first subject information detection unit 11, the second subject information detection unit 12, the display image generation unit 13, and the like execute a program stored in a memory (not shown) by a DSP (Digital Signal Processor), for example. Alternatively, it may be realized using an FPGA (Field Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), or the like.

撮像部17は、正面方向に位置する第1被写体を撮像し、撮像部19は、背面方向に位置する第2被写体を撮像する。   The imaging unit 17 images the first subject located in the front direction, and the imaging unit 19 images the second subject located in the back direction.

なお、撮像部17、19は、それぞれ、例えば、レンズによってCCD(Charge Coupled Device)などの撮像素子に結像される被写体像をその撮像素子において電気信号に変換し画像とするとともに、その画像データに対してシャープネス補正回路、コントラスト補正回路、輝度・色差信号生成回路、及びホワイトバランス補正回路などを用いて各種画像処理を行う。   Each of the imaging units 17 and 19 converts, for example, a subject image formed on an imaging element such as a CCD (Charge Coupled Device) by a lens into an electrical signal in the imaging element, and sets the image data. In contrast, various image processes are performed using a sharpness correction circuit, a contrast correction circuit, a luminance / color difference signal generation circuit, a white balance correction circuit, and the like.

ひとみ位置検出部18は、実空間に対応する3次元座標における第1被写体のひとみ位置を検出する。例えば、撮像部17が2つのカメラで構成され、それらカメラが正面方向側の撮像装置10において互いに異なる位置に配置されている場合、ひとみ位置検出部18は、撮像部17の2つのカメラで撮像される各画像を用いて、三角測量の原理やステレオマッチング法などにより、実空間に対応する3次元座標における第1被写体のひとみ位置を求める。なお、実空間に対応する3次元座標における第1被写体のひとみ位置の検出精度を上げるために撮像部17を3つ以上のカメラで構成してもよい。   The pupil position detector 18 detects the pupil position of the first subject in the three-dimensional coordinates corresponding to the real space. For example, when the imaging unit 17 is configured with two cameras and these cameras are arranged at different positions in the imaging device 10 on the front direction side, the pupil position detection unit 18 captures images with the two cameras of the imaging unit 17. Using each image, the pupil position of the first subject in the three-dimensional coordinates corresponding to the real space is obtained by the principle of triangulation or the stereo matching method. Note that the imaging unit 17 may be composed of three or more cameras in order to increase the detection accuracy of the pupil position of the first subject in the three-dimensional coordinates corresponding to the real space.

形状検出部20は、実空間に対応する3次元座標における第2被写体の形状情報(実空間に対応する3次元座標において第2被写体を構成する全ての点)を検出する。例えば、撮像部19が2つのカメラで構成され、それらカメラが背面方向側の撮像装置10において互いに異なる位置に配置されている場合、形状検出部20は、撮像部19の2つのカメラで撮像される各画像を用いて、三角測量の原理やステレオマッチング法などにより、実空間に対応する3次元座標において第2被写体を構成する全ての点を求める。なお、実空間に対応する3次元座標における第2被写体の形状情報の検出精度を上げるために撮像部19を3つ以上のカメラで構成してもよい。また、実空間に対応する3次元座標における第2被写体の形状情報の検出方法は、上述の方法以外にも赤外パターン投影法などを採用してもよく、特に限定されない。   The shape detection unit 20 detects shape information of the second subject in the three-dimensional coordinates corresponding to the real space (all points constituting the second subject in the three-dimensional coordinates corresponding to the real space). For example, when the imaging unit 19 is configured by two cameras and these cameras are arranged at different positions in the imaging device 10 on the back side, the shape detection unit 20 is captured by the two cameras of the imaging unit 19. Using the respective images, all points constituting the second subject in the three-dimensional coordinates corresponding to the real space are obtained by the principle of triangulation or the stereo matching method. Note that the imaging unit 19 may be configured with three or more cameras in order to increase the detection accuracy of the shape information of the second subject in the three-dimensional coordinates corresponding to the real space. Further, the method of detecting the shape information of the second subject in the three-dimensional coordinates corresponding to the real space may employ an infrared pattern projection method or the like in addition to the method described above, and is not particularly limited.

投影画像生成部21は、撮像部19で撮像される画像の情報(例えば、各画素の輝度や色など)と、ひとみ位置検出部18で検出される第1被写体のひとみ位置と、形状検出部20で検出される第2被写体の形状情報と、記憶部22に記憶されている実空間に対応する3次元座標における表示部14の画像表示面P1の大きさとに基づいて、第1被写体のひとみ位置から第2被写体を見たときに表示部14の画像表示面P1に投影される第2被写体を含んで表示部14に表示される投影画像を生成する。例えば、図3に示すように、実空間に対応し表示部14の画像表示面P1の中心点を原点とする3次元座標(X,Y,Z)における第1被写体のひとみ位置PA(例えば、左右のひとみの中間点)を(Xpa,Ypa,Zpa)とし、3次元座標(X,Y,Z)において第2被写体を構成する全ての点のうちの任意の点を(Xb1,Yb1,Zb1)とし、3次元座標(X,Y,Z)における表示部14の画像表示面P1上の投影点(ひとみ位置PAから任意の点までを結ぶ直線l1と画像表示面P1との交点)を(Xb2,Yb2,0)とする。この場合、投影画像生成部21は、第2被写体を構成する全ての点にそれぞれ対応する投影点を、Xb2=(−Zb1×(Xpa−Xb1)/Zpa−Zb1)+Xb1、及び、Yb2=(−Zb1×(Ypa−Yb1)/Zpa−Zb1)+Yb1を計算することにより求める。そして、投影画像生成部21は、その求めた各投影点と、撮像部19で撮像される画像の情報とに基づいて、第1被写体のひとみ位置から第2被写体を見たときに表示部14の画像表示面P1に投影される第2被写体を含む投影画像を生成する。そして、表示部14は、投影画像生成部21で生成される投影画像を表示する。   The projection image generation unit 21 includes information on an image captured by the imaging unit 19 (for example, luminance and color of each pixel), a pupil position of the first subject detected by the pupil position detection unit 18, and a shape detection unit. 20 based on the shape information of the second subject detected at 20 and the size of the image display surface P1 of the display unit 14 in the three-dimensional coordinates corresponding to the real space stored in the storage unit 22. A projected image displayed on the display unit 14 is generated including the second subject projected on the image display surface P1 of the display unit 14 when the second subject is viewed from the position. For example, as shown in FIG. 3, the pupil position PA (for example, the first subject) in three-dimensional coordinates (X, Y, Z) corresponding to the real space and having the origin at the center point of the image display surface P1 of the display unit 14 The intermediate point of the left and right pupils is (Xpa, Ypa, Zpa), and any point among all the points constituting the second subject in the three-dimensional coordinates (X, Y, Z) is (Xb1, Yb1, Zb1). ) And a projection point on the image display surface P1 of the display unit 14 at the three-dimensional coordinates (X, Y, Z) (intersection of the straight line l1 connecting the pupil position PA to an arbitrary point and the image display surface P1) ( Xb2, Yb2, 0). In this case, the projection image generation unit 21 sets projection points respectively corresponding to all points constituting the second subject to Xb2 = (− Zb1 × (Xpa−Xb1) / Zpa−Zb1) + Xb1 and Yb2 = ( It is obtained by calculating −Zb1 × (Ypa−Yb1) / Zpa−Zb1) + Yb1. Then, the projection image generation unit 21 displays the second subject when viewing the second subject from the pupil position of the first subject based on the obtained projection points and information on the image captured by the imaging unit 19. A projection image including the second subject projected on the image display surface P1 is generated. Then, the display unit 14 displays the projection image generated by the projection image generation unit 21.

記録判断部15は、第1被写体の操作などにより画像記録指示が入力されると、そのときに撮像部17で撮像される画像を記録部16に記録する。   When an image recording instruction is input by operating the first subject or the like, the recording determination unit 15 records an image captured by the imaging unit 17 at that time in the recording unit 16.

また、記録判断部15は、タッチパネルディスプレイで構成される表示部14が第1被写体などによりタッチされると、そのときに撮像部17で撮像される画像を記録部16に記録するように構成してもよい。   The recording determination unit 15 is configured to record an image captured by the imaging unit 17 at that time in the recording unit 16 when the display unit 14 configured by a touch panel display is touched by the first subject or the like. May be.

図4は、表示画像生成部13の動作の一例を示すフローチャートである。   FIG. 4 is a flowchart illustrating an example of the operation of the display image generation unit 13.

まず、表示画像生成部13は、撮像部19で撮像される画像の情報、第1被写体のひとみ位置と、第2被写体の形状情報を取得すると(S1がYes)、第2被写体を構成する全ての点にそれぞれ対応する投影点を計算する(S2、S3)。   First, when the display image generation unit 13 acquires information on the image captured by the imaging unit 19, the pupil position of the first subject, and the shape information of the second subject (S1 is Yes), all of the constituents of the second subject are obtained. Projection points respectively corresponding to these points are calculated (S2, S3).

そして、表示画像生成部13は、撮像部19で撮像される画像の情報と、第2被写体を構成する全ての点にそれぞれ対応する投影点とに基づいて、投影画像を生成し(S4)、その生成した投影画像を表示部14へ送った後(S5)、再びS1に戻る。   Then, the display image generation unit 13 generates a projection image based on the information of the image captured by the imaging unit 19 and the projection points respectively corresponding to all the points constituting the second subject (S4), After the generated projection image is sent to the display unit 14 (S5), the process returns to S1 again.

このように、図1に示す第1実施形態の撮像装置10は、第1被写体のひとみ位置から第2被写体を見たときに表示部14の画像表示面P1に投影される第2被写体を含んで表示部14に表示される投影画像を生成する構成であるため、第1被写体側から見て撮像装置10と第2被写体とが互いに重なっていても、第1被写体側から第2被写体をシースルーで見ているかのような画像を表示部14の画像表示面P1に表示させることができる。そのため、母親が赤ちゃんを撮影する場合において、赤ちゃん側から母親をシースルーで見ているかのような画像を表示部14に表示させることができるので、赤ちゃんから見て母親の顔が撮像装置10で隠れてしまわず、赤ちゃんの笑顔を撮像し易くすることができる。
<第1実施形態の変形例(その1)>
As described above, the imaging apparatus 10 according to the first embodiment illustrated in FIG. 1 includes the second subject projected onto the image display surface P1 of the display unit 14 when the second subject is viewed from the pupil position of the first subject. Therefore, even if the imaging device 10 and the second subject overlap each other when viewed from the first subject side, the second subject is seen through from the first subject side. Can be displayed on the image display surface P <b> 1 of the display unit 14. For this reason, when the mother photographs the baby, an image can be displayed on the display unit 14 as if the mother is seeing through the baby from the baby side. This makes it easier to capture the baby's smile.
<Modification of First Embodiment (Part 1)>

図5は、第1実施形態の撮像装置10の変形例(その1)を示す図である。なお、図1に示す構成と同じ構成には同じ符号を付している。   FIG. 5 is a diagram illustrating a modification (No. 1) of the imaging device 10 according to the first embodiment. In addition, the same code | symbol is attached | subjected to the same structure as the structure shown in FIG.

図5に示す撮像装置10において図1に示す撮像装置10と異なる点は、さらに、視線方向検出部23を備えている点である。なお、視線方向検出部23は、例えば、DSPが不図示のメモリに格納されているプログラムを実行することにより実現されてもよいし、FPGAやASICなどを利用して実現されてもよい。   The imaging apparatus 10 shown in FIG. 5 is different from the imaging apparatus 10 shown in FIG. 1 in that a line-of-sight direction detection unit 23 is further provided. Note that the line-of-sight direction detection unit 23 may be realized, for example, by a DSP executing a program stored in a memory (not shown), or may be realized using an FPGA, an ASIC, or the like.

視線方向検出部23は、第1被写体の視線方向を検出する。例えば、視線方向検出部23は、撮像部17で撮像される画像内の第1被写体の白目部分に対する黒目部分の位置に基づいて、第1被写体の視線方向を検出する。   The gaze direction detection unit 23 detects the gaze direction of the first subject. For example, the gaze direction detection unit 23 detects the gaze direction of the first subject based on the position of the black eye portion with respect to the white eye portion of the first subject in the image captured by the imaging unit 17.

記録判断部15は、表示部14の画像表示面P1に表示される投影画像内の第2被写体のひとみ位置と、視線方向検出部23で検出される第1被写体の視線方向と表示部14の画像表示面P1との交点との距離が閾値以下になると、撮像部17で撮像される画像を記録部16に記録させる。例えば、記録判断部15は、図6に示すように、表示部14の画像表示面P1に表示される投影画像内の第2被写体のひとみ位置(左右のひとみの中間点)Pb1と、視線方向検出部23で検出される第1被写体の視線方向と表示部14の画像表示面P1との交点Pb2との距離Lが閾値Lth以下になると、撮像部17で撮像される画像を記録部16に記録させる。   The recording determination unit 15 includes the pupil position of the second subject in the projection image displayed on the image display surface P1 of the display unit 14, the gaze direction of the first subject detected by the gaze direction detection unit 23, and the display unit 14. When the distance from the intersection with the image display surface P1 is equal to or smaller than the threshold, the image captured by the imaging unit 17 is recorded in the recording unit 16. For example, as shown in FIG. 6, the recording determination unit 15 includes the pupil position (midpoint between the left and right pupils) Pb1 of the second subject in the projection image displayed on the image display surface P1 of the display unit 14, and the line-of-sight direction. When the distance L between the line-of-sight direction of the first subject detected by the detection unit 23 and the intersection Pb2 between the image display surface P1 of the display unit 14 is equal to or less than the threshold value Lth, the image captured by the imaging unit 17 is stored in the recording unit 16. Let me record.

図5に示す撮像装置10によれば、第2被写体側から見て第1被写体の顔が撮像装置10で隠れて見えない場合でも、カメラ目線の第1被写体の顔を記録することができる。そのため、母親が赤ちゃんを撮影する場合において、母親側から見て赤ちゃんの顔が撮像装置10で隠れて見えない場合でも、カメラ目線の赤ちゃんの顔を記録することができる。
また、図5に示す撮像装置10によれば、第1被写体と第2被写体の互いの視線が合った場合に撮影を行うことができる。
<第1実施形態の変形例(その2)>
According to the imaging device 10 illustrated in FIG. 5, even when the face of the first subject is hidden behind the imaging device 10 when viewed from the second subject side, the face of the first subject looking at the camera can be recorded. Therefore, when the mother photographs the baby, the baby's face as viewed from the camera can be recorded even when the baby's face is hidden by the imaging device 10 when viewed from the mother's side.
In addition, according to the imaging device 10 illustrated in FIG. 5, it is possible to perform imaging when the first subject and the second subject are in line of sight.
<Modification of First Embodiment (Part 2)>

図7は、第1実施形態の撮像装置10の変形例(その2)を示す図である。なお、図5に示す構成と同じ構成には同じ符号を付している。   FIG. 7 is a diagram illustrating a second modification of the imaging device 10 according to the first embodiment. In addition, the same code | symbol is attached | subjected to the same structure as the structure shown in FIG.

図7に示す撮像装置10において図5に示す撮像装置10と異なる点は、さらに、補正判断部24と、補正部25とを備えている点である。   The imaging apparatus 10 shown in FIG. 7 is different from the imaging apparatus 10 shown in FIG. 5 in that a correction determination unit 24 and a correction unit 25 are further provided.

補正判断部24は、撮像部17で撮像される画像を補正する必要があるか否かを判断する。   The correction determination unit 24 determines whether it is necessary to correct the image captured by the imaging unit 17.

補正部25は、補正判断部24により撮像部17で撮像される画像を補正する必要があると判断されると、その画像を補正する。   When the correction determination unit 24 determines that the image captured by the imaging unit 17 needs to be corrected, the correction unit 25 corrects the image.

例えば、図8Aに示すように、撮像部17を構成する2つのカメラ17−1、17−2のうちの一方のカメラ17−1が正面方向側の撮像装置10の上側端部に配置され、他方のカメラ17−2が正面方向側の撮像装置10の下側端部に配置されているとする。この場合、まず、補正判断部24は、カメラ17−1で撮像される画像に基づいて第1被写体のひとみ位置PAとカメラ17−1との距離d1を求めるとともに、カメラ17−2で撮像される画像に基づいて第2被写体のひとみ位置PAとカメラ17−2との距離d2を求める。そして、補正判断部24は、距離d1、d2の差(絶対値)が閾値dth1以上のとき、第1被写体に対して撮像装置10が傾いていることにより生じる撮像部17の撮像画像の歪み部分を補正する必要があると判断する。例えば、距離d1が距離d2よりも長く、かつ、距離d1、d2の差が閾値dth1以上の場合は、カメラ17−1、17−2がそれぞれ第1被写体を下側から撮像しているときであって、そのときに撮像される画像内の第1被写体の黒目部分は図8Bに示すように白目部分に対して下側に寄ってしまう。また、距離d2が距離d1よりも長く、かつ、距離d1、d2の差が閾値dth1以上の場合は、カメラ17−1、17−2がそれぞれ第1被写体を上側から撮像しているときであって、そのときに撮像される画像内の第1被写体の黒目部分は白目部分に対して上側に寄ってしまう。これらの場合において、補正部25は、図8Dに示すように、第1被写体の黒目部分を白目部分に対して中央に位置するように画像を補正する。このように、距離d1、d2の差に基づいて、撮像部17で撮像される画像の縦方向の歪みを補正することができる。   For example, as illustrated in FIG. 8A, one of the two cameras 17-1 and 17-2 constituting the imaging unit 17 is disposed at the upper end of the imaging device 10 on the front direction side. It is assumed that the other camera 17-2 is disposed at the lower end of the imaging device 10 on the front direction side. In this case, first, the correction determination unit 24 obtains the distance d1 between the pupil position PA of the first subject and the camera 17-1 based on the image captured by the camera 17-1, and is captured by the camera 17-2. The distance d2 between the pupil position PA of the second subject and the camera 17-2 is obtained based on the image obtained. Then, when the difference (absolute value) between the distances d1 and d2 is greater than or equal to the threshold value dth1, the correction determination unit 24 distorts the captured image of the image capturing unit 17 that is generated when the image capturing apparatus 10 is tilted with respect to the first subject. It is determined that correction is necessary. For example, when the distance d1 is longer than the distance d2 and the difference between the distances d1 and d2 is greater than or equal to the threshold value dth1, the cameras 17-1 and 17-2 each capture the first subject from the lower side. Then, the black eye portion of the first subject in the image picked up at that time is closer to the lower side than the white eye portion as shown in FIG. 8B. In addition, when the distance d2 is longer than the distance d1 and the difference between the distances d1 and d2 is equal to or greater than the threshold value dth1, the cameras 17-1 and 17-2 are respectively capturing the first subject from above. Thus, the black eye portion of the first subject in the image picked up at that time is closer to the upper side than the white eye portion. In these cases, as illustrated in FIG. 8D, the correction unit 25 corrects the image so that the black eye portion of the first subject is positioned at the center with respect to the white eye portion. Thus, based on the difference between the distances d1 and d2, the vertical distortion of the image captured by the imaging unit 17 can be corrected.

なお、撮像部17を構成する2つのカメラのうちの一方のカメラを正面方向側の撮像装置10の右側端部に配置し、他方のカメラを正面方向側の撮像装置10の左側端部に配置してもよい。この場合、距離d1、d2の差に基づいて、撮像部17で撮像される画像の横方向の歪みを補正することができる。   Note that one of the two cameras constituting the imaging unit 17 is arranged at the right end of the imaging device 10 on the front direction side, and the other camera is arranged on the left end of the imaging device 10 on the front direction side. May be. In this case, the lateral distortion of the image captured by the imaging unit 17 can be corrected based on the difference between the distances d1 and d2.

また、補正判断部24を加速度センサやジャイロなどにより構成して、地面に対する撮像装置10の傾きθが閾値θth以上傾いたとき、撮像部17で撮像される画像を補正する必要があると判断してもよい。この場合、補正部25は、撮像装置10の傾きθに基づいて、撮像部17で撮像される画像を補正する。   Further, when the correction determination unit 24 is configured by an acceleration sensor, a gyro, or the like, and the inclination θ of the imaging device 10 with respect to the ground is inclined more than the threshold θth, it is determined that the image captured by the imaging unit 17 needs to be corrected. May be. In this case, the correction unit 25 corrects the image captured by the imaging unit 17 based on the inclination θ of the imaging device 10.

図7に示す撮像装置10によれば、撮像装置10が第1被写体に対して傾いていても、撮像部17で撮像される画像内の第1被写体の顔などを歪ませることなく記録部16に記録することができる。そのため、母親が赤ちゃんを撮影する場合において、撮像装置10が赤ちゃんに対して傾いていても、撮像部17で撮像される画像内の赤ちゃんの顔などを歪ませることなく記録部16に記録することができる。
<第1実施形態の変形例(その3)>
According to the imaging device 10 illustrated in FIG. 7, even when the imaging device 10 is tilted with respect to the first subject, the recording unit 16 does not distort the face of the first subject in the image captured by the imaging unit 17. Can be recorded. Therefore, when the mother photographs the baby, even if the imaging device 10 is tilted with respect to the baby, the baby's face or the like in the image captured by the imaging unit 17 is recorded in the recording unit 16 without being distorted. Can do.
<Modification of First Embodiment (Part 3)>

図9は、第1実施形態の撮像装置10の変形例(その3)を示す図である。なお、図7に示す構成と同じ構成には同じ符号を付している。   FIG. 9 is a diagram illustrating a modification (No. 3) of the imaging device 10 according to the first embodiment. In addition, the same code | symbol is attached | subjected to the same structure as the structure shown in FIG.

図9に示す撮像装置10において図7に示す撮像装置10と異なる点は、さらに、測光部26を備えている点である。   The imaging apparatus 10 shown in FIG. 9 is different from the imaging apparatus 10 shown in FIG. 7 in that a photometric unit 26 is further provided.

測光部26は、背面方向側を測光する。   The photometry unit 26 measures the back side.

投影画像生成部21は、撮像部19で撮像される画像の情報と、ひとみ位置検出部18で検出される第1被写体のひとみ位置と、形状検出部20で検出される第2被写体の形状情報と、記憶部22に記憶されている3次元座標における表示部14の画像表示面P1の大きさと、測光部26の測光結果とに基づいて、投影画像を生成する。   The projection image generation unit 21 includes information on an image captured by the imaging unit 19, a pupil position of the first subject detected by the pupil position detection unit 18, and shape information of the second subject detected by the shape detection unit 20. Based on the size of the image display surface P1 of the display unit 14 in the three-dimensional coordinates stored in the storage unit 22 and the photometric result of the photometric unit 26, a projection image is generated.

図9に示す撮像装置10によれば、測光部26により第2被写体の輝度や色を精度良く検出することができるため、投影画像内の第2被写体をより自然な色で再現することができる。そのため、母親が赤ちゃんを撮影する場合において、母親の輝度や色を精度良く検出することができるので、投影画像内の母親をより自然な色で再現することができる。
<第2実施形態>
According to the image pickup apparatus 10 shown in FIG. 9, since the luminance and color of the second subject can be accurately detected by the photometry unit 26, the second subject in the projection image can be reproduced with a more natural color. . Therefore, when the mother photographs the baby, the mother's brightness and color can be detected with high accuracy, so that the mother in the projected image can be reproduced with a more natural color.
Second Embodiment

図10は、本発明の第2実施形態の撮像装置を示す図である。なお、図1に示す第1実施形態の撮像装置10と同じ構成には同じ符号を付している。   FIG. 10 is a diagram illustrating an imaging apparatus according to the second embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the same structure as the imaging device 10 of 1st Embodiment shown in FIG.

図10に示す撮像装置100は、第1被写体情報検出部11と、第2被写体情報検出部12と、表示画像生成部13と、表示部14と、記録判断部15と、記録部16と、第1被写体情報検出部51と、第2被写体情報検出部52と、表示画像生成部53と、表示部54と、記録判断部55と、記録部56とを備える。   An imaging apparatus 100 illustrated in FIG. 10 includes a first subject information detection unit 11, a second subject information detection unit 12, a display image generation unit 13, a display unit 14, a recording determination unit 15, and a recording unit 16. A first subject information detection unit 51, a second subject information detection unit 52, a display image generation unit 53, a display unit 54, a recording determination unit 55, and a recording unit 56 are provided.

第1被写体情報検出部11は、撮像部17と、ひとみ位置検出部18とを備える。第2被写体情報検出部12は、撮像部19と、形状検出部20とを備える。表示画像生成部13は、投影画像生成部21と、記憶部22とを備える。   The first subject information detection unit 11 includes an imaging unit 17 and a pupil position detection unit 18. The second subject information detection unit 12 includes an imaging unit 19 and a shape detection unit 20. The display image generation unit 13 includes a projection image generation unit 21 and a storage unit 22.

第1被写体情報検出部51は、撮像部57と、ひとみ位置検出部58とを備える。第2被写体情報検出部52は、撮像部59と、形状検出部60とを備える。表示画像生成部53は、投影画像生成部61と、記憶部62とを備える。   The first subject information detection unit 51 includes an imaging unit 57 and a pupil position detection unit 58. The second subject information detection unit 52 includes an imaging unit 59 and a shape detection unit 60. The display image generation unit 53 includes a projection image generation unit 61 and a storage unit 62.

なお、図11に示すように、撮像部17の撮像方向を正面方向とする。また、その正面方向と反対方向を背面方向とする。この場合、撮像部19、57のそれぞれの撮像方向は背面方向となり、撮像部59の撮影方向は正面方向となる。   As shown in FIG. 11, the imaging direction of the imaging unit 17 is the front direction. Moreover, let the direction opposite to the front direction be a back direction. In this case, the imaging direction of each of the imaging units 19 and 57 is the back direction, and the imaging direction of the imaging unit 59 is the front direction.

また、図10に示す第2実施形態の撮像装置100における、第1被写体情報検出部11、第2被写体情報検出部12、表示画像生成部13、表示部14、記録判断部15、及び記録部16のそれぞれの動作は、図1に示す第1実施形態の撮像装置10の第1被写体情報検出部11、第2被写体情報検出部12、表示画像生成部13、表示部14、記録判断部15、及び記録部16のそれぞれの動作と同様とする。   Further, in the imaging apparatus 100 of the second embodiment shown in FIG. 10, the first subject information detection unit 11, the second subject information detection unit 12, the display image generation unit 13, the display unit 14, the recording determination unit 15, and the recording unit. Each operation of 16 includes a first subject information detection unit 11, a second subject information detection unit 12, a display image generation unit 13, a display unit 14, and a recording determination unit 15 of the imaging apparatus 10 according to the first embodiment shown in FIG. , And the operations of the recording unit 16 are the same.

また、撮像部57、59は、例えば、レンズによってCCDなどの撮像素子に結像される被写体像をその撮像素子において電気信号に変換し画像とするとともに、その画像データに対してシャープネス補正回路、コントラスト補正回路、輝度・色差信号生成回路、及びホワイトバランス補正回路などを用いて各種画像処理を行う。   The imaging units 57 and 59 convert, for example, a subject image formed on an imaging element such as a CCD by a lens into an electrical signal in the imaging element, and a sharpness correction circuit for the image data. Various image processing is performed using a contrast correction circuit, a luminance / color difference signal generation circuit, a white balance correction circuit, and the like.

また、表示部14、54のそれぞれの画像表示面P1、P2は、互いに略同じ大きさとする。   In addition, the image display surfaces P1 and P2 of the display units 14 and 54 have substantially the same size.

ひとみ位置検出部58は、実空間に対応する3次元座標における第2被写体のひとみ位置を検出する。例えば、撮像部57が2つのカメラで構成され、それらカメラが背面方向側の撮像装置100において互いに異なる位置に配置されている場合、ひとみ位置検出部58は、撮像部57の2つのカメラで撮像される各画像を用いて、三角測量の原理やステレオマッチング法などにより、実空間に対応する3次元座標における第2被写体のひとみ位置を求める。なお、実空間に対応する3次元座標における第2被写体のひとみ位置の検出精度を上げるために撮像部57を3つ以上のカメラで構成してもよい。   The pupil position detector 58 detects the pupil position of the second subject in the three-dimensional coordinates corresponding to the real space. For example, when the imaging unit 57 is composed of two cameras and these cameras are arranged at different positions in the imaging device 100 on the back side, the pupil position detection unit 58 captures images with the two cameras of the imaging unit 57. Using each image, the pupil position of the second subject in the three-dimensional coordinates corresponding to the real space is obtained by the principle of triangulation or the stereo matching method. Note that the imaging unit 57 may be configured with three or more cameras in order to increase the detection accuracy of the pupil position of the second subject in the three-dimensional coordinates corresponding to the real space.

形状検出部60は、実空間に対応する3次元座標における第1被写体の形状情報(実空間に対応する3次元座標において第1被写体に対応する全ての点)を検出する。例えば、撮像部59が2つのカメラで構成され、それらカメラが正面方向側の撮像装置100において互いに異なる位置に配置されている場合、形状検出部60は、撮像部59の2つのカメラで撮像される各画像を用いて、三角測量の原理やステレオマッチング法などにより、実空間に対応する3次元座標において第1被写体を構成する全ての点を求める。なお、実空間に対応する3次元座標における第1被写体の形状情報の検出精度を上げるために撮像部59を3つ以上のカメラで構成してもよい。また、実空間に対応する3次元座標における第1被写体の形状情報の検出方法は、上述の方法以外にも赤外パターン投影法などを採用してもよく、特に限定されない。   The shape detection unit 60 detects shape information of the first subject in the three-dimensional coordinates corresponding to the real space (all points corresponding to the first subject in the three-dimensional coordinates corresponding to the real space). For example, when the imaging unit 59 is configured by two cameras and these cameras are arranged at different positions in the imaging device 100 on the front direction side, the shape detection unit 60 is captured by the two cameras of the imaging unit 59. Using the respective images, all points constituting the first subject in the three-dimensional coordinates corresponding to the real space are obtained by the principle of triangulation or the stereo matching method. Note that the imaging unit 59 may be configured with three or more cameras in order to increase the detection accuracy of the shape information of the first subject in the three-dimensional coordinates corresponding to the real space. Further, the method for detecting the shape information of the first subject in the three-dimensional coordinates corresponding to the real space may employ an infrared pattern projection method in addition to the above-described method, and is not particularly limited.

投影画像生成部61は、撮像部59で撮像される画像の情報(例えば、各画素の輝度や色など)と、ひとみ位置検出部58で検出される第2被写体のひとみ位置と、形状検出部60で検出される第1被写体の形状情報と、記憶部62に記憶されている実空間に対応する3次元座標における表示部54の画像表示面P2の大きさとに基づいて、第2被写体のひとみ位置から第1被写体を見たときに表示部54の画像表示面P2に投影される第1被写体を含んで表示部54に表示される投影画像を生成する。例えば、図12に示すように、実空間に対応し表示部54の画像表示面P2の中心点を原点とする3次元座標(X,Y,Z)における第2被写体のひとみ位置PB(例えば、左右のひとみの中間点)を(Xpb,Ypb,Zpb)とし、3次元座標(X,Y,Z)において第1被写体を構成する全ての点のうちの任意の点を(Xa1,Ya1,Za1)とし、3次元座標(X,Y,Z)における表示部54の画像表示面P2上の投影点(ひとみ位置PBから任意の点までを結ぶ直線l2と画像表示面P2との交点)を(Xa2,Ya2,0)とする。この場合、投影画像生成部61は、第1被写体を構成する全ての点にそれぞれ対応する投影点を、Xa2=(−Za1×(Xpb−Xa1)/Zpb−Za1)+Xa1、及び、Ya2=(−Za1×(Ypb−Ya1)/Zpb−Za1)+Ya1を計算することにより求める。そして、投影画像生成部61は、その求めた各投影点と、撮像部59で撮像される画像の情報とに基づいて、第2被写体のひとみ位置から第1被写体を見たときに表示部54の画像表示面P2に投影される第1被写体を含む投影画像を生成する。そして、表示部54は、投影画像生成部61で生成される投影画像を表示する。   The projection image generation unit 61 includes information on an image captured by the imaging unit 59 (for example, luminance and color of each pixel), a pupil position of the second subject detected by the pupil position detection unit 58, and a shape detection unit. Based on the shape information of the first subject detected at 60 and the size of the image display surface P2 of the display unit 54 in the three-dimensional coordinates corresponding to the real space stored in the storage unit 62, the pupil of the second subject A projection image that is displayed on the display unit 54 is generated including the first subject that is projected on the image display surface P2 of the display unit 54 when the first subject is viewed from the position. For example, as shown in FIG. 12, the pupil position PB of the second subject in three-dimensional coordinates (X, Y, Z) corresponding to the real space and having the origin at the center point of the image display surface P2 of the display unit 54 (for example, An intermediate point between the left and right pupils) is (Xpb, Ypb, Zpb), and any point among all the points constituting the first subject in the three-dimensional coordinates (X, Y, Z) is (Xa1, Ya1, Za1). ) And a projection point on the image display surface P2 of the display unit 54 at the three-dimensional coordinates (X, Y, Z) (intersection of the straight line l2 connecting the pupil position PB to an arbitrary point and the image display surface P2) ( Xa2, Ya2, 0). In this case, the projection image generation unit 61 sets projection points respectively corresponding to all points constituting the first subject to Xa2 = (− Za1 × (Xpb−Xa1) / Zpb−Za1) + Xa1 and Ya2 = ( It is obtained by calculating −Za1 × (Ypb−Ya1) / Zpb−Za1) + Ya1. The projection image generation unit 61 then displays the display unit 54 when viewing the first subject from the pupil position of the second subject based on the obtained projection points and information on the image captured by the imaging unit 59. A projection image including the first subject projected on the image display surface P2 is generated. The display unit 54 displays the projection image generated by the projection image generation unit 61.

記録判断部55は、第2被写体の操作などにより画像記録指示が入力されると、そのときに撮像部57で撮像される画像を記録部56に記録する。   When an image recording instruction is input by operating the second subject or the like, the recording determination unit 55 records an image captured by the imaging unit 57 at that time in the recording unit 56.

また、記録判断部55は、タッチパネルディスプレイで構成される表示部54が第2被写体などによりタッチされると、そのときに撮像部57で撮像される画像を記録部56に記録するように構成してもよい。   The recording determination unit 55 is configured to record an image captured by the imaging unit 57 at that time in the recording unit 56 when the display unit 54 configured by a touch panel display is touched by the second subject or the like. May be.

また、記録判断部15は、タッチパネルディスプレイで構成される表示部14が第1被写体又は第2被写体によりタッチされて書かれた文字や絵を、撮像部17で撮像される画像に重畳させて記録部16に記憶するように構成してもよい。また、記録判断部55は、タッチパネルディスプレイで構成される表示部54が第1被写体又は第2被写体によりタッチされて書かれた文字や絵を、撮像部57で撮像される画像に重畳させて記録部56に記憶するように構成してもよい。   In addition, the recording determination unit 15 records characters and pictures written by touching the display unit 14 configured by a touch panel display with the first subject or the second subject on an image captured by the imaging unit 17. You may comprise so that it may memorize | store in the part 16. FIG. In addition, the recording determination unit 55 records characters and pictures written by touching the display unit 54 configured by a touch panel display with the first subject or the second subject on the image captured by the imaging unit 57. You may comprise so that it may memorize | store in the part 56. FIG.

このように、第2実施形態の撮像装置100は、第1被写体のひとみ位置から第2被写体を見たときに表示部14の画像表示面P1に投影される第2被写体を含んで表示部14の画像表示面P1に表示される投影画像を生成するとともに、第2被写体のひとみ位置から第1被写体を見たときに表示部54の画像表示面P2に投影される第1被写体を含んで表示部54に表示される投影画像を生成する構成である。そのため、第1被写体から見て撮像装置100と第2被写体とが互いに重なっていても、第1被写体側から第2被写体をシースルーで見ているかのような画像を表示部14の画像表示面P1に表示させることができるとともに、第2被写体側から見て撮像装置100と第1被写体とが重なっていても、第2被写体側から第1被写体をシースルーで見ているかのような画像を表示部54の画像表示面P2に表示させることができる。これにより、母親が赤ちゃんを撮影する場合において、赤ちゃん側から母親をシースルーで見ているかのような画像を表示部14に表示させることができるので、赤ちゃんから見て母親の顔が撮像装置100で隠れてしまわず、赤ちゃんの笑顔を撮像し易くすることができる。また、母親側から赤ちゃんをシースルーで見ているかのような画像を表示部54に表示させることができるので、赤ちゃんの様子を見ながら撮影を行うことができる。   As described above, the imaging apparatus 100 according to the second embodiment includes the second subject that is projected on the image display surface P1 of the display unit 14 when the second subject is viewed from the pupil position of the first subject. A projection image displayed on the image display surface P1 is generated and displayed including the first subject projected on the image display surface P2 of the display unit 54 when the first subject is viewed from the pupil position of the second subject. This is a configuration for generating a projection image displayed on the unit 54. Therefore, even when the imaging device 100 and the second subject overlap each other when viewed from the first subject, an image as if the second subject is seen through from the first subject side is displayed on the image display surface P1 of the display unit 14. And the display unit displays an image as if the first subject is seen through from the second subject side even if the imaging device 100 and the first subject overlap when seen from the second subject side. 54 image display surfaces P2. Thereby, when the mother photographs the baby, an image as if the mother is seen through the baby from the baby side can be displayed on the display unit 14. The baby's smile can be easily captured without hiding it. In addition, since an image as if the baby is seen through from the mother's side can be displayed on the display unit 54, it is possible to take a picture while watching the state of the baby.

なお、第2実施形態の撮像装置100において、撮像部59を撮像部17と同一にし、撮像部57を撮像部19と同一にしてもよい。この場合、ひとみ位置検出部58は、撮像部19で撮像される画像に基づいて実空間に対応する3次元座標における第2被写体のひとみ位置を検出する。また、形状検出部60は、撮像部17で撮像される画像に基づいて実空間に対応する3次元座標における第1被写体の形状情報を検出する。また、投影画像生成部61は、撮像部17で撮像される画像の情報を用いて投影画像を生成する。このように、撮像部59を撮像部17と同一にし、撮像部57を撮像部19と同一にすることにより、撮像装置100全体の大型化やコスト増大を抑えることができる。
<第2実施形態の変形例(その1)>
In the imaging apparatus 100 of the second embodiment, the imaging unit 59 may be the same as the imaging unit 17 and the imaging unit 57 may be the same as the imaging unit 19. In this case, the pupil position detection unit 58 detects the pupil position of the second subject in the three-dimensional coordinates corresponding to the real space based on the image captured by the imaging unit 19. Further, the shape detection unit 60 detects the shape information of the first subject in the three-dimensional coordinates corresponding to the real space based on the image captured by the imaging unit 17. In addition, the projection image generation unit 61 generates a projection image using information on an image captured by the imaging unit 17. As described above, by making the imaging unit 59 the same as the imaging unit 17 and making the imaging unit 57 the same as the imaging unit 19, it is possible to suppress an increase in size and cost of the entire imaging device 100.
<Modification of Second Embodiment (Part 1)>

図13は、本発明の第3実施形態の撮像装置を示す図である。なお、図10に示す第2実施形態の撮像装置100と同じ構成には同じ符号を付している。   FIG. 13 is a diagram illustrating an imaging apparatus according to the third embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the same structure as the imaging device 100 of 2nd Embodiment shown in FIG.

図13に示す第3実施形態の撮像装置130において図10に示す第2実施形態の撮像装置100と異なる点は、第1被写体情報検出部11、第1被写体情報検出部52、表示画像生成部53、表示部14、記録判断部15、及び記録部16を筐体131に備え、第2被写体情報検出部12、第2被写体情報検出部51、表示画像生成部13、表示部54、記録判断部55、及び記録部56を筐体132に備え、筐体131及び筐体132を連結器133を介して互いに連結している点である。なお、筐体131及び筐体132は、それぞれ、例えば、スマートフォンやタブレットPCなどとし、連結器133と着脱可能とする。また、筐体131、132の間のデータの受け渡しは、無線通信でも有線通信でもよい。   The imaging device 130 of the third embodiment shown in FIG. 13 is different from the imaging device 100 of the second embodiment shown in FIG. 10 in that the first subject information detection unit 11, the first subject information detection unit 52, and the display image generation unit. 53, the display unit 14, the recording determination unit 15, and the recording unit 16 are provided in the housing 131, and the second subject information detection unit 12, the second subject information detection unit 51, the display image generation unit 13, the display unit 54, and the recording determination The portion 55 and the recording portion 56 are provided in the housing 132, and the housing 131 and the housing 132 are connected to each other via a coupler 133. Note that the housing 131 and the housing 132 are, for example, smartphones and tablet PCs, and are attachable to and detachable from the coupler 133. Further, the data transfer between the casings 131 and 132 may be wireless communication or wired communication.

投影画像生成部21は、ひとみ位置検出部18で検出される第1被写体のひとみ位置を連結器133を介して筐体131から取得する。   The projection image generation unit 21 acquires the pupil position of the first subject detected by the pupil position detection unit 18 from the housing 131 via the coupler 133.

表示部14は、投影画像生成部21で生成される投影画像を連結器133を介して筐体132から取得する。   The display unit 14 acquires the projection image generated by the projection image generation unit 21 from the housing 132 via the coupler 133.

投影画像生成部61は、ひとみ位置検出部58で検出される第2被写体のひとみ位置を連結器133を介して筐体132から取得する。   The projection image generation unit 61 acquires the pupil position of the second subject detected by the pupil position detection unit 58 from the housing 132 via the coupler 133.

表示部54は、投影画像生成部61で生成される投影画像を連結器133を介して筐体131から取得する。   The display unit 54 acquires the projection image generated by the projection image generation unit 61 from the housing 131 via the coupler 133.

第3実施形態の撮像装置130は、筐体131、132において背面方向側に撮像部が配置されていなくても、筐体131、132を連結器133で互いに連結することにより、第2被写体のシースルー画像を表示部14に表示させつつ、第1被写体のシースルー画像を表示部54に表示させることができる。
<第2実施形態の変形例(その2)>
The imaging apparatus 130 according to the third embodiment connects the casings 131 and 132 to each other by the coupler 133 even if no imaging unit is disposed on the rear side of the casings 131 and 132. The see-through image of the first subject can be displayed on the display unit 54 while the see-through image is displayed on the display unit 14.
<Modification of Second Embodiment (Part 2)>

図14は、本発明の第4実施形態の撮像装置を示す図である。なお、図10に示す第2実施形態の撮像装置100と同じ構成には同じ符号を付している。   FIG. 14 is a diagram illustrating an imaging apparatus according to the fourth embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the same structure as the imaging device 100 of 2nd Embodiment shown in FIG.

図14に示す第4実施形態の撮像装置140において図10に示す第2実施形態の撮像装置100と異なる点は、さらに、視線方向検出部141、142と、補正判断部143、144と、補正部145、146とを備えている点である。なお、補正判断部143及び補正部145のそれぞれの動作は、図9に示す第1実施形態の変形例(その2)における補正判断部24及び補正部25のそれぞれの動作と同様とする。   The imaging apparatus 140 of the fourth embodiment shown in FIG. 14 is different from the imaging apparatus 100 of the second embodiment shown in FIG. 10 in that the line-of-sight direction detection units 141 and 142, the correction determination units 143 and 144, and the correction It is a point provided with the part 145,146. The operations of the correction determination unit 143 and the correction unit 145 are the same as the operations of the correction determination unit 24 and the correction unit 25 in the modified example (No. 2) of the first embodiment shown in FIG.

視線方向検出部141は、撮像部17で撮像される画像に基づいて、第1被写体の視線方向を検出する。例えば、視線方向検出部141は、撮像部17で撮像される画像内の第1被写体の白目部分に対する黒目部分の位置に基づいて、第1被写体の視線方向を検出する。   The line-of-sight direction detection unit 141 detects the line-of-sight direction of the first subject based on the image captured by the imaging unit 17. For example, the gaze direction detection unit 141 detects the gaze direction of the first subject based on the position of the black eye portion with respect to the white eye portion of the first subject in the image captured by the imaging unit 17.

視線方向検出部142は、撮像部57で撮像される画像に基づいて、第2被写体の視線方向を検出する。例えば、視線方向検出部142は、撮像部57で撮像される画像内の第2被写体の白目部分に対する黒目部分の位置に基づいて、第2被写体の視線方向を検出する。   The line-of-sight direction detection unit 142 detects the line-of-sight direction of the second subject based on the image captured by the imaging unit 57. For example, the gaze direction detection unit 142 detects the gaze direction of the second subject based on the position of the black eye portion with respect to the white eye portion of the second subject in the image captured by the imaging unit 57.

補正判断部144は、撮像部57で撮像される画像を補正する必要があるか否かを判断する。   The correction determination unit 144 determines whether it is necessary to correct the image captured by the imaging unit 57.

補正部146は、撮像部57で撮像される画像を補正する必要があると判断されると、その画像を補正する。   When it is determined that the image captured by the imaging unit 57 needs to be corrected, the correction unit 146 corrects the image.

例えば、撮像部57を構成する2つのカメラのうちの一方のカメラが背面方向側の撮像装置100の上側端部に配置され、他方のカメラが背面方向側の撮像装置100の下側端部に配置されているとする。この場合、まず、補正判断部144は、一方のカメラで撮像される画像に基づいて第2被写体と一方のカメラとの距離d3を求めるとともに、他方のカメラで撮像される画像に基づいて第2被写体と他方のカメラとの距離d4を求める。そして、補正判断部144は、距離d3、d4の差(絶対値)が閾値dth2以上のとき、撮像部57で撮像される画像を補正する必要があると判断する。例えば、距離d3が距離d4よりも長く、かつ、距離d3、d4の差が閾値dth2以上の場合は、2つのカメラがそれぞれ第2被写体を下側から撮像しているときであって、そのときに撮像される画像内の第2被写体の黒目部分は白目部分に対して下側に寄ってしまう。また、距離d4が距離d3よりも長く、かつ、距離d3、d4の差が閾値dth2以上の場合は、2つのカメラが第2被写体を上側から撮像しているときであって、そのときに撮像される画像内の第2被写体の黒目部分は白目部分に対して上側に寄ってしまう。これらの場合において、補正部146は、第2被写体の黒目部分を白目部分に対して中央に位置するように投影画像を補正する。このように、距離d3、d4の差に基づいて、撮像部57で撮像される画像の縦方向の歪みを補正することができる。   For example, one of the two cameras constituting the imaging unit 57 is arranged at the upper end of the imaging device 100 on the rear side, and the other camera is placed on the lower end of the imaging device 100 on the rear side. Suppose it is placed. In this case, first, the correction determination unit 144 obtains the distance d3 between the second subject and one camera based on the image captured by one camera, and the second based on the image captured by the other camera. A distance d4 between the subject and the other camera is obtained. Then, when the difference (absolute value) between the distances d3 and d4 is equal to or greater than the threshold value dth2, the correction determination unit 144 determines that the image captured by the imaging unit 57 needs to be corrected. For example, when the distance d3 is longer than the distance d4 and the difference between the distances d3 and d4 is equal to or larger than the threshold value dth2, the two cameras are respectively capturing the second subject from the lower side, and then The black eye portion of the second subject in the image picked up at the end of the image is shifted downward with respect to the white eye portion. Further, when the distance d4 is longer than the distance d3 and the difference between the distances d3 and d4 is equal to or larger than the threshold value dth2, the two cameras are capturing the second subject from the upper side, and the imaging is performed at that time. The black-eye portion of the second subject in the image to be moved is closer to the upper side than the white-eye portion. In these cases, the correction unit 146 corrects the projection image so that the black eye portion of the second subject is positioned at the center with respect to the white eye portion. As described above, based on the difference between the distances d3 and d4, it is possible to correct the distortion in the vertical direction of the image captured by the imaging unit 57.

なお、撮像部57を構成する2つのカメラのうちの一方のカメラを背面方向側の撮像装置100の右側端部に配置し、他方のカメラを背面方向側の撮像装置100の左側端部に配置してもよい。この場合、距離d3、d4の差に基づいて、撮像部57で撮像される画像の横方向の歪みを補正することができる。   Note that one of the two cameras constituting the imaging unit 57 is arranged at the right end of the imaging device 100 on the rear side, and the other camera is arranged on the left side of the imaging device 100 on the rear side. May be. In this case, the lateral distortion of the image captured by the imaging unit 57 can be corrected based on the difference between the distances d3 and d4.

また、補正判断部144を加速度センサやジャイロなどにより構成して、地面に対する撮像装置100の傾きθが閾値θth以上傾いたとき、投影画像を補正する必要があると判断してもよい。この場合、補正部146は、撮像装置100の傾きθに基づいて、撮像部57で撮像される画像を補正する。   Further, the correction determination unit 144 may be configured by an acceleration sensor, a gyro, or the like, and it may be determined that the projection image needs to be corrected when the inclination θ of the imaging device 100 with respect to the ground is inclined by a threshold θth or more. In this case, the correction unit 146 corrects the image captured by the imaging unit 57 based on the inclination θ of the imaging device 100.

また、記録判断部15は、視線方向検出部141で検出される第1被写体の視線方向と視線方向検出部142で検出される第2被写体の視線方向とが互いに一致又は略一致すると、そのときに撮像部17で撮像される画像を記録部16に記録するように構成してもよい。また、記録判断部55は、視線方向検出部141で検出される第1被写体の視線方向と視線方向検出部142で検出される第2被写体の視線方向とが互いに一致又は略一致すると、そのときに撮像部57で撮像される画像を記録部56に記録するように構成してもよい。   In addition, the recording determination unit 15 determines that when the line-of-sight direction of the first subject detected by the line-of-sight direction detection unit 141 and the line-of-sight direction of the second subject detected by the line-of-sight direction detection unit 142 match or substantially match each other, Alternatively, the image captured by the imaging unit 17 may be recorded in the recording unit 16. In addition, when the line-of-sight direction of the first subject detected by the line-of-sight direction detection unit 141 and the line-of-sight direction of the second subject detected by the line-of-sight direction detection unit 142 match or substantially match, the recording determination unit 55 Alternatively, the image captured by the imaging unit 57 may be recorded in the recording unit 56.

また、補正部145は、補正判断部143で補正する必要があると判断されると、視線方向検出部141で検出される第1被写体の視線方向と視線方向検出部142で検出される第2被写体の視線方向とが互いに一致又は略一致するときの第1被写体の視線方向に基づいて、撮像部17で撮像される画像を補正してもよい。例えば、補正部145は、補正判断部143で補正する必要があると判断されると、視線方向検出部141で検出される第1被写体の視線方向と視線方向検出部142で検出される第2被写体の視線方向とが互いに一致又は略一致するときの第1被写体の視線方向と表示部14の画像表示面P1との交点と、撮像部17で撮像される画像内の第1被写体のひとみ位置とが同じ位置になるように、撮像部17で撮像される画像を補正する。   When the correction determining unit 143 determines that the correction needs to be corrected, the correcting unit 145 detects the gaze direction of the first subject detected by the gaze direction detecting unit 141 and the second detected by the gaze direction detecting unit 142. The image captured by the imaging unit 17 may be corrected based on the line-of-sight direction of the first subject when the line-of-sight direction of the subject matches or substantially matches. For example, when it is determined that the correction determination unit 143 needs to correct the correction, the correction unit 145 detects the first subject's gaze direction detected by the gaze direction detection unit 141 and the second gaze direction detection unit 142 detects the second gaze direction. The intersection between the line-of-sight direction of the first subject and the image display surface P1 of the display unit 14 when the line-of-sight direction of the subject coincides with or substantially coincides with the pupil position of the first subject in the image captured by the imaging unit 17 The images picked up by the image pickup unit 17 are corrected so that and become the same position.

また、補正部146は、補正判断部144で補正する必要があると判断されると、視線方向検出部141で検出される第1被写体の視線方向と視線方向検出部142で検出される第2被写体の視線方向とが互いに一致又は略一致するときの第2被写体の視線方向に基づいて、撮像部57で撮像される画像を補正してもよい。例えば、補正部146は、補正判断部144で補正する必要があると判断されると、視線方向検出部141で検出される第1被写体の視線方向と視線方向検出部142で検出される第2被写体の視線方向とが互いに一致又は略一致するときの第2被写体の視線方向と表示部54の画像表示面P2との交点と、撮像部57で撮像される画像内の第2被写体のひとみ位置とが同じ位置になるように、撮像部57で撮像される画像を補正する。   When the correction determining unit 144 determines that the correction needs to be corrected, the correcting unit 146 detects the first subject's gaze direction detected by the gaze direction detecting unit 141 and the second gaze direction detecting unit 142 detects the second gaze direction. The image captured by the imaging unit 57 may be corrected based on the line-of-sight direction of the second subject when the line-of-sight direction of the subject matches or substantially matches. For example, when the correction unit 146 determines that the correction needs to be corrected by the correction determination unit 144, the gaze direction of the first subject detected by the gaze direction detection unit 141 and the second gaze direction detection unit 142 detects the second gaze direction detected by the gaze direction detection unit 142. The intersection between the line-of-sight direction of the second subject and the image display surface P2 of the display unit 54 when the line-of-sight direction of the subject coincides with or substantially coincides with the pupil position of the second subject in the image captured by the imaging unit 57 The images picked up by the image pickup unit 57 are corrected so that and become the same position.

図14に示す撮像装置100によれば、撮像装置100が第1被写体に対して傾いていても、撮像部17で撮像される画像内の第1被写体の顔などを歪ませることなく記録部16に記録することができるとともに、撮像装置100が第2被写体に対して傾いていても、撮像部57で撮像される画像内の第2被写体の顔などを歪ませることなく記録部56に記録することができる。
<第2実施形態の変形例(その3)>
According to the imaging device 100 illustrated in FIG. 14, even when the imaging device 100 is inclined with respect to the first subject, the recording unit 16 does not distort the face of the first subject in the image captured by the imaging unit 17. In addition, even when the imaging device 100 is inclined with respect to the second subject, the face of the second subject in the image captured by the imaging unit 57 is recorded in the recording unit 56 without being distorted. be able to.
<Modification of Second Embodiment (Part 3)>

図15は、本発明の第5実施形態の撮像装置を示す図である。なお、図10に示す第2実施形態の撮像装置100と同じ構成には同じ符号を付している。   FIG. 15 is a diagram illustrating an imaging apparatus according to the fifth embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the same structure as the imaging device 100 of 2nd Embodiment shown in FIG.

図15に示す第5実施形態の撮像装置100において図10に示す第2実施形態の撮像装置100と異なる点は、さらに、測光部151、152とを備えている点である。   The imaging apparatus 100 according to the fifth embodiment illustrated in FIG. 15 is different from the imaging apparatus 100 according to the second embodiment illustrated in FIG. 10 in that photometric units 151 and 152 are further provided.

測光部151は、正面方向側を測光する。   The photometry unit 151 measures the front side.

測光部152は、背面方向側を測光する。   The photometry unit 152 measures the back side.

投影画像生成部21は、撮像部19で撮像される画像の情報と、ひとみ位置検出部18で検出される第1被写体のひとみ位置と、形状検出部20で検出される第2被写体の形状情報と、記憶部22に記憶されている実空間に対応する3次元座標における表示部14の画像表示面P1の大きさと、測光部151の測光結果とに基づいて、投影画像を生成する。   The projection image generation unit 21 includes information on an image captured by the imaging unit 19, a pupil position of the first subject detected by the pupil position detection unit 18, and shape information of the second subject detected by the shape detection unit 20. A projection image is generated based on the size of the image display surface P1 of the display unit 14 in the three-dimensional coordinates corresponding to the real space stored in the storage unit 22 and the photometric result of the photometric unit 151.

投影画像生成部61は、撮像部59で撮像される画像の情報と、ひとみ位置検出部58で検出される第2被写体のひとみ位置と、形状検出部60で検出される第1被写体の形状情報と、記憶部62に記憶されている実空間に対応する3次元座標における表示部54の画像表示面P2の大きさと、測光部152の測光結果とに基づいて、投影画像を生成する。   The projection image generation unit 61 includes information on an image captured by the imaging unit 59, a pupil position of the second subject detected by the pupil position detection unit 58, and shape information of the first subject detected by the shape detection unit 60. A projection image is generated based on the size of the image display surface P2 of the display unit 54 in the three-dimensional coordinates corresponding to the real space stored in the storage unit 62 and the photometric result of the photometric unit 152.

図15に示す撮像装置100によれば、測光部151により第1被写体の輝度や色を精度良く検出することができるため、投影画像内の第1被写体をより自然な色で再現することができるとともに、測光部152により第2被写体の輝度や色を精度良く検出することができるため、投影画像内の第2被写体をより自然な色で再現することができる。   According to the imaging apparatus 100 shown in FIG. 15, since the photometry unit 151 can accurately detect the luminance and color of the first subject, the first subject in the projection image can be reproduced with a more natural color. At the same time, the luminance and color of the second subject can be accurately detected by the photometry unit 152, so that the second subject in the projection image can be reproduced with a more natural color.

10 撮像装置
11、52 第1被写体情報検出部
12、51 第2被写体情報検出部
13 53 表示画像生成部
14、54 表示部
15、55 記録判断部
16、56 記録部
17、57 撮像部
18、58 ひとみ位置検出部
19、59 撮像部
20、60 形状検出部
21、61 投影画像生成部
22、62 記憶部
23 視線方向検出部
24 補正判断部
25 補正部
26 測光部
DESCRIPTION OF SYMBOLS 10 Imaging device 11, 52 1st subject information detection part 12, 51 2nd subject information detection part 13 53 Display image generation part 14, 54 Display part 15, 55 Recording judgment part 16, 56 Recording part 17, 57 Imaging part 18, 58 pupil position detection unit 19, 59 imaging unit 20, 60 shape detection unit 21, 61 projection image generation unit 22, 62 storage unit 23 gaze direction detection unit 24 correction determination unit 25 correction unit 26 photometry unit

Claims (18)

第1被写体を撮像する第1撮像手段と、
前記第1撮像手段で撮像される画像に基づいて、実空間に対応する3次元座標における前記第1被写体のひとみ位置を検出する第1ひとみ位置検出手段と、
前記第1撮像手段の撮像方向を正面方向、前記正面方向と反対方向を背面方向とするとき、前記背面方向に位置する第2被写体を撮像する第2撮像手段と、
前記3次元座標における前記第2被写体の形状情報を検出する第1形状検出手段と、
画像を表示する表示方向が、前記正面方向となるように配置される第1表示手段と、
前記第1表示手段の画像表示面の大きさが記憶される第1記憶手段と、
前記第2撮像手段で撮像される画像の情報と、前記第1ひとみ位置検出手段で検出される前記第1被写体のひとみ位置と、前記第1形状検出手段で検出される前記第2被写体の形状情報と、前記第1記憶手段に記憶される前記第1表示手段の画像表示面の大きさとに基づいて、前記第1被写体のひとみ位置から前記第2被写体を見たときに前記第1表示手段の画像表示面に投影される前記第2被写体を含んで前記第1表示手段に表示される画像を生成する第1表示画像生成手段と、
を備える撮像装置。
First imaging means for imaging a first subject;
First pupil position detection means for detecting a pupil position of the first subject in three-dimensional coordinates corresponding to real space based on an image captured by the first imaging means;
A second image pickup means for picking up an image of a second subject located in the back direction when the image pickup direction of the first image pickup means is a front direction and a direction opposite to the front direction is a back direction;
First shape detecting means for detecting shape information of the second subject in the three-dimensional coordinates;
First display means arranged so that a display direction for displaying an image is the front direction;
First storage means for storing the size of the image display surface of the first display means;
Information on the image captured by the second imaging means, the pupil position of the first subject detected by the first pupil position detection means, and the shape of the second subject detected by the first shape detection means The first display means when the second subject is viewed from the pupil position of the first subject based on the information and the size of the image display surface of the first display means stored in the first storage means. First display image generation means for generating an image to be displayed on the first display means including the second subject projected on the image display surface of
An imaging apparatus comprising:
請求項1に記載の撮像装置であって、
前記第1撮像手段で撮像される画像に基づいて、前記第1被写体の視線方向を検出する第1視線方向検出手段と、
第1記録判断手段と、
第1記録手段と、
を備え、
前記第1記録判断手段は、前記第1表示手段の画像表示面に表示される画像内の前記第2被写体のひとみ位置と、前記第1視線方向検出手段で検出される前記第1被写体の視線方向と前記第1表示手段の画像表示面との交点との距離が閾値以下になると、前記第1撮像手段で撮像される画像を前記第1記録手段に記録する、
ことを特徴とする撮像装置。
The imaging apparatus according to claim 1,
First gaze direction detection means for detecting a gaze direction of the first subject based on an image captured by the first imaging means;
First record judging means;
First recording means;
With
The first recording determining means includes a pupil position of the second subject in an image displayed on the image display surface of the first display means, and a line of sight of the first subject detected by the first gaze direction detecting means. When the distance between the direction and the intersection of the image display surface of the first display unit is equal to or less than a threshold, the image captured by the first image capture unit is recorded in the first recording unit.
An imaging apparatus characterized by that.
請求項1又は請求項2に記載の撮像装置であって、
前記第1撮像手段で撮像される画像を補正する必要があるか否かを判断する補正判断手段と、
前記補正判断手段により前記第1撮像手段で撮像される画像を補正する必要があると判断されると、前記第1撮像手段で撮像される画像を補正する第1補正手段と、
を備える撮像装置。
The imaging apparatus according to claim 1 or 2,
Correction determination means for determining whether or not it is necessary to correct an image captured by the first imaging means;
A first correction unit that corrects an image captured by the first imaging unit when the correction determination unit determines that an image captured by the first imaging unit needs to be corrected;
An imaging apparatus comprising:
請求項3に記載の撮像装置であって、
前記補正判断手段は、当該撮像装置の傾きに基づいて、前記第1撮像手段で撮像される画像を補正する必要があるか否かを判断する、
ことを特徴とする撮像装置。
The imaging apparatus according to claim 3,
The correction determination unit determines whether or not it is necessary to correct an image captured by the first imaging unit based on the inclination of the imaging device.
An imaging apparatus characterized by that.
請求項4に記載の撮像装置であって、
前記第1撮像手段は、互いに異なる位置に配置される第1及び第2カメラを備え、
前記補正判断手段は、前記第1及び第2カメラで撮像される各画像に基づいて前記第1カメラと前記第1被写体との第1距離及び前記第2カメラと前記第1被写体との第2距離を求め、前記第1距離と前記第2距離との差が閾値以上になると、前記第1撮像手段で撮像される画像を補正する必要があると判断する、
ことを特徴とする撮像装置。
The imaging apparatus according to claim 4,
The first imaging means includes first and second cameras disposed at different positions,
The correction determination means is configured to determine a first distance between the first camera and the first subject and a second distance between the second camera and the first subject based on the images captured by the first and second cameras. Determining the distance, and determining that the image captured by the first imaging means needs to be corrected when the difference between the first distance and the second distance is equal to or greater than a threshold;
An imaging apparatus characterized by that.
請求項1〜5の何れか1項に記載の撮像装置であって、
前記背面方向側を測光する第1測光手段と、
を備え、
前記第1表示画像生成手段は、さらに前記第1測光手段の測光結果に基づいて、前記第1被写体のひとみ位置から前記第2被写体を見たときに前記第1表示手段の画像表示面に投影される前記第2被写体を含んで前記第1表示手段に表示される画像を生成する、
ことを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 5,
First metering means for metering the back direction side;
With
The first display image generating means further projects on the image display surface of the first display means when viewing the second subject from the pupil position of the first subject based on the photometric result of the first photometric means. Generating an image to be displayed on the first display means including the second subject to be
An imaging apparatus characterized by that.
請求項1に記載の撮像装置であって、
前記第2被写体を撮像する第3撮像手段と、
前記第1被写体を撮像する第4撮像手段と、
前記第3撮像手段で撮像される画像に基づいて、前記3次元座標における前記第2被写体のひとみ位置を検出する第2ひとみ位置検出手段と、
前記3次元座標における前記第1被写体の形状情報を検出する第2形状検出手段と、
画像を表示する表示方向が、前記背面方向となるように配置される第2表示手段と、
前記第2表示手段の画像表示面の大きさを記憶する第2記憶手段と、
前記第4撮像手段で撮像される画像の情報と、前記第2ひとみ位置検出手段で検出される前記第2被写体のひとみ位置と、前記第2形状検出手段で検出される前記第1被写体の形状情報と、前記第2記憶手段に記憶される前記第2表示手段の画像表示面の大きさとに基づいて、前記第2被写体のひとみ位置から前記第1被写体を見たときに前記第2表示手段の画像表示面に投影される前記第1被写体を含んで前記第2表示手段に表示される画像を生成する第2表示画像生成手段と、
を備える撮像装置。
The imaging apparatus according to claim 1,
Third imaging means for imaging the second subject;
Fourth imaging means for imaging the first subject;
Second pupil position detection means for detecting a pupil position of the second subject in the three-dimensional coordinates based on an image captured by the third imaging means;
Second shape detecting means for detecting shape information of the first subject in the three-dimensional coordinates;
A second display means arranged so that a display direction for displaying an image is the back direction;
Second storage means for storing the size of the image display surface of the second display means;
Information on the image captured by the fourth imaging means, the pupil position of the second subject detected by the second pupil position detection means, and the shape of the first subject detected by the second shape detection means The second display means when the first subject is viewed from the pupil position of the second subject based on the information and the size of the image display surface of the second display means stored in the second storage means Second display image generation means for generating an image to be displayed on the second display means including the first subject projected on the image display surface of
An imaging apparatus comprising:
請求項7に記載の撮像装置であって、
前記第1撮像手段で撮像される画像に基づいて、前記第1被写体の視線方向を検出する第1視線方向検出手段と、
第1記録判断手段と、
第1記録手段と、
前記第3撮像手段で撮像される画像に基づいて、前記第2被写体の視線方向を検出する第2視線方向検出手段と、
第2記録判断手段と、
第2記録手段と、
を備え、
前記第1記録判断手段は、前記第1視線方向検出手段で検出される前記第1被写体の視線方向と前記第2視線方向検出手段で検出される前記第2被写体の視線方向とが互いに一致又は略一致すると、前記第1撮像手段で撮像される画像を前記第1記録手段に記録し、
前記第2記録判断手段は、前記第1視線方向検出手段で検出される前記第1被写体の視線方向と前記第2視線方向検出手段で検出される前記第2被写体の視線方向とが互いに一致又は略一致すると、前記第3撮像手段で撮像される画像を前記第2記録手段に記録する、
ことを特徴とする撮像装置。
The imaging apparatus according to claim 7,
First gaze direction detection means for detecting a gaze direction of the first subject based on an image captured by the first imaging means;
First record judging means;
First recording means;
Second gaze direction detection means for detecting a gaze direction of the second subject based on an image captured by the third imaging means;
A second record judging means;
A second recording means;
With
The first recording determination unit may be configured such that a line-of-sight direction of the first subject detected by the first line-of-sight direction detection unit and a line-of-sight direction of the second subject detected by the second line-of-sight direction detection unit coincide with each other. If substantially coincident, the image captured by the first imaging means is recorded in the first recording means,
The second recording determination unit may be configured such that a line-of-sight direction of the first subject detected by the first line-of-sight direction detection unit and a line-of-sight direction of the second subject detected by the second line-of-sight direction detection unit coincide with each other. When substantially matching, the image captured by the third imaging unit is recorded in the second recording unit.
An imaging apparatus characterized by that.
請求項8に記載の撮像装置であって、
前記第1撮像手段で撮像される画像を補正する必要があると判断する第1補正判断手段と、
前記第3撮像手段で撮像される画像を補正する必要があると判断する第2補正判断手段と、
前記第1補正判断手段により前記第1撮像手段で撮像される画像を補正する必要があると判断されると、前記第1撮像手段で撮像される画像を補正する第1補正手段と、
前記第2補正判断手段により前記第3撮像手段で撮像される画像を補正する必要があると判断されると、前記第3撮像手段で撮像される画像を補正する第2補正手段と、
を備える撮像装置。
The imaging apparatus according to claim 8, wherein
First correction determining means for determining that an image captured by the first imaging means needs to be corrected;
Second correction determination means for determining that an image captured by the third imaging means needs to be corrected;
A first correction unit that corrects an image captured by the first imaging unit when the first correction determination unit determines that an image captured by the first imaging unit needs to be corrected;
A second correction unit that corrects an image captured by the third imaging unit when the second correction determination unit determines that an image captured by the third imaging unit needs to be corrected;
An imaging apparatus comprising:
請求項9に記載の撮像装置であって、
前記第1補正判断手段は、当該撮像装置の傾きに基づいて、前記第1撮像手段で撮像される画像を補正する必要があると判断し、
前記第2補正判断手段は、当該撮像装置の傾きに基づいて、前記第3撮像手段で撮像される画像を補正する必要があると判断する、
ことを特徴とする撮像装置。
The imaging device according to claim 9,
The first correction determination unit determines that the image captured by the first imaging unit needs to be corrected based on the inclination of the imaging device,
The second correction determination unit determines that the image captured by the third imaging unit needs to be corrected based on the inclination of the imaging device.
An imaging apparatus characterized by that.
請求項10に記載の撮像装置であって、
前記第1撮像手段は、互いに異なる位置に配置される第1及び第2カメラを備え、
前記第3撮像手段は、互いに異なる位置に配置される第3及び第4カメラを備え、
前記第1補正判断手段は、前記第1及び第2カメラで撮像される各画像に基づいて前記第1カメラと前記第1被写体との第1距離及び前記第2カメラと前記第1被写体との第2距離を求め、前記第1距離と前記第2距離との差が第1閾値以上になると、前記第1撮像手段で撮像される画像を補正する必要があると判断し、
前記第2補正判断手段は、前記第3及び第4カメラで撮像される各画像に基づいて前記第3カメラと前記第2被写体との第3距離及び前記第4カメラと前記第2被写体との第4距離を求め、前記第3距離と前記第4距離との差が第2閾値以上になると、前記第3撮像手段で撮像される画像を補正する必要があると判断する、
ことを特徴とする撮像装置。
The imaging apparatus according to claim 10,
The first imaging means includes first and second cameras disposed at different positions,
The third imaging unit includes third and fourth cameras arranged at different positions,
The first correction determination unit is configured to determine a first distance between the first camera and the first subject and a distance between the second camera and the first subject based on the images captured by the first and second cameras. A second distance is obtained, and when the difference between the first distance and the second distance is greater than or equal to a first threshold, it is determined that the image captured by the first imaging unit needs to be corrected,
The second correction determining means is configured to determine a third distance between the third camera and the second subject and a distance between the fourth camera and the second subject based on each image captured by the third and fourth cameras. Determining the fourth distance, and determining that the image captured by the third imaging means needs to be corrected when the difference between the third distance and the fourth distance is equal to or greater than a second threshold;
An imaging apparatus characterized by that.
請求項9に記載の撮像装置であって、
前記第1補正手段は、前記第1視線方向検出手段で検出される前記第1被写体の視線方向と前記第2視線方向検出手段で検出される前記第2被写体の視線方向とが一致又は略一致するときの前記第1被写体の視線方向に基づいて、前記第1撮像手段で撮像される画像を補正し、
前記第2補正手段は、前記第1視線方向検出手段で検出される前記第1被写体の視線方向と前記第2視線方向検出手段で検出される前記第2被写体の視線方向とが一致又は略一致するときの前記第2被写体の視線方向に基づいて、前記第3撮像手段で撮像される画像を補正する、
ことを特徴とする撮像装置。
The imaging device according to claim 9,
The first correcting means matches or substantially matches the line-of-sight direction of the first subject detected by the first line-of-sight direction detecting means and the line-of-sight direction of the second subject detected by the second line-of-sight direction detecting means. Correcting the image picked up by the first image pickup means based on the line-of-sight direction of the first subject when
The second correcting means matches or substantially matches the line-of-sight direction of the first subject detected by the first line-of-sight direction detecting means with the line-of-sight direction of the second subject detected by the second line-of-sight direction detecting means. Correcting the image picked up by the third image pickup means based on the line-of-sight direction of the second subject when
An imaging apparatus characterized by that.
請求項7〜12の何れか1項に記載の撮像装置であって、
前記第1及び第4撮像手段は同一であり
前記第2及び第3撮像手段は同一である、
ことを特徴とする撮像装置。
The imaging apparatus according to any one of claims 7 to 12,
The first and fourth imaging means are the same, and the second and third imaging means are the same,
An imaging apparatus characterized by that.
請求項7〜13の何れか1項に記載の撮像装置であって、
前記第1及び第2表示手段は互いに略同じ大きさである、
ことを特徴とする撮像装置。
An imaging apparatus according to any one of claims 7 to 13,
The first and second display means have substantially the same size.
An imaging apparatus characterized by that.
請求項7〜14の何れか1項に記載の撮像装置であって、
前記第1撮像手段、前記第4撮像手段、前記第1ひとみ位置検出手段、前記第2形状検出手段、前記第1表示手段、及び前記第2表示画像生成手段を備える第1筐体と、
前記第2撮像手段、前記第3撮像手段、前記第2ひとみ位置検出手段、前記第1形状検出手段、前記第2表示手段、及び前記第1表示画像生成手段を備える第2筐体と、
前記第1及び第2筐体を互いに連結する連結手段と、
を備える撮像装置。
The imaging apparatus according to any one of claims 7 to 14,
A first housing comprising the first imaging means, the fourth imaging means, the first pupil position detection means, the second shape detection means, the first display means, and the second display image generation means;
A second housing comprising the second imaging means, the third imaging means, the second pupil position detection means, the first shape detection means, the second display means, and the first display image generation means;
Connecting means for connecting the first and second housings to each other;
An imaging apparatus comprising:
請求項7〜15の何れか1項に記載の撮像装置であって、
前記背面方向側を測光する第1測光手段と、
前記正面方向側を測光する第2測光手段と、
を備え、
前記第1表示画像生成手段は、さらに前記第1測光手段の測光結果に基づいて、前記第1被写体のひとみ位置から前記第2被写体を見たときに前記第1表示手段の画像表示面に投影される前記第2被写体を含んで前記第1表示手段に表示される画像を生成し、
前記第2表示画像生成手段は、さらに前記第2測光手段の測光結果に基づいて、前記第2被写体のひとみ位置から前記第1被写体を見たときに前記第2表示手段の画像表示面に投影される前記第1被写体を含んで前記第2表示手段に表示される画像を生成する、
ことを特徴とする撮像装置。
The imaging apparatus according to any one of claims 7 to 15,
First metering means for metering the back direction side;
A second photometric means for measuring the front direction side;
With
The first display image generating means further projects on the image display surface of the first display means when viewing the second subject from the pupil position of the first subject based on the photometric result of the first photometric means. Generating an image to be displayed on the first display means including the second subject to be
The second display image generating means further projects on the image display surface of the second display means when viewing the first subject from the pupil position of the second subject based on the photometric result of the second photometric means. Generating an image to be displayed on the second display means including the first subject to be
An imaging apparatus characterized by that.
請求項1に記載の撮像装置であって、
前記第2撮像手段は、互いに異なる位置に配置される第5及び第6カメラを備え、
前記第1形状検出手段は、前記第5及び第6カメラで撮像される各画像に基づいて、前記3次元座標における前記第2被写体の形状情報を検出する、
ことを特徴とする撮像装置。
The imaging apparatus according to claim 1,
The second imaging means includes fifth and sixth cameras arranged at different positions,
The first shape detection means detects shape information of the second subject in the three-dimensional coordinates based on the images captured by the fifth and sixth cameras.
An imaging apparatus characterized by that.
請求項7に記載の撮像装置であって、
前記第2撮像手段は、互いに異なる位置に配置される第5及び第6カメラを備え、
前記第1形状検出手段は、前記第5及び第6カメラで撮像される各画像に基づいて、前記3次元座標における前記第2被写体の形状情報を検出し、
前記第4撮像手段は、互いに異なる位置に配置される第7及び第8カメラを備え、
前記第2形状検出手段は、前記第7及び第8カメラで撮像される各画像に基づいて、前記3次元座標における前記第1被写体の形状情報を検出する、
ことを特徴とする撮像装置。
The imaging apparatus according to claim 7,
The second imaging means includes fifth and sixth cameras arranged at different positions,
The first shape detection means detects shape information of the second subject in the three-dimensional coordinates based on the images captured by the fifth and sixth cameras,
The fourth imaging means includes seventh and eighth cameras arranged at different positions,
The second shape detection means detects shape information of the first subject in the three-dimensional coordinates based on the images picked up by the seventh and eighth cameras.
An imaging apparatus characterized by that.
JP2011243255A 2011-11-07 2011-11-07 Imaging apparatus Pending JP2013098965A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011243255A JP2013098965A (en) 2011-11-07 2011-11-07 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011243255A JP2013098965A (en) 2011-11-07 2011-11-07 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2013098965A true JP2013098965A (en) 2013-05-20

Family

ID=48620403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011243255A Pending JP2013098965A (en) 2011-11-07 2011-11-07 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2013098965A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017179135A1 (en) * 2016-04-12 2017-10-19 株式会社オプティム Entire celestial sphere camera display image changing system, entire celestial sphere camera display image changing method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017179135A1 (en) * 2016-04-12 2017-10-19 株式会社オプティム Entire celestial sphere camera display image changing system, entire celestial sphere camera display image changing method and program
JP6393854B2 (en) * 2016-04-12 2018-09-19 株式会社オプティム Spherical camera display image change system, omnidirectional camera display image change method and program
JPWO2017179135A1 (en) * 2016-04-12 2018-11-22 株式会社オプティム Spherical camera display image change system, omnidirectional camera display image change method and program
US10389947B2 (en) 2016-04-12 2019-08-20 Optim Corporation Omnidirectional camera display image changing system, omnidirectional camera display image changing method, and program

Similar Documents

Publication Publication Date Title
TWI547828B (en) Calibration of sensors and projector
CN103412616B (en) Device camera angle
WO2020088133A1 (en) Image processing method and apparatus, electronic device and computer-readable storage medium
JP5778967B2 (en) Information processing program, information processing method, information processing apparatus, and information processing system
TW201118791A (en) System and method for obtaining camera parameters from a plurality of images, and computer program products thereof
CN107077725A (en) Data processing equipment, imaging device and data processing method
JP2012103789A (en) Object display device and object display method
JP5756322B2 (en) Information processing program, information processing method, information processing apparatus, and information processing system
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
KR20170074742A (en) Image processing device, image processing method amd program
JP2011049733A (en) Camera calibration device and video distortion correction device
US20150002641A1 (en) Apparatus and method for generating or displaying three-dimensional image
JP2013207344A (en) Detection device, imaging device, and program
KR20190027079A (en) Electronic apparatus, method for controlling thereof and the computer readable recording medium
US20220400243A1 (en) Image processing apparatus and image processing method
US11706378B2 (en) Electronic device and method of controlling electronic device
TWI545936B (en) Electronic device and calibration method thereof
JP5805013B2 (en) Captured image display device, captured image display method, and program
JP2011108028A (en) Image reproduction device, imaging device and image reproduction method
JP6444981B2 (en) Image processing apparatus, image processing method, and image processing program
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2013098965A (en) Imaging apparatus
JP2013113877A (en) Stereoscopic photographing device, and portable terminal device using the same
JP5239991B2 (en) Image processing apparatus and image processing system
JP2018032991A (en) Image display unit, image display method and computer program for image display