JP2013070153A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2013070153A
JP2013070153A JP2011205994A JP2011205994A JP2013070153A JP 2013070153 A JP2013070153 A JP 2013070153A JP 2011205994 A JP2011205994 A JP 2011205994A JP 2011205994 A JP2011205994 A JP 2011205994A JP 2013070153 A JP2013070153 A JP 2013070153A
Authority
JP
Japan
Prior art keywords
image
subject
unit
imaging
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011205994A
Other languages
Japanese (ja)
Inventor
Yuji Nakao
祐士 中尾
Daisuke Yoshizawa
大輔 吉澤
Satoshi Hasegawa
智志 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011205994A priority Critical patent/JP2013070153A/en
Publication of JP2013070153A publication Critical patent/JP2013070153A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily capture a three-dimensionally viewable image of a subject without a special constitution.SOLUTION: An imaging apparatus comprises: an imaging unit for capturing a first image; an identification unit for identifying a main subject from the first image captured by the imaging unit; a distance information acquisition unit for acquiring distance information on a distance to the main subject identified by the identification unit; and a display control unit which, when the imaging unit captures a second image having a parallax with respect to the first image, performs control to supplementarily display a supplementary image on a display unit, on the basis of the distance information acquired by the distance information acquisition unit.

Description

本発明は、画像を取得する撮像装置に関する。   The present invention relates to an imaging apparatus that acquires an image.

従来から、独立した2つの撮像手段により、右眼用の画像及び左眼用の画像等、水平方向の視差を有する一対の画像を取得し、それらを左右それぞれの眼で観察することができるように表示することにより、立体的な画像を得る方法が提案されている(例えば、特許文献1など)。   Conventionally, a pair of images having horizontal parallax, such as an image for the right eye and an image for the left eye, can be acquired by two independent imaging means, and these images can be observed with the left and right eyes. There has been proposed a method of obtaining a stereoscopic image by displaying the image (for example, Patent Document 1).

特開2005−130312号公報Japanese Patent Laid-Open No. 2005-130312

ところが、特許文献1の技術では、2つの撮像手段を有することで、製造コストの増大や、撮像装置本体が大型化するという問題がある。また、右眼用の画像と左眼用の画像との双方の向きまたは角度等が異なる場合、立体的な画像を得ることができないため、向きや角度等を合わせて撮影する必要がある。   However, in the technique of Patent Document 1, there are problems that an increase in manufacturing cost and an increase in the size of the imaging apparatus main body are caused by having two imaging means. In addition, when the right eye image and the left eye image have different orientations or angles, a three-dimensional image cannot be obtained. Therefore, it is necessary to shoot with the orientation, the angle, and the like matched.

そこで、本発明の撮像装置は、特別な構成なく、簡単に被写体の立体視が可能な画像を取得することを目的とする。   Therefore, an object of the imaging apparatus of the present invention is to obtain an image that allows a subject to be easily stereoscopically viewed without a special configuration.

本発明の撮像装置は、第1画像を取得する撮像部と、前記撮像部により取得される第1画像から主要被写体を特定する特定部と、前記特定部により特定された前記主要被写体までの距離情報を取得する距離情報取得部と、前記第1画像に対して視差を有する第2画像を前記撮像部により取得するときに、前記距離情報取得部によって取得された前記距離情報に基づいて、表示部に補助的に表示する補助画像を表示させる表示制御部と、を備えることを特徴とする。   The imaging apparatus of the present invention includes an imaging unit that acquires a first image, a specifying unit that specifies a main subject from the first image acquired by the imaging unit, and a distance to the main subject specified by the specifying unit A distance information acquisition unit that acquires information and a display based on the distance information acquired by the distance information acquisition unit when a second image having parallax with respect to the first image is acquired by the imaging unit. And a display control unit for displaying an auxiliary image to be auxiliary displayed on the unit.

また、前記第1画像における被写体を解析する解析部と、前記撮像部により前記第2画像を取得するときに、前記解析部による前記被写体の解析結果及び前記距離情報取得部により特定された前記主要被写体までの距離情報に基づいて、前記第2画像における前記主要被写体の状態を推定する推定部と、を備えるものである。   Further, when the second image is acquired by the analysis unit that analyzes the subject in the first image and the imaging unit, the analysis result of the subject by the analysis unit and the main information specified by the distance information acquisition unit An estimation unit that estimates a state of the main subject in the second image based on distance information to the subject.

また、前記推定部は、前記第1画像を取得した位置から水平方向に所定間隔移動した位置、又は前記主要被写体を中心にして、前記第1画像を取得した位置から所定角度移動した位置のいずれか一方の位置において取得される前記第2画像の前記主要被写体の状態を推定するものである。   The estimation unit may be any of a position moved in a horizontal direction from the position where the first image was acquired, or a position moved a predetermined angle from the position where the first image was acquired with the main subject as the center. The state of the main subject of the second image acquired at one of the positions is estimated.

また、前記表示制御部は、前記第1画像を取得した位置から前記第2画像を取得する位置への移動を示唆する表示と、前記撮像部の光軸が前記第2画像を取得する位置と前記主要被写体との位置とを結ぶ直線と一致するまでの前記撮像部の光軸の回転を示唆する表示とを行うものである。   Further, the display control unit includes a display that suggests a movement from a position at which the first image is acquired to a position at which the second image is acquired, and a position at which the optical axis of the imaging unit acquires the second image. The display suggests the rotation of the optical axis of the imaging unit until it coincides with a straight line connecting the position with the main subject.

また、前記推定部により推定された結果に基づく前記主要被写体の状態の表示は、前記第2画像における前記主要被写体の少なくとも一部の領域を含む補助枠の表示であることが好ましい。   Moreover, it is preferable that the display of the state of the main subject based on the result estimated by the estimation unit is a display of an auxiliary frame including at least a partial region of the main subject in the second image.

また、前記表示部は、前記解析部による前記被写体の解析結果に基づいて、前記第1画像における前記主要被写体の少なくとも一部の領域を含む被写体枠を表示することが可能であることが好ましい。   Moreover, it is preferable that the display unit can display a subject frame including at least a partial region of the main subject in the first image based on the analysis result of the subject by the analysis unit.

また、撮像倍率を指定する指定部を備え、前記補助枠は、前記第2画像の取得時に前記指定部により指定された前記撮像倍率に応じて、拡大又は縮小されることが好ましい。   In addition, it is preferable that a designating unit for designating an imaging magnification is provided, and the auxiliary frame is enlarged or reduced according to the imaging magnification designated by the designating unit when the second image is acquired.

また、前記解析部は、前記第2画像における前記被写体の状態を解析し、前記第1画像における前記被写体の解析結果と前記第2画像における前記被写体の解析結果とに基づいて、前記第1画像と前記第2画像とを用いた前記被写体の立体視が可能であるか否かを判定する判定部をさらに備えるものである。   The analysis unit analyzes the state of the subject in the second image, and based on the analysis result of the subject in the first image and the analysis result of the subject in the second image, the first image And a determination unit for determining whether or not the subject can be stereoscopically viewed using the second image.

また、前記判定部により前記被写体の立体視が不可であると判定された場合に、前記第1画像と補正後の前記第2画像とを用いた前記被写体の立体視が可能となるように、前記第2画像を補正する補正部とを備えるものである。   Further, when the determination unit determines that stereoscopic viewing of the subject is impossible, the stereoscopic viewing of the subject using the first image and the corrected second image is enabled. And a correction unit that corrects the second image.

また、前記第1画像と前記第2画像と前記補助枠とを1つのファイルに記録する記録部を備えるものである。   In addition, a recording unit that records the first image, the second image, and the auxiliary frame in one file is provided.

本発明の撮像装置によれば、特別な構成なく、簡単に被写体の立体視が可能な画像を取得することができる。   According to the imaging apparatus of the present invention, it is possible to easily obtain an image capable of stereoscopic viewing of a subject without any special configuration.

本発明の実施形態における撮像装置10の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device 10 in embodiment of this invention. 左眼用画像と被写体フレームFとを重畳表示した一例を示す図である。6 is a diagram illustrating an example in which a left-eye image and a subject frame F are displayed in a superimposed manner. FIG. 撮影を行うユーザの両眼と、被写体Sとの位置関係を示す図である。FIG. 4 is a diagram illustrating a positional relationship between both eyes of a user who performs shooting and a subject. 左眼用画像とアシストフレームAとを重畳表示した一例を示す図である。It is a figure which shows an example which superimposed and displayed the image for left eyes, and the assist frame A. FIG. 撮影時の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of imaging | photography. スルー画像の被写体SがアシストフレームAに収まる状態を示す図である。4 is a diagram illustrating a state in which a subject S of a through image is accommodated in an assist frame A. FIG. (A)撮像装置10を水平方向へ移動させることを示す図である。(B)撮像装置10をパン方向へ回転させることを示す図である。(A) It is a figure which shows moving the imaging device 10 to a horizontal direction. (B) It is a figure which shows rotating the imaging device 10 to a pan direction.

以下、図面を用いて本発明の実施形態について説明する。図1は、本実施形態における撮像装置10の構成を示すブロック図である。撮像装置10は、撮影モードの一つとして、3次元撮影モードを有している。3次元撮影モードは、左眼用画像、右眼用画像など立体画像の元になる一対の画像を取得する撮影モードである。この3次元撮影モードにおいては、ユーザは、例えば左眼用画像を取得した後、撮像装置10を移動させて、右眼用画像を取得する。この右眼用画像は、先に取得した左眼用画像に対して被写体や背景の向き等、所謂構図が異なる。そこで、この3次元撮影モードにおいては、右眼用画像を取得する前に、これから取得する右眼用画像に含まれる被写体の好ましい状態(被写体の向きや大きさ等)をユーザに認識させるためのアシスト表示を行う。なお、このアシスト表示についての詳細については、後述する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus 10 according to the present embodiment. The imaging device 10 has a three-dimensional shooting mode as one of the shooting modes. The three-dimensional shooting mode is a shooting mode for acquiring a pair of images that are sources of a stereoscopic image such as a left-eye image and a right-eye image. In this three-dimensional imaging mode, for example, after acquiring a left-eye image, the user moves the imaging device 10 to acquire a right-eye image. This right-eye image differs from the previously acquired left-eye image in so-called composition such as the direction of the subject and the background. Therefore, in this three-dimensional imaging mode, before acquiring the right-eye image, the user can recognize a preferable state (the direction and size of the object) of the subject included in the right-eye image to be acquired from now on. Assist display. Details of the assist display will be described later.

図1に示すように、撮像装置10は、撮像レンズ11、撮像素子12、A/D変換部13、バッファメモリ14、画像処理部15、表示部16、測距センサ17、加速度センサ18、メモリ19、操作部20、記録I/F部21、記録媒体22、制御部23、バス24を備える。   As shown in FIG. 1, the imaging device 10 includes an imaging lens 11, an imaging device 12, an A / D conversion unit 13, a buffer memory 14, an image processing unit 15, a display unit 16, a distance measuring sensor 17, an acceleration sensor 18, and a memory. 19, an operation unit 20, a recording I / F unit 21, a recording medium 22, a control unit 23, and a bus 24.

撮像レンズ11は、撮像素子12の結像面に被写体像を結像する。撮像素子12は、撮像レンズ11を通過した被写体光を光電変換し、R、G、Bの各色に対応するアナログ画像信号を出力する。撮影モードにおいて、撮像素子12は、所定間隔毎に間引き読み出しを行い、スルー画像を取得する。その後、撮像素子12は、後述するレリーズ釦25が全押しされると、本画像を取得する。撮像素子12から出力される画像信号は、A/D変換部13に入力される。A/D変換部13は、撮像素子12から出力されるアナログの画像信号をデジタルの画像信号に変換する。なお、このデジタルの画像信号は、1コマにまとめられ、画像データとしてバッファメモリ14に記録される。バッファメモリ14は、後述する画像処理部15による画像処理の前工程や後工程で画像データを一時的に記録する。   The imaging lens 11 forms a subject image on the imaging surface of the imaging element 12. The imaging element 12 photoelectrically converts the subject light that has passed through the imaging lens 11 and outputs analog image signals corresponding to R, G, and B colors. In the photographing mode, the image sensor 12 performs thinning readout at predetermined intervals to obtain a through image. Thereafter, the image pickup device 12 acquires a main image when a release button 25 described later is fully pressed. An image signal output from the image sensor 12 is input to the A / D converter 13. The A / D converter 13 converts the analog image signal output from the image sensor 12 into a digital image signal. The digital image signals are collected into one frame and recorded in the buffer memory 14 as image data. The buffer memory 14 temporarily records image data in the pre-process and post-process of image processing by the image processing unit 15 described later.

画像処理部15は、バッファメモリ14に記録された画像データに対して画像処理を施す。なお、この画像処理としては、周知の解像度変換処理、WB(ホワイトバランス)調整、明るさ調整、色補間、階調変換処理、輪郭強調処理等が挙げられる。また、画像処理部15は、JPEG(Joint Photographic Experts Group)形式等で圧縮する処理や、圧縮された上記のデータを伸長復元する処理をも実行する。   The image processing unit 15 performs image processing on the image data recorded in the buffer memory 14. Examples of the image processing include well-known resolution conversion processing, WB (white balance) adjustment, brightness adjustment, color interpolation, gradation conversion processing, and contour enhancement processing. The image processing unit 15 also executes processing for compressing in JPEG (Joint Photographic Experts Group) format and the like, and processing for decompressing and restoring the compressed data.

表示部16は、各種の画像を表示する。表示部16に表示される各種の画像は、スルー画像、本画像、メニュー画像、後述する記録媒体22に記録された画像等である。測距センサ17は、レリーズ釦25の半押し操作時に作動し、被写体Sまでの距離を検出する。加速度センサ18は、例えば、ジャイロセンサにより構成され、撮像装置10の移動距離や、回転角度を検出する。   The display unit 16 displays various images. Various images displayed on the display unit 16 are a through image, a main image, a menu image, an image recorded on a recording medium 22 described later, and the like. The distance measuring sensor 17 is activated when the release button 25 is half-pressed, and detects the distance to the subject S. The acceleration sensor 18 is constituted by, for example, a gyro sensor, and detects a moving distance and a rotation angle of the imaging device 10.

操作部20は、レリーズ釦25、十字キー26等を有する。操作部20は、レリーズ釦25、十字キー26等を有する。レリーズ釦25は、その半押し操作時にAE演算やAF演算、WB調整が実行される。また、レリーズ釦25は、その全押し操作時に撮像に係る処理が行われる。十字キー26は、メニュー画像の表示時等に操作される。なお、レリーズ釦25、十字キー26の状態は制御部23により検知され、検知された釦やキーの状態に基づいたシーケンスが実行される。記録I/F部21は、記録媒体22が接続されることにより、記録媒体22に対してデータの書き込み/読み出しを実行する。   The operation unit 20 includes a release button 25, a cross key 26, and the like. The operation unit 20 includes a release button 25, a cross key 26, and the like. When the release button 25 is half-pressed, AE calculation, AF calculation, and WB adjustment are executed. Further, the release button 25 performs processing related to imaging when the release button 25 is fully pressed. The cross key 26 is operated when a menu image is displayed. The states of the release button 25 and the cross key 26 are detected by the control unit 23, and a sequence based on the detected button and key states is executed. The recording I / F unit 21 writes / reads data to / from the recording medium 22 when the recording medium 22 is connected.

制御部23は、所定のシーケンスプログラムにしたがって、撮像装置10の統括的な制御を行うとともに、撮影時に必要となる各種演算(AF、AE等)を実行する。この制御部23は、解析部27、推定部28等の機能を有している。以下、これら解析部27、推定部28の機能が3次元撮影モードにて有効となる場合について説明する。   The control unit 23 performs overall control of the imaging apparatus 10 according to a predetermined sequence program, and executes various calculations (AF, AE, etc.) necessary for shooting. The control unit 23 has functions such as an analysis unit 27 and an estimation unit 28. Hereinafter, a case where the functions of the analysis unit 27 and the estimation unit 28 are effective in the three-dimensional imaging mode will be described.

解析部27は、左眼用画像が取得されたときに、この左眼用画像に含まれる被写体Sを解析する。なお、被写体Sを解析する方法としては、周知のパターンマッチングや特徴量抽出が用いられる。   When the left eye image is acquired, the analyzing unit 27 analyzes the subject S included in the left eye image. As a method for analyzing the subject S, well-known pattern matching and feature amount extraction are used.

推定部28は、解析部27により解析された解析結果に基づいて、右眼用画像取得時の被写体Sの状態を推定する。被写体Sの推定としては、被写体フレームF及びアシストフレームAの生成が挙げられる。まず、被写体フレームFについて説明する。推定部28は、左眼用画像の取得時のAF演算時に使用されるフォーカスポイント位置、解析部27により解析された被写体S及び被写体Sからの距離(以下、被写体距離M)を利用して、左眼用画像に含まれる被写体Sの状態(向き、大きさ)を示す3次元の被写体フレームFを生成する。なお、この被写体フレームFは、直方体や立方体などの枠からなる。なお、周知のように、画像は3次元で示される被写体の像を撮影光軸に直交する撮像面に投影したものであることから、表示部16に表示される被写体フレームFは、3次元の枠が撮像面に投影された状態で表示される(図2参照)。   The estimation unit 28 estimates the state of the subject S at the time of acquiring the right-eye image based on the analysis result analyzed by the analysis unit 27. The estimation of the subject S includes generation of the subject frame F and the assist frame A. First, the subject frame F will be described. The estimation unit 28 uses the focus point position used at the time of AF calculation when acquiring the image for the left eye, the subject S analyzed by the analysis unit 27 and the distance from the subject S (hereinafter, subject distance M), A three-dimensional subject frame F indicating the state (direction, size) of the subject S included in the left-eye image is generated. The subject frame F is a frame such as a rectangular parallelepiped or a cube. As is well known, since the image is obtained by projecting a three-dimensional subject image onto an imaging surface orthogonal to the photographing optical axis, the subject frame F displayed on the display unit 16 is a three-dimensional image. The frame is displayed in a state of being projected on the imaging surface (see FIG. 2).

図3は、撮影を行うユーザの両眼と、被写体Sとの位置関係を示す。人間が被写体を観察したときに被写体に対して立体感を感じる条件としては、例えば視差、言い換えれば、被写体Sと左眼Lとを結ぶ直線と、被写体Sと右眼Rとを結ぶ直線とがなす角度θが4度となることである。また、上述した角度が4度未満となる場合は、被写体までの距離(被写体距離M)が遠くなることから視差が無くなり、被写体に対して立体感を感じにくくなる。   FIG. 3 shows a positional relationship between both eyes of the user who performs shooting and the subject S. As a condition for a person to feel a stereoscopic effect when observing the subject, for example, parallax, in other words, a straight line connecting the subject S and the left eye L and a straight line connecting the subject S and the right eye R are included. The angle θ formed is 4 degrees. In addition, when the above-described angle is less than 4 degrees, the distance to the subject (subject distance M) is long, so that there is no parallax and it is difficult to feel a stereoscopic effect on the subject.

そこで、推定部28は、左眼用画像と右眼用画像とを用いた立体画像の表示の際に、被写体Sが立体視されるように、右眼用画像の構図を決定するためのアシストフレームAを生成する。なお、このアシストフレームAは、被写体フレームFを、垂直方向を軸にして所定の角度θ回転させることで生成することができる。この角度θは、以下の手順で決定される。   Accordingly, the estimation unit 28 assists in determining the composition of the right-eye image so that the subject S is stereoscopically displayed when the stereoscopic image is displayed using the left-eye image and the right-eye image. Frame A is generated. The assist frame A can be generated by rotating the subject frame F by a predetermined angle θ about the vertical direction. This angle θ is determined by the following procedure.

まず、推定部28は、被写体距離Mが閾値以下か否かを判定する。この閾値は、例えば、人間が被写体Sを観察したときに、該被写体Sに対して立体感を感じるときの被写体距離Mが挙げられる。例えば、被写体距離Mが閾値以下である場合は、推定部28は、人間の左眼Lと右眼Rとの間隔Dと被写体距離Mとを用いて角度θを算出する。一般的に、人間の左眼Lと右眼Rとの間隔Dは、6〜7cmである。一方、被写体距離Mが閾値を超える場合は、被写体Sを観察したときに、該被写体Sに対して立体感を感じなくなることから、この場合には、一般的に立体感を感じるときの角度である4度を、上記角度θとする。   First, the estimation unit 28 determines whether or not the subject distance M is less than or equal to a threshold value. As this threshold value, for example, when a human observes the subject S, the subject distance M when the subject S feels a three-dimensional feeling can be cited. For example, when the subject distance M is less than or equal to the threshold, the estimation unit 28 calculates the angle θ using the distance D between the human left eye L and the right eye R and the subject distance M. Generally, the distance D between the human left eye L and right eye R is 6 to 7 cm. On the other hand, when the subject distance M exceeds the threshold value, when the subject S is observed, the subject S does not feel a three-dimensional effect. A certain 4 degrees is defined as the angle θ.

この角度θを決定した後、推定部28は、生成された被写体フレームFを4度回転させたアシストフレームAを生成する。なお、この被写体フレームFを回転させる場合には、例えば、被写体フレームFの上面の中心を通り、垂直方向に延びる直線を軸に回転させればよい。なお、図4は、左眼用画像とアシストフレームAとを重畳表示した一例を示している。   After determining this angle θ, the estimation unit 28 generates an assist frame A obtained by rotating the generated subject frame F by 4 degrees. When rotating the subject frame F, for example, the subject frame F may be rotated about a straight line passing through the center of the upper surface of the subject frame F and extending in the vertical direction. FIG. 4 shows an example in which the left-eye image and the assist frame A are superimposed and displayed.

バス24は、バッファメモリ14、画像処理部15、表示部16、測距センサ17、加速度センサ18、記録I/F部21、制御部23を相互に接続することにより、データや信号の出入力を実行する。   The bus 24 connects the buffer memory 14, the image processing unit 15, the display unit 16, the distance measuring sensor 17, the acceleration sensor 18, the recording I / F unit 21, and the control unit 23, thereby inputting and outputting data and signals. Execute.

次に、撮影時の動作について、図5のフローチャートに基づいて説明する。なお、図5のフローチャートは、3次元撮影モードが設定されていることを前提に説明する。また、以下、撮像装置10は横向きに構えられた状態で、1つの被写体Sを撮影するシーンを例に挙げて説明する。   Next, the operation at the time of photographing will be described based on the flowchart of FIG. The flowchart in FIG. 5 will be described on the assumption that the three-dimensional imaging mode is set. In the following description, an example is given of a scene in which the imaging device 10 captures a single subject S in a state where the imaging device 10 is held sideways.

ステップS101は、レリーズ釦25が半押しされたか否かを判定する処理である。制御部23は、レリーズ釦25が半押しされたと判定した場合(ステップS101の判定がYESとなる場合)には、ステップS102に進む。一方、制御部23は、レリーズ釦25が半押しされていないと判定した場合(ステップS101の判定がNOとなる場合)には、レリーズ釦25が半押しされるまで待機する。   Step S101 is processing for determining whether or not the release button 25 is half-pressed. When it is determined that the release button 25 has been half-pressed (when the determination in step S101 is YES), the control unit 23 proceeds to step S102. On the other hand, when it is determined that the release button 25 is not half-pressed (when the determination in step S101 is NO), the control unit 23 waits until the release button 25 is half-pressed.

ステップS102は、AE、AF演算、WB調整、被写体距離Mを検出する処理である。制御部23は、AE、AF演算、WB調整を行う。また、測距センサ17は、撮像装置10から被写体Sまでの被写体距離Mを検出する。   Step S102 is processing for detecting AE, AF calculation, WB adjustment, and subject distance M. The control unit 23 performs AE, AF calculation, and WB adjustment. The distance measuring sensor 17 detects a subject distance M from the imaging apparatus 10 to the subject S.

ステップS103は、レリーズ釦25が全押しされたか否かを判定する処理である。制御部23は、レリーズ釦25が全押しされたと判定した場合(ステップS103の判定がYESとなる場合)には、ステップS104に進む。一方、制御部23は、レリーズ釦25が全押しされていないと判定した場合(ステップS103の判定がNOとなる場合)には、レリーズ釦25が全押しされるまで待機する。   Step S103 is a process for determining whether or not the release button 25 has been fully pressed. When it is determined that the release button 25 has been fully pressed (when the determination in step S103 is YES), the control unit 23 proceeds to step S104. On the other hand, when it is determined that the release button 25 is not fully pressed (when the determination in step S103 is NO), the control unit 23 waits until the release button 25 is fully pressed.

ステップS104は、左眼用画像を取得する処理である。撮像素子12は、左眼用画像を取得する。その後、撮像素子12は、スルー画像を取得する。   Step S104 is processing for acquiring a left-eye image. The image sensor 12 acquires an image for the left eye. Thereafter, the image sensor 12 acquires a through image.

ステップS105は、被写体Sを解析する処理である。解析部27は、左眼用画像の被写体Sを解析する。   Step S105 is processing for analyzing the subject S. The analysis unit 27 analyzes the subject S of the left-eye image.

ステップS106は、被写体フレームFを生成する処理である。推定部28は、ステップS102でAF演算時に使用されたフォーカスポイント位置、解析部27により解析された被写体S及び被写体距離Mを利用して、左眼用画像に含まれる被写体Sの状態を示す被写体フレームFを生成する。   Step S106 is processing to generate a subject frame F. The estimation unit 28 uses the focus point position used in the AF calculation in step S102, the subject S and the subject distance M analyzed by the analysis unit 27, and the subject indicating the state of the subject S included in the left-eye image. A frame F is generated.

ステップS107は、アシストフレームAを生成する処理である。まず、推定部28は、ステップS102で検出した被写体距離Mが閾値以下か否かを判定し、この判定結果に基づいて、被写体フレームFを回転させるときの角度θを決定する。例えば、被写体距離Mが閾値以下であると判定した場合には、推定部28は、被写体距離M及び左眼と右眼との間隔Dを用いて、角度θを算出する。一方、被写体距離Mが閾値を超えると判定した場合には、推定部28は上述した角度θを4度に決定する。最後に、推定部28は、先に生成されている被写体フレームFを、所定方向に算出した角度θ回転させる。推定部28は、被写体フレームFを角度θ回転させることで、アシストフレームAを生成する。   Step S107 is a process for generating the assist frame A. First, the estimation unit 28 determines whether or not the subject distance M detected in step S102 is equal to or smaller than a threshold value, and determines an angle θ for rotating the subject frame F based on the determination result. For example, when it is determined that the subject distance M is equal to or less than the threshold, the estimation unit 28 calculates the angle θ using the subject distance M and the distance D between the left eye and the right eye. On the other hand, when it is determined that the subject distance M exceeds the threshold, the estimation unit 28 determines the angle θ described above to be 4 degrees. Finally, the estimating unit 28 rotates the previously generated subject frame F by the angle θ calculated in a predetermined direction. The estimation unit 28 generates the assist frame A by rotating the subject frame F by an angle θ.

ステップS108は、アシストフレームAとスルー画像とを重畳表示する処理である。表示部16は、アシストフレームAとスルー画像とを重畳表示する。これにより、アシスト表示が行われる。例えば、ユーザは、撮像装置10を右方向に水平移動させる。次に、ユーザは、撮像装置10を水平方向へ移動させた直後の撮像レンズ11の光軸が、被写体Sの位置と右眼用画像を取得する位置とを結ぶ直線に一致するように、撮像装置10を回転(以下、パン方向へ回転)させる。これにより、図6に示すように、スルー画像の被写体Sは、アシストフレームAに収まる状態になる。   Step S108 is a process for displaying the assist frame A and the through image in a superimposed manner. The display unit 16 superimposes and displays the assist frame A and the through image. Thereby, an assist display is performed. For example, the user horizontally moves the imaging device 10 in the right direction. Next, the user performs imaging so that the optical axis of the imaging lens 11 immediately after moving the imaging device 10 in the horizontal direction matches a straight line connecting the position of the subject S and the position for acquiring the right-eye image. The apparatus 10 is rotated (hereinafter, rotated in the pan direction). Thereby, as shown in FIG. 6, the subject S of the through image is in a state of being accommodated in the assist frame A.

ステップS109からS111は、ステップS101からS103と同様の処理である。なお、ステップS110において、制御部23は、右眼用画像の明るさや色合いが左眼用画像と同様になるようにAE演算、WB調整を行う。   Steps S109 to S111 are the same processes as steps S101 to S103. In step S110, the control unit 23 performs AE calculation and WB adjustment so that the brightness and color of the right-eye image are the same as those of the left-eye image.

ステップS112は、右眼用画像を取得する処理である。撮像素子12は、右眼用画像を取得する。   Step S112 is processing for acquiring a right-eye image. The image sensor 12 acquires a right-eye image.

ステップS113は、左眼用画像と右眼用画像とを用いて、被写体Sの立体視が不可であるか否かを判定する処理である。まず、解析部27は、右眼用画像から被写体Sを解析し、被写体Sの大きさ、位置、向き等を検出する。次に、制御部23は、左眼用画像と右眼用画像との被写体Sの大きさ、位置、向き等を比較し、左眼用画像と右眼用画像とを用いて、被写体Sの立体視が不可であるか否かを判定する。制御部23は、被写体Sの立体視が不可であると判定した場合(ステップS113の判定がYESとなる場合)には、ステップS114に進む。一方、制御部23は、被写体Sの立体視が可能であると判定した場合(ステップS113の判定がNOとなる場合)には、ステップS115に進む。   Step S113 is processing for determining whether or not stereoscopic viewing of the subject S is impossible using the left-eye image and the right-eye image. First, the analysis unit 27 analyzes the subject S from the right-eye image and detects the size, position, orientation, and the like of the subject S. Next, the control unit 23 compares the size, position, orientation, and the like of the subject S between the left-eye image and the right-eye image, and uses the left-eye image and the right-eye image. It is determined whether or not stereoscopic viewing is impossible. If the control unit 23 determines that stereoscopic viewing of the subject S is not possible (when the determination in step S113 is YES), the control unit 23 proceeds to step S114. On the other hand, when the control unit 23 determines that stereoscopic viewing of the subject S is possible (when the determination in step S113 is NO), the control unit 23 proceeds to step S115.

ステップS114は、補正する処理である。画像処理部15は、左眼用画像と補正後の右眼用画像とを用いて、被写体Sの立体視が可能となるように、右眼用画像を補正する。例えば、画像処理部15は、被写体距離Mや、左眼用画像と右眼用画像との被写体Sの目や顔の大きさ、被写体Sの高さなどを比較することにより、左眼用画像と右眼用画像との被写体Sの大きさが一致するか否かを判定する。画像処理部15は、左眼用画像と右眼用画像との被写体Sの大きさが異なる場合は、左眼用画像の被写体Sの大きさに合うように、右眼用画像の被写体Sが含まれる領域を拡大するか、又は右眼用画像を縮小する。   Step S114 is a process for correcting. The image processing unit 15 corrects the right-eye image using the left-eye image and the corrected right-eye image so that the subject S can be stereoscopically viewed. For example, the image processing unit 15 compares the subject distance M, the size of the eye or face of the subject S between the left eye image and the right eye image, the height of the subject S, and the like, thereby comparing the left eye image. It is determined whether or not the size of the subject S matches the right-eye image. When the size of the subject S is different between the left eye image and the right eye image, the image processing unit 15 determines that the subject S of the right eye image matches the size of the subject S of the left eye image. The included area is enlarged or the right-eye image is reduced.

また、画像処理部15は、左眼用画像と右眼用画像との被写体Sの位置が合わない場合は、左眼用画像の被写体Sの位置に合うように、右眼用画像の水平位置と垂直位置とを補正するか、又は傾きを補正する。また、画像処理部15は、左眼用画像と右眼用画像との被写体Sの向きが合わない場合は、被写体Sの目、鼻、口の位置や相対距離などから被写体Sの向きを検出し、検出した被写体Sの向きが所定の方向になるように補正する。さらに、画像処理部15は、左眼用画像と右眼用画像との明るさや色合いが合わない場合は、左眼用画像の明るさや色合いに合うように、右眼用画像に輝度補正、色相補正等を行う。   Further, when the position of the subject S in the left-eye image and the right-eye image does not match, the image processing unit 15 adjusts the horizontal position of the right-eye image so as to match the position of the subject S in the left-eye image. And the vertical position are corrected, or the inclination is corrected. Further, the image processing unit 15 detects the orientation of the subject S from the positions, relative distances, and the like of the subject's eyes, nose, and mouth when the orientation of the subject S does not match the left-eye image and the right-eye image. Then, the detected direction of the subject S is corrected so as to be a predetermined direction. Further, if the brightness and hue of the left-eye image and the right-eye image do not match, the image processing unit 15 performs luminance correction and hue on the right-eye image so as to match the brightness and hue of the left-eye image. Make corrections.

ステップS115は、記録する処理である。制御部23は、ステップS114の画像補正を行った場合には、ステップS104で取得した左眼用画像、ステップS106で生成したアシストフレームA、ステップS114で補正を行った右眼用画像を同一のファイルに記録する。一方、制御部23は、ステップS114の画像補正を行っていない場合には、ステップS104で取得した左眼用画像、ステップS106で生成したアシストフレームA、ステップS112で取得した右眼用画像を同一のファイルに記録する。なお、制御部23は、このファイルを、マルチピクチャフォーマット規格に準拠したファイル形式で記録してもよい。   Step S115 is a recording process. When the image correction in step S114 is performed, the control unit 23 uses the same image for the left eye acquired in step S104, the assist frame A generated in step S106, and the image for the right eye corrected in step S114. Record to file. On the other hand, when the image correction of step S114 is not performed, the control unit 23 matches the left-eye image acquired in step S104, the assist frame A generated in step S106, and the right-eye image acquired in step S112. To the file. Note that the control unit 23 may record this file in a file format conforming to the multi-picture format standard.

以上説明したように、本実施形態の撮像装置10は、先に取得した左眼用画像に基づいてアシストフレームAを生成し、生成したアシストフレームAをスルー画像に重畳表示する。そのため、右眼用画像を取得するときに、ユーザにとって直感的でわかりやすいアシスト表示を行うことができる。したがって、本実施形態の撮像装置10によれば、特別な構成なく、簡単に被写体Sの立体視が可能な画像を取得することができる。   As described above, the imaging device 10 according to the present embodiment generates the assist frame A based on the previously acquired image for the left eye, and displays the generated assist frame A in a superimposed manner on the through image. Therefore, when the right-eye image is acquired, it is possible to perform assist display that is intuitive and easy for the user to understand. Therefore, according to the imaging device 10 of the present embodiment, it is possible to easily obtain an image that allows the subject S to be stereoscopically viewed without any special configuration.

また、撮像装置10は、左眼用画像、右眼用画像、アシストフレームAを同一のファイルに記録するため、ユーザにとって扱いやすいファイルとなる。   Moreover, since the imaging device 10 records the image for the left eye, the image for the right eye, and the assist frame A in the same file, the file is easy to handle for the user.

なお、上記の実施形態では、被写体フレームF、アシストフレームAは、直方体や立方体などの枠からなる例を説明したが、これに限らない。例えば、アシストフレームAは、右眼用画像の被写体Sを補助的に表示したものでもよい。   In the above-described embodiment, the subject frame F and the assist frame A have been described as being composed of frames such as a rectangular parallelepiped or a cube, but the present invention is not limited thereto. For example, the assist frame A may be an auxiliary display of the subject S of the right eye image.

また、左眼用画像及び右眼用画像を用いて、被写体Sを立体視する方法は限定されない。例えば、ユーザは、左眼用画像と右眼用画像とを用いて、平行法又は交差法により、被写体Sを立体視してもよい。また、表示部16に液晶シャッタを備え、この液晶シャッタに対応して、左眼用画像と右眼用画像とを交互に表示してもよい。さらに、左眼用画像と右眼用画像とが縦方向の縞状に交互に配置された立体テレビ用の画像を画像処理部15が生成してもよい。   The method for stereoscopically viewing the subject S using the left-eye image and the right-eye image is not limited. For example, the user may stereoscopically view the subject S by the parallel method or the intersection method using the left-eye image and the right-eye image. Further, the display unit 16 may be provided with a liquid crystal shutter, and the left eye image and the right eye image may be alternately displayed corresponding to the liquid crystal shutter. Further, the image processing unit 15 may generate a stereoscopic television image in which left-eye images and right-eye images are alternately arranged in a vertical stripe pattern.

また、上記の実施形態では、被写体Sの全体を含むアシストフレームAを生成する例を示したが、これに限らない。例えば、顔など被写体Sの一部のみを含むアシストフレームAを生成してもよい。   In the above embodiment, an example in which the assist frame A including the entire subject S is generated has been described. However, the present invention is not limited to this. For example, the assist frame A including only a part of the subject S such as a face may be generated.

また、上記の実施形態では、1つの被写体Sを撮影するシーンを例に挙げて説明したが、複数の被写体Sを撮影するシーンにも対応できる。この場合、ステップS105の後で、制御部23は、ステップS104で取得した左眼用画像を表示部16に表示し、ユーザから十字キー26を介して、基準となる被写体Sの選択を受け付ければよい。   In the above-described embodiment, a scene where one subject S is photographed has been described as an example. However, a scene where a plurality of subjects S are photographed can also be handled. In this case, after step S105, the control unit 23 displays the image for the left eye acquired in step S104 on the display unit 16, and accepts selection of the reference subject S from the user via the cross key 26. That's fine.

また、上記の実施形態では、アシストフレームAのみをスルー画像と重畳表示する例を示したが、これに限らない。例えば、解析部27は、加速度センサ18により検出された撮像装置10の移動距離や、回転角度に基づいて、スルー画像が取得される毎に、被写体Sを解析する。同様に、推定部28は、解析部27により解析された被写体Sに基づいて、スルー画像が取得される毎に、被写体フレームFを随時生成する。そして、表示部16は、被写体フレームFとアシストフレームAとスルー画像とを重畳表示する。これにより、ユーザは、被写体フレームFを随時認識することができる。   In the above embodiment, an example in which only the assist frame A is superimposed and displayed on the through image is shown, but the present invention is not limited to this. For example, the analysis unit 27 analyzes the subject S every time a through image is acquired based on the moving distance and the rotation angle of the imaging device 10 detected by the acceleration sensor 18. Similarly, the estimation unit 28 generates a subject frame F at any time based on the subject S analyzed by the analysis unit 27 every time a through image is acquired. Then, the display unit 16 superimposes and displays the subject frame F, the assist frame A, and the through image. Thereby, the user can recognize the subject frame F at any time.

また、制御部23は、スルー画像に表示した被写体フレームFとアシストフレームAとが一致したときに、被写体フレームFの色を変える等により、ユーザに一致したことを通知してもよい。また、制御部23は、スルー画像に表示した被写体フレームFとアシストフレームAとが一致したときに、自動的に右眼用画像を取得するよう撮像素子12を制御してもよい。   In addition, when the subject frame F displayed on the through image matches the assist frame A, the control unit 23 may notify the user of the match by changing the color of the subject frame F or the like. Further, the control unit 23 may control the image sensor 12 to automatically acquire the right eye image when the subject frame F displayed on the through image matches the assist frame A.

また、アシストフレームAの補助として、図7(A)に示すように、撮像装置10を水平方向へ移動させることを示す矢印30、「右方向へ水平移動」のメッセージ31を表示してもよい。また、図7(B)に示すように、撮像装置10を左方向へ回転させることを示す矢印32、撮像装置10を上から見た図33、「パン方向へ回転」のメッセージ34を表示してもよい。また、推定部28は、右眼用画像を取得するときの、撮像装置10の水平方向への移動距離及びパン方向への回転角度を算出し、これらを表示部16に表示してもよい。さらに、撮像装置10に音声を発生する発生部を備え、メッセージ31やメッセージ34を音声で発してもよい。これらの表示や音声により、ユーザにとって、さらにわかりやすいアシスト表示を行うことができる。   Further, as an assist of the assist frame A, as shown in FIG. 7A, an arrow 30 indicating that the imaging apparatus 10 is moved in the horizontal direction and a message 31 “moving horizontally in the right direction” may be displayed. . Further, as shown in FIG. 7B, an arrow 32 indicating that the imaging device 10 is rotated leftward, FIG. 33 when the imaging device 10 is viewed from above, and a message “Rotate in panning” 34 are displayed. May be. Further, the estimation unit 28 may calculate the movement distance in the horizontal direction and the rotation angle in the pan direction of the imaging device 10 when acquiring the right-eye image, and may display them on the display unit 16. Furthermore, the imaging device 10 may be provided with a generating unit that generates sound, and the message 31 and the message 34 may be generated by sound. With these displays and voices, it is possible to perform an assist display that is easier to understand for the user.

なお、アシストフレームAを表示せずに、矢印30又は矢印32のみ、或いは、メッセージ31又はメッセージ34のみを表示してもよいし、矢印とメッセージとの両方を表示してもよい。   Instead of displaying the assist frame A, only the arrow 30 or the arrow 32, or only the message 31 or the message 34 may be displayed, or both the arrow and the message may be displayed.

また、先に取得した左眼用画像の全て、又はその一部を補助画像とすることも可能である。ここで、左眼用画像の少なくとも一部を補助画像とする場合、左眼用画像を少しずらして補助画像とする。   It is also possible to use all or part of the left-eye image acquired earlier as an auxiliary image. Here, when at least a part of the image for the left eye is used as the auxiliary image, the image for the left eye is slightly shifted to form the auxiliary image.

また、GPS情報を利用してもよい。例えば、撮像装置10にGPS受信機を設け、このGPS受信機により、GPS衛星からのGPS情報を取得する。制御部23は、GPS情報及びアシストフレームAに基づいて、左眼用画像と右眼用画像とを用いて被写体Sの立体視が可能となる、右眼画像の取得位置を算出する。その後、制御部23は、撮像装置10がその位置に移動したときに、アラームなどによって、ユーザに右眼用画像を取得する位置に到達したことを通知する。これにより、撮像装置10と被写体Sとの被写体距離Mが大きい場合であっても、適切な位置で右眼用画像を取得することができる。   Further, GPS information may be used. For example, the imaging apparatus 10 is provided with a GPS receiver, and GPS information from a GPS satellite is acquired by the GPS receiver. Based on the GPS information and the assist frame A, the control unit 23 calculates the acquisition position of the right eye image that enables stereoscopic viewing of the subject S using the left eye image and the right eye image. Thereafter, when the imaging device 10 moves to the position, the control unit 23 notifies the user that the position for acquiring the right-eye image has been reached by an alarm or the like. Thereby, even when the subject distance M between the imaging device 10 and the subject S is large, the right-eye image can be acquired at an appropriate position.

また、上記の実施形態では、左眼用画像と右眼用画像とを用いて、被写体Sの立体視が不可であるか否かを判定する例を示したが、これに限らない。例えば、左眼用画像と、右眼用画像を取得する前のスルー画像とを用いて、被写体Sの立体視が不可であるか否かを判定してもよい。この場合、制御部23は、左眼用画像とスルー像との被写体Sの大きさが異なる場合は、左眼用画像の被写体Sの大きさに合うように、光学ズーム又は電子ズームにより、スルー画像を拡大表示又は縮小表示する。また、制御部23は、左眼用画像とスルー画像との被写体Sの位置又は向きが合わない場合は、位置又は向きがあっていない旨のメッセージを表示する。これにより、左眼用画像と右眼用画像とを用いて、被写体Sを立体視できる可能性が高くなる。なお、画像処理部15は、電子ズームによりスルー画像を拡大又は縮小した場合、右眼用画像も同様に拡大又は縮小する。   In the above-described embodiment, an example in which it is determined whether stereoscopic vision of the subject S is impossible using the left-eye image and the right-eye image is not limited thereto. For example, it may be determined whether or not stereoscopic viewing of the subject S is impossible using the left-eye image and the through image before acquiring the right-eye image. In this case, when the size of the subject S of the left-eye image and the through image is different, the control unit 23 uses the optical zoom or the electronic zoom to match the size of the subject S of the left-eye image. Zoom in or zoom out the image. In addition, when the position or orientation of the subject S in the left-eye image and the through-image does not match, the control unit 23 displays a message indicating that there is no position or orientation. This increases the possibility that the subject S can be stereoscopically viewed using the left-eye image and the right-eye image. Note that when the through image is enlarged or reduced by the electronic zoom, the image processing unit 15 similarly enlarges or reduces the right-eye image.

また、上記の実施形態では、ステップS113で被写体Sの立体視が不可であると判定した場合に、右眼用画像を補正する例を示したが、これに限らない。例えば、制御部23は、被写体Sの立体視が不可であると判定した場合に、警告を表示し、右眼用画像を再度取得するように促してもよい。さらに、制御部23は、左眼用画像と右眼用画像との被写体Sの大きさ、位置、向き等のずれが大きく、補正不可と判定した場合に、警告を表示し、右眼用画像を再度取得するように促してもよい。   In the above-described embodiment, an example in which the right-eye image is corrected when it is determined in step S113 that stereoscopic viewing of the subject S is impossible has been described, but the present invention is not limited thereto. For example, when it is determined that stereoscopic viewing of the subject S is impossible, the control unit 23 may display a warning and prompt the user to acquire the right eye image again. Furthermore, the control unit 23 displays a warning and determines the right-eye image when it determines that correction is impossible because the deviation of the size, position, orientation, and the like of the subject S between the left-eye image and the right-eye image is large. You may be prompted to get it again.

また、上記の実施形態では、先に左眼用画像を取得してから、右眼用画像を取得する例を示したが、先に右眼用画像を取得してから、左眼用画像を取得してもよい。   In the above-described embodiment, an example is shown in which the image for the right eye is acquired after the image for the left eye is acquired first, but the image for the left eye is acquired after the image for the right eye is acquired first. You may get it.

また、左眼用画像を取得した位置と右眼用画像を取得する位置との間隔が広くなるほど、立体感をより強調することができる。そのため、弱、中、強など立体感の程度をユーザが設定できるようにし、ユーザが設定した程度に応じて、左眼用画像を取得した位置と右眼用画像を取得する位置との間隔を変更してもよい。   In addition, as the interval between the position where the image for the left eye is acquired and the position where the image for the right eye is acquired becomes wider, the stereoscopic effect can be more emphasized. Therefore, the user can set the degree of stereoscopic effect such as weak, medium and strong, and the interval between the position where the left eye image is acquired and the position where the right eye image is acquired is set according to the degree set by the user. It may be changed.

また、上記の実施形態では、左眼用画像と右眼用画像とを取得する際の撮像倍率が同じである例を示したが、これに限らない。例えば、左眼用画像取得後に、撮像倍率が変更された場合、推定部28は、変更された撮像倍率に応じて、アシストフレームAを拡大又は縮小する。   Further, in the above-described embodiment, an example in which the imaging magnification when acquiring the left-eye image and the right-eye image is the same is shown, but the present invention is not limited to this. For example, when the imaging magnification is changed after the left-eye image is acquired, the estimation unit 28 enlarges or reduces the assist frame A according to the changed imaging magnification.

また、上記の実施形態では、撮像装置10の向きが横向きに構えられた状態を例に挙げて説明したが、縦向きに構えられた状態にも対応できる。さらに、推定部28は、左眼用画像の取得後、加速度センサ18により撮像装置10の向きが横向きから縦向きに変更されたことが検出された場合は、縦向き用のアシストフレームAを生成する。   In the above-described embodiment, the state in which the orientation of the imaging device 10 is held sideways has been described as an example. However, the state in which the image pickup apparatus 10 is held vertically can also be handled. Furthermore, the estimation unit 28 generates an assist frame A for portrait orientation when the acceleration sensor 18 detects that the orientation of the imaging device 10 has been changed from landscape orientation to portrait orientation after acquiring the left-eye image. To do.

また、上記の実施形態では、撮像装置10を例に挙げて説明したが、これに限らない。例えば、撮像機能を備える携帯電話機等の携帯型端末機器にも本発明を同様に適用することができる。   In the above embodiment, the imaging apparatus 10 has been described as an example, but the present invention is not limited to this. For example, the present invention can be similarly applied to a portable terminal device such as a mobile phone having an imaging function.

10…撮像装置、12…撮像素子、15…画像処理部、16…表示部、17…測距センサ、18…加速度センサ、23…制御部、27…解析部、28…推定部 DESCRIPTION OF SYMBOLS 10 ... Imaging device, 12 ... Image sensor, 15 ... Image processing part, 16 ... Display part, 17 ... Distance sensor, 18 ... Acceleration sensor, 23 ... Control part, 27 ... Analysis part, 28 ... Estimation part

Claims (10)

第1画像を取得する撮像部と、
前記撮像部により取得される第1画像から主要被写体を特定する特定部と、
前記特定部により特定された前記主要被写体までの距離情報を取得する距離情報取得部と、
前記第1画像に対して視差を有する第2画像を前記撮像部により取得するときに、前記距離情報取得部によって取得された前記距離情報に基づいて、表示部に補助的に表示する補助画像を表示させる表示制御部と、
を備えることを特徴とする撮像装置。
An imaging unit for acquiring a first image;
A specifying unit for specifying a main subject from the first image acquired by the imaging unit;
A distance information acquisition unit that acquires distance information to the main subject specified by the specification unit;
When the second image having parallax with respect to the first image is acquired by the imaging unit, an auxiliary image to be auxiliary displayed on the display unit based on the distance information acquired by the distance information acquisition unit A display control unit to display;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記第1画像における被写体を解析する解析部と、
前記撮像部により前記第2画像を取得するときに、前記解析部による前記被写体の解析結果及び前記距離情報取得部により特定された前記主要被写体までの距離情報に基づいて、前記第2画像における前記主要被写体の状態を推定する推定部と、を備えることを特徴とする撮像装置。
The imaging device according to claim 1,
An analysis unit for analyzing a subject in the first image;
When acquiring the second image by the imaging unit, based on the analysis result of the subject by the analysis unit and the distance information to the main subject specified by the distance information acquisition unit, the second image in the second image An imaging apparatus comprising: an estimation unit that estimates a state of a main subject.
請求項2に記載の撮像装置において、
前記推定部は、前記第1画像を取得した位置から水平方向に所定間隔移動した位置、又は前記主要被写体を中心にして、前記第1画像を取得した位置から所定角度移動した位置のいずれか一方の位置において取得される前記第2画像の前記主要被写体の状態を推定することを特徴とする撮像装置。
The imaging device according to claim 2,
The estimation unit is either one of a position moved in a horizontal direction from the position where the first image was acquired, or a position moved a predetermined angle from the position where the first image was acquired around the main subject. An imaging apparatus, wherein the state of the main subject of the second image acquired at the position of is estimated.
請求項1から請求項3のいずれか1項に記載の撮像装置において、
前記表示制御部は、前記第1画像を取得した位置から前記第2画像を取得する位置への移動を示唆する表示と、前記撮像部の光軸が前記第2画像を取得する位置と前記主要被写体との位置とを結ぶ直線と一致するまでの前記撮像部の光軸の回転を示唆する表示とを行うことを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 3,
The display control unit includes a display suggesting a movement from a position where the first image is acquired to a position where the second image is acquired, a position where the optical axis of the imaging unit acquires the second image, and the main An image pickup apparatus that performs display suggesting rotation of an optical axis of the image pickup unit until it coincides with a straight line connecting a position with a subject.
請求項1から請求項4のいずれか1項に記載の撮像装置において、
前記推定部により推定された結果に基づく前記主要被写体の状態の表示は、前記第2画像における前記主要被写体の少なくとも一部の領域を含む補助枠の表示であることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 4,
The display of the state of the main subject based on the result estimated by the estimation unit is a display of an auxiliary frame including at least a partial region of the main subject in the second image.
請求項5に記載の撮像装置において、
前記表示部は、前記解析部による前記被写体の解析結果に基づいて、前記第1画像における前記主要被写体の少なくとも一部の領域を含む被写体枠を表示することが可能であることを特徴とする撮像装置。
The imaging apparatus according to claim 5,
The display unit is capable of displaying a subject frame including at least a partial region of the main subject in the first image based on an analysis result of the subject by the analysis unit. apparatus.
請求項5又は請求項6に記載の撮像装置において、
撮像倍率を指定する指定部を備え、
前記補助枠は、前記第2画像の取得時に前記指定部により指定された前記撮像倍率に応じて、拡大又は縮小されることを特徴とする撮像装置。
In the imaging device according to claim 5 or 6,
It has a specification part that specifies the imaging magnification,
The imaging apparatus according to claim 1, wherein the auxiliary frame is enlarged or reduced according to the imaging magnification designated by the designation unit when the second image is acquired.
請求項1から請求項7のいずれか1項に記載の撮像装置において、
前記解析部は、前記第2画像における前記被写体の状態を解析し、
前記第1画像における前記被写体の解析結果と前記第2画像における前記被写体の解析結果とに基づいて、前記第1画像と前記第2画像とを用いた前記被写体の立体視が可能であるか否かを判定する判定部をさらに備えることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 7,
The analysis unit analyzes the state of the subject in the second image;
Whether the subject can be stereoscopically viewed using the first image and the second image based on the analysis result of the subject in the first image and the analysis result of the subject in the second image. An imaging apparatus, further comprising a determination unit that determines whether or not.
請求項8に記載の撮像装置において、
前記判定部により前記被写体の立体視が不可であると判定された場合に、前記第1画像と補正後の前記第2画像とを用いた前記被写体の立体視が可能となるように、前記第2画像を補正する補正部とを備えることを特徴とする撮像装置。
The imaging device according to claim 8,
When the determination unit determines that stereoscopic viewing of the subject is impossible, the stereoscopic viewing of the subject using the first image and the corrected second image is possible. An imaging apparatus comprising: a correction unit that corrects two images.
請求項5から請求項7のいずれか1項に記載の撮像装置において、
前記第1画像と前記第2画像と前記補助枠とを1つのファイルに記録する記録部を備えることを特徴とする撮像装置。
The imaging apparatus according to any one of claims 5 to 7,
An imaging apparatus comprising: a recording unit that records the first image, the second image, and the auxiliary frame in one file.
JP2011205994A 2011-09-21 2011-09-21 Imaging apparatus Withdrawn JP2013070153A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011205994A JP2013070153A (en) 2011-09-21 2011-09-21 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011205994A JP2013070153A (en) 2011-09-21 2011-09-21 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2013070153A true JP2013070153A (en) 2013-04-18

Family

ID=48475368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011205994A Withdrawn JP2013070153A (en) 2011-09-21 2011-09-21 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2013070153A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015231178A (en) * 2014-06-06 2015-12-21 日本電信電話株式会社 Image selection device, stereoscopic image display system, image selection method, and image selection program
JP2019043727A (en) * 2017-09-01 2019-03-22 株式会社日立ビルシステム Portable terminal device and component deterioration determination program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015231178A (en) * 2014-06-06 2015-12-21 日本電信電話株式会社 Image selection device, stereoscopic image display system, image selection method, and image selection program
JP2019043727A (en) * 2017-09-01 2019-03-22 株式会社日立ビルシステム Portable terminal device and component deterioration determination program

Similar Documents

Publication Publication Date Title
JP4657313B2 (en) Stereoscopic image display apparatus and method, and program
JP5140210B2 (en) Imaging apparatus and image processing method
JP5204350B2 (en) Imaging apparatus, playback apparatus, and image processing method
JP5204349B2 (en) Imaging apparatus, playback apparatus, and image processing method
JP2010278878A (en) Stereoscopic image device and display image switching method thereof
TW201200959A (en) One-eyed stereo photographic device
US8648953B2 (en) Image display apparatus and method, as well as program
KR20120012201A (en) Method for photographing panorama picture
JP2010068182A (en) Three-dimensional imaging device, method, and program
JPWO2011121818A1 (en) Compound eye imaging apparatus, parallax adjustment method and program thereof
JP5449551B2 (en) Image output apparatus, method and program
JP6155471B2 (en) Image generating apparatus, imaging apparatus, and image generating method
JP2014154907A (en) Stereoscopic imaging apparatus
JP5891645B2 (en) Imaging apparatus and program
JP2011035642A (en) Multiple eye photographing device, and adjustment method and program thereof
US9094671B2 (en) Image processing device, method, and recording medium therefor
US9124866B2 (en) Image output device, method, and recording medium therefor
JP2013070153A (en) Imaging apparatus
JP2012227653A (en) Imaging apparatus and imaging method
JP2015080169A (en) Image-capturing device and control method therefor
JP5351878B2 (en) Stereoscopic image display apparatus and method, and program
JP2016036081A (en) Image processing device, method and program, and recording medium
JP2014155126A (en) Display device, display method, and program
JP5409481B2 (en) Compound eye photographing apparatus and program
JP2005072674A (en) Three-dimensional image generating apparatus and three-dimensional image generating system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202