JP2013017125A - Imaging apparatus and display method for monitoring image of the same - Google Patents

Imaging apparatus and display method for monitoring image of the same Download PDF

Info

Publication number
JP2013017125A
JP2013017125A JP2011150113A JP2011150113A JP2013017125A JP 2013017125 A JP2013017125 A JP 2013017125A JP 2011150113 A JP2011150113 A JP 2011150113A JP 2011150113 A JP2011150113 A JP 2011150113A JP 2013017125 A JP2013017125 A JP 2013017125A
Authority
JP
Japan
Prior art keywords
screen
imaging
image
main subject
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011150113A
Other languages
Japanese (ja)
Inventor
Takuo Yasuda
拓郎 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011150113A priority Critical patent/JP2013017125A/en
Publication of JP2013017125A publication Critical patent/JP2013017125A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of preventing a main subject region in a screen from being hidden by a slave screen when the slave screen is overlapped with a prescribed region in the screen of a display section to display an image.SOLUTION: When a first monitoring image obtained by first imaging means (photographing lens, CCD image sensor) is displayed on a screen of a liquid crystal monitor 8 and a second monitoring image which is obtained by second imaging means (distance measuring apparatus) and includes a photographing field angle range of the first monitoring image is displayed with the slave screen 30 overlapped with a prescribed position in the screen upon monitoring before photographing, control for moving the position of the slave screen 30 and/or reducing the size of the slave screen 30 is performed so that the slave screen 30 is not overlapped with the main subject region (face detection frame A) displayed on the screen during monitoring.

Description

本発明は、撮影時や撮影画像の再生時に、撮影画像や再生画像などを表示可能な表示部を有するデジタルカメラ等の撮像装置、及び撮像装置のモニタリング画像の表示方法に関する。   The present invention relates to an imaging device such as a digital camera having a display unit capable of displaying a captured image, a reproduced image, and the like at the time of shooting or playback of a shot image, and a monitoring image display method of the imaging device.

デジタルカメラには、撮影時や撮影画像の再生時に、撮影画像や再生画像などを表示するための液晶モニタ(LCD)などの表示部が背面側に設けられている。また、レリーズボタンを押下げ操作する撮影前のモニタリング時においては、この表示部は電子ファインダとして機能し、撮影レンズを通して得られる被写体のスルー画像が表示部に表示される。これにより、撮影者はモニタリング時に表示部に表示されるスルー画像を見ながら構図等を確認することができる。   The digital camera is provided with a display unit such as a liquid crystal monitor (LCD) on the back side for displaying a photographed image or a reproduced image when photographing or reproducing a photographed image. Further, during monitoring before shooting by pressing the release button, this display unit functions as an electronic viewfinder, and a through image of the subject obtained through the shooting lens is displayed on the display unit. Thus, the photographer can check the composition and the like while viewing the through image displayed on the display unit during monitoring.

ところで、近年、前記表示部の画面の中のある領域に子画面を重ねて、この子画面にも画像を表示することができるようにしたデジタルカメラが提案されている(例えば特許文献1)。   In recent years, a digital camera has been proposed in which a small screen is superimposed on a certain area in the screen of the display unit and an image can be displayed on the small screen (for example, Patent Document 1).

前記特許文献1の発明では、表示部の画面にモニタリング画像のうちの所定領域(例えば、人物)をズームして拡大した画像を表示し、子画面に前記モニタリング画像全体を縮小して表示するようにしている。   In the invention of Patent Document 1, an image obtained by zooming and enlarging a predetermined area (for example, a person) of the monitoring image is displayed on the screen of the display unit, and the entire monitoring image is reduced and displayed on the sub-screen. I have to.

ところで、前記特許文献1の発明では、表示部の画面の中に重ねられる子画面の位置と大きさが固定されている。このため、画面に表示されるモニタリング画像の所定の領域を拡大した主要被写体領域(例えば、人物の顔部)の一部が子画面と重なる位置にあると、主要被写体領域(例えば、人物の顔部)の一部が子画面によって隠れてしまう。また、モニタリング時に前記主要被写体領域(例えば、人物の顔部)が移動してその一部が子画面と重なると、主要被写体領域(例えば、人物の顔部)の一部が子画面によって隠れてしまう。   By the way, in the invention of Patent Document 1, the position and size of the sub-screen superimposed on the screen of the display unit are fixed. For this reason, if a part of the main subject area (for example, a person's face) obtained by enlarging a predetermined area of the monitoring image displayed on the screen is at a position overlapping the sub-screen, the main subject area (for example, the face of a person) Part) is hidden by the sub-screen. Further, when the main subject area (for example, the face of a person) moves during monitoring and a part thereof overlaps the sub-screen, a part of the main subject area (for example, the face of the person) is hidden by the sub-screen. End up.

このように、画面内の主要被写体領域(例えば、人物の顔部)の一部が子画面によって隠れてしまうと、撮影者はモニタリング時に拡大されて表示されている主要被写体領域(例えば、人物の顔部)の全体を把握し難くなる。   In this way, when a part of the main subject area (for example, the face of a person) in the screen is hidden by the sub-screen, the photographer can enlarge the main subject area (for example, the person's face displayed during monitoring). It becomes difficult to grasp the entire face).

そこで、本発明は、表示部の画面の中のある領域に子画面を重ねて表示するときに、画面内の主要被写体領域の一部が子画面によって隠れないようにすることができる撮像装置、及び撮像装置のモニタリング画像の表示方法を提供することを目的としている。   Therefore, the present invention provides an imaging device capable of preventing a part of the main subject area in the screen from being hidden by the sub-screen when the sub-screen is displayed on a certain area in the screen of the display unit. It is another object of the present invention to provide a method for displaying a monitoring image of an imaging apparatus.

前記目的を達成するために請求項1に記載の発明は、第1の撮影光学系を通して被写体像が結像される第1の撮像素子を有する第1の撮像手段と、第2の撮影光学系を通して前記被写体像が結像される第2の撮像素子を有する第2の撮像手段と、撮影前のモニタリング時において、前記第1の撮像手段によって得られた第1のモニタリング画像を主画面に表示するとともに、前記第2の撮像手段によって得られた、前記第1のモニタリング画像の撮影画角範囲を含む第2のモニタリング画像を前記主画面の所定位置に重ねた子画面に表示する表示手段と、前記第1の撮像手段又は前記前記第2の撮像手段によって得られた画像情報に基づいて前記第1のモニタリング画像又は前記第2のモニタリング画像の中から主要被写体領域を検出し、モニタリング時に前記主画面に表示された前記主要被写体領域に前記子画面が重ならないように、前記子画面の表示を制御する制御手段とを備えたことを特徴としている。   In order to achieve the above object, the invention according to claim 1 is characterized in that a first imaging unit having a first imaging element on which a subject image is formed through a first imaging optical system, and a second imaging optical system. A second imaging unit having a second imaging element on which the subject image is formed, and a first monitoring image obtained by the first imaging unit during monitoring before imaging is displayed on the main screen. And a display means for displaying a second monitoring image obtained by the second imaging means including a shooting angle of view range of the first monitoring image on a sub-screen superimposed on a predetermined position of the main screen. A main subject region is detected from the first monitoring image or the second monitoring image based on image information obtained by the first imaging unit or the second imaging unit; As the small picture does not overlap with the main subject region displayed on the main screen when Taringu is characterized in that a control means for controlling the display of the child screen.

請求項2に記載の発明は、ズーム光学系を有する第1の撮影光学系を通して被写体像が結像される第1の撮像素子を有する第1の撮像手段と、前記第1の撮像手段に対して撮影光軸が所定距離だけ離間されて配置され、ズーム光学系を有する第2の撮影光学系を通して前記被写体像が結像される第2の撮像素子を有する第2の撮像手段とを具備し、前記第1、第2の各撮像手段によって得られた各画像から3D画像を生成可能な表示可能な撮像装置であって、撮影前のモニタリング時において、前記第1の撮像手段によって得られたズームアップされた第1のモニタリング画像を主画面に表示するとともに、前記第2の撮像手段によって得られた広角側に設定された第2のモニタリング画像を前記主画面の所定位置に重ねた子画面に表示可能な表示手段と、前記第1の撮像手段又は前記前記第2の撮像手段によって得られた画像情報に基づいて前記第1のモニタリング画像又は前記第2のモニタリング画像の中から主要被写体領域を検出し、モニタリング時に前記主画面に表示された前記主要被写体領域に前記子画面が重ならないように、前記子画面の表示を制御する制御手段とを備えたことを特徴としている。   According to a second aspect of the present invention, there is provided a first imaging unit having a first imaging element on which a subject image is formed through a first imaging optical system having a zoom optical system, and the first imaging unit. And a second imaging unit having a second imaging element on which the photographic optical axis is disposed a predetermined distance apart and the subject image is formed through a second imaging optical system having a zoom optical system. A displayable imaging device capable of generating a 3D image from each image obtained by each of the first and second imaging means, which is obtained by the first imaging means during monitoring before photographing. The zoomed-up first monitoring image is displayed on the main screen, and the second monitoring image set on the wide-angle side obtained by the second imaging unit is superimposed on a predetermined position of the main screen. Can be displayed on A main subject region is detected from the first monitoring image or the second monitoring image based on image information obtained by the display means and the first imaging means or the second imaging means; Control means for controlling display of the sub-screen so that the sub-screen does not overlap the main subject area displayed on the main screen during monitoring.

請求項3に記載の発明では、前記制御手段は前記主画面の中の前記主要被写体領域に対して前記子画面が重ならないように、前記子画面の位置を移動及び/又はサイズ縮小させるような制御を行うことを特徴としている。   According to a third aspect of the present invention, the control means moves and / or reduces the size of the child screen so that the child screen does not overlap the main subject area in the main screen. It is characterized by performing control.

請求項4に記載の発明では、前記制御手段は前記主画面全体の画面領域を複数のブロック領域に分割して、検出した前記主要被写体領域が存在しないブロック領域に前記子画面を表示させることを特徴としている。   According to a fourth aspect of the present invention, the control means divides the screen area of the entire main screen into a plurality of block areas, and displays the child screen in a block area where the detected main subject area does not exist. It is a feature.

請求項5に記載の発明では、前記制御手段は検出した前記主要被写体領域が全てのブロック領域にまたがるときは前記子画面を非表示にすることを特徴としている。   The invention according to claim 5 is characterized in that the control means hides the child screen when the detected main subject area covers all block areas.

請求項6に記載の発明では、前記主要被写体領域を追尾して合焦状態を自動制御する合焦手段をさらに備え、前記制御手段は、前記合焦手段が追尾する前記主要被写体領域に応じて前記子画面が重ならないように、前記子画面の表示を制御することを特徴としている。   The invention according to claim 6 further includes focusing means for tracking the main subject area to automatically control the in-focus state, and the control means is configured to respond to the main subject area tracked by the focusing means. The display of the child screen is controlled so that the child screens do not overlap.

請求項7に記載の発明では、前記制御手段は前記主要被写体領域が複数ある場合には全ての主要被写体領域を検出して、前記全ての主要被写体領域に前記子画面が重ならないように、前記子画面の表示を制御することを特徴としている。   In the invention according to claim 7, the control means detects all the main subject areas when there are a plurality of the main subject areas, and prevents the child screen from overlapping the all main subject areas. It is characterized by controlling the display of the sub-screen.

請求項8に記載の発明では、前記制御手段は前記主要被写体領域として人物の顔部領域及び/又はペットの顔部領域を検出することを特徴としている。   According to an eighth aspect of the present invention, the control means detects a human face area and / or a pet face area as the main subject area.

請求項9に記載の発明では、前記制御手段は検出した前記主要被写体領域を矩形の枠領域として前記主画面に重ねて表示して、前記矩形の枠領域の内側に前記子画面が重ならないように前記子画面の表示を制御することを特徴としている。   In the invention according to claim 9, the control means displays the detected main subject area as a rectangular frame area so as to overlap the main screen so that the child screen does not overlap the rectangular frame area. The display of the sub-screen is controlled.

請求項10に記載の発明は、第1の撮影光学系を通して被写体像が結像される第1の撮像素子を有する第1の撮像手段と、第2の撮影光学系を通して前記被写体像が結像される第2の撮像素子を有する第2の撮像手段とを備えた撮像装置のモニタリング画像の表示方法であって、撮影前のモニタリング時において、前記第1の撮像手段によって得られた第1のモニタリング画像を表示手段の主画面に表示するとともに、前記第2の撮像手段によって得られた、前記第1のモニタリング画像の撮影画角範囲を含む第2のモニタリング画像を前記主画面の所定位置に重ねた子画面に表示する第1ステップと、前記第1の撮像手段又は前記前記第2の撮像手段によって得られた画像情報に基づいて前記第1のモニタリング画像又は前記第2のモニタリング画像の中から主要被写体領域を検出し、モニタリング時に前記主画面に表示された前記主要被写体領域に前記子画面が重ならないように、前記子画面の位置を移動及び/又はサイズ縮小させる第2ステップとを含むことを特徴としている。   According to a tenth aspect of the present invention, a first imaging unit having a first imaging element on which a subject image is formed through a first photographing optical system, and the subject image is formed through a second photographing optical system. A monitoring image display method of an imaging apparatus including a second imaging unit having a second imaging element, wherein the first imaging unit obtained by the first imaging unit during monitoring before imaging The monitoring image is displayed on the main screen of the display unit, and the second monitoring image obtained by the second imaging unit and including the shooting angle range of the first monitoring image is displayed at a predetermined position on the main screen. The first monitoring image or the second monitor based on the first step of displaying on the superimposed sub-screen and the image information obtained by the first imaging means or the second imaging means A main subject area is detected from the moving image, and a position of the child screen is moved and / or reduced in size so that the child screen does not overlap the main subject area displayed on the main screen during monitoring. And a step.

本発明によれば、モニタリング時に表示手段の主画面に子画面を表示した場合に、主画面に表示された主要被写体領域に子画面が重ならないように、子画面の表示を制御することにより、子画面に遮られること主画面に表示された主要被写体領域の全体を常に把握することができる。   According to the present invention, when the child screen is displayed on the main screen of the display means during monitoring, by controlling the display of the child screen so that the child screen does not overlap the main subject area displayed on the main screen, It is possible to always grasp the entire main subject area displayed on the main screen.

(a)は、本発明の実施形態1に係る撮像装置の一例としてのデジタルカメラの正面側を示す図、(b)は、その背面側を示す図。(A) is a figure which shows the front side of the digital camera as an example of the imaging device which concerns on Embodiment 1 of this invention, (b) is a figure which shows the back side. 図1に示したデジタルカメラのシステム構成の概要を示すブロック図。The block diagram which shows the outline | summary of the system configuration | structure of the digital camera shown in FIG. (a)は、測距装置を示す概略断面図、(b)は、この測距装置の撮像素子を示す平面図。(A) is a schematic sectional drawing which shows a ranging apparatus, (b) is a top view which shows the image pick-up element of this ranging apparatus. 測距装置による測距原理を説明するための概略図。Schematic for demonstrating the ranging principle by a ranging apparatus. (a)は、液晶モニタの画面に表示された画像の一例を示す図、(b)は、液晶モニタの画面に子画面を表示された状態を示す図。(A) is a figure which shows an example of the image displayed on the screen of a liquid crystal monitor, (b) is a figure which shows the state by which the subscreen was displayed on the screen of the liquid crystal monitor. 子画面を他の位置に移動させる(又は子画面のサイズを縮小する)ときの制御を示すフローチャート。The flowchart which shows the control when moving a child screen to another position (or reducing the size of a child screen). 液晶モニタの画面全体を複数に分割した状態を示す図。The figure which shows the state which divided | segmented the whole screen of the liquid crystal monitor into plurality. 液晶モニタの画面の中の左上領域に子画面が表示され状態を示す図。The figure which shows a subscreen being displayed in the upper left area | region in the screen of a liquid crystal monitor. 液晶モニタの画面全体を複数に分割した状態を示す図。The figure which shows the state which divided | segmented the whole screen of the liquid crystal monitor into plurality. 液晶モニタの画面の中の右下領域に縮小された子画面が表示され状態を示す図。The figure which shows the state where the sub-screen reduced to the lower right area in the screen of a liquid crystal monitor is displayed. (a)は、液晶モニタの画面の中の左上領域に子画面が表示され状態を示す図、(b)は、液晶モニタの画面の中の右上領域に子画面が表示され状態を示す図。FIG. 5A is a diagram showing a state in which a child screen is displayed in the upper left area of the liquid crystal monitor screen, and FIG. 5B is a diagram showing a state in which the child screen is displayed in the upper right area of the liquid crystal monitor screen. 液晶モニタの画面に主要被写体領域として犬の顔部と、液晶モニタの画面の中の左下領域に子画面が表示された状態を示す図。The figure which shows the state by which the face of a dog was displayed on the screen of a liquid crystal monitor as a main subject area, and the sub-screen was displayed in the lower left area in the screen of a liquid crystal monitor. (a)は、本発明の実施形態2に係る撮像装置の一例としての3Dカメラの正面側を示す図、(b)は、その背面側を示す図。(A) is a figure which shows the front side of the 3D camera as an example of the imaging device which concerns on Embodiment 2 of this invention, (b) is a figure which shows the back side. 図13に示した3Dカメラのシステム構成の概要を示すブロック図。The block diagram which shows the outline | summary of the system configuration | structure of 3D camera shown in FIG.

以下、本発明を図示の実施形態に基づいて説明する。
〈実施形態1〉
図1(a)は、本発明の実施形態1に係る撮像装置の一例としてのデジタルカメラを示す正面図、図1(b)は、このデジタルカメラの背面側を示す図、図2は、図1に示したデジタルカメラのシステム構成の概要を示すブロック図である。なお、本実施形態のデジタルカメラは、三角測距方式の測距装置を有している。
Hereinafter, the present invention will be described based on the illustrated embodiments.
<Embodiment 1>
FIG. 1A is a front view showing a digital camera as an example of an imaging apparatus according to Embodiment 1 of the present invention, FIG. 1B is a view showing the back side of the digital camera, and FIG. 2 is a block diagram showing an outline of a system configuration of the digital camera shown in FIG. Note that the digital camera of this embodiment has a triangulation type distance measuring device.

(デジタルカメラの外観構成)
図1に示すように、本実施形態に係るデジタルカメラ1の正面(前面)側には、光学ズーム機能を有する撮影レンズ2、測距装置3の前面側のレンズアレイ4等が配置されている。レンズアレイ4の表面には、所定の間隔で左右方向に設けた一対(2つ)の測距用レンズ5a,5bが一体に形成されている(測距装置3の詳細については後述する)。撮像レンズ2と各測距用レンズ5a,5bの各光軸は平行である。
(Appearance structure of digital camera)
As shown in FIG. 1, a photographing lens 2 having an optical zoom function, a lens array 4 on the front side of the distance measuring device 3, and the like are disposed on the front (front) side of the digital camera 1 according to the present embodiment. . On the surface of the lens array 4, a pair (two) of distance measuring lenses 5a and 5b provided in the left-right direction at a predetermined interval are integrally formed (details of the distance measuring device 3 will be described later). The optical axes of the imaging lens 2 and the distance measuring lenses 5a and 5b are parallel to each other.

デジタルカメラ1の上面側には、レリーズボタン(シャッタボタン)6、撮影・再生切替ダイアル7、電源ボタン(不図示)等が設けられている。また、デジタルカメラ1の背面側には、表示部としての液晶モニタ(LCD)8、望遠側ズーム(T)スイッチ9、広角側ズーム(W)10、スイッチメニュー(MENU)ボタン11、確定ボタン(OKボタン)12等が設けられている。   On the upper surface side of the digital camera 1, a release button (shutter button) 6, a photographing / playback switching dial 7, a power button (not shown), and the like are provided. Also, on the back side of the digital camera 1, a liquid crystal monitor (LCD) 8 as a display unit, a telephoto zoom (T) switch 9, a wide angle zoom (W) 10, a switch menu (MENU) button 11, a confirmation button ( OK button) 12 and the like are provided.

(デジタルカメラ1のシステム構成)
図2に示すように、このデジタルカメラ1は、複数のレンズ群を有する撮影レンズ2、シャッタ機能を有する絞りユニット20、撮影レンズ2を通して入射される被写体像が受光面上に結像する撮影用撮像素子としてのCCDイメージセンサ21、CCDイメージセンサ21から出力される画像信号(画素出力信号)をデジタル処理して取り込み、表示や記録が可能な画像データに変換処理する信号処理部22、操作部(レリーズボタン6、撮影モード切換ボタン7、撮影・再生切替ダイアル7、望遠側ズーム(T)スイッチ9、広角側ズーム(W)10、メニューボタン11、確定ボタン12(図1参照)等)23からの操作入力情報に基づき、ROM(不図示)に記憶された制御プログラムに基づいてデジタルカメラ1全体のシステム制御等を行う制御部24、信号処理部22で生成された画像データを表示する液晶モニタ8、撮影レンズ2のフォーカスレンズ群を駆動するフォーカスレンズ駆動部25、撮影レンズ2のズームレンズ群を駆動するズームレンズ駆動部26、絞りユニット20を駆動する絞りユニット駆動部27、及び被写体までの距離を測距する前記測距装置3等を備えている。信号処理部22で生成された画像データは、メモリカード収納部(不図示)内に着脱自在なメモリカード28に記録される。
(System configuration of digital camera 1)
As shown in FIG. 2, the digital camera 1 is used for photographing in which a photographing lens 2 having a plurality of lens groups, a diaphragm unit 20 having a shutter function, and a subject image incident through the photographing lens 2 is formed on a light receiving surface. A CCD image sensor 21 as an image pickup device, a signal processing unit 22 that digitally processes an image signal (pixel output signal) output from the CCD image sensor 21 and converts it into image data that can be displayed or recorded, and an operation unit (Release button 6, shooting mode switching button 7, shooting / playback switching dial 7, telephoto zoom (T) switch 9, wide angle zoom (W) 10, menu button 11, confirm button 12 (see FIG. 1), etc.) 23 System control of the entire digital camera 1 based on a control program stored in a ROM (not shown) based on operation input information from The liquid crystal monitor 8 that displays the image data generated by the signal processing unit 22, the focus lens driving unit 25 that drives the focus lens group of the photographing lens 2, and the zoom lens group of the photographing lens 2 are driven. The zoom lens driving unit 26, the aperture unit driving unit 27 that drives the aperture unit 20, and the distance measuring device 3 that measures the distance to the subject are provided. The image data generated by the signal processing unit 22 is recorded on a removable memory card 28 in a memory card storage unit (not shown).

液晶モニタ8は、撮影した画像データ(撮影画像)やメモリカード28に既に記録されている画像データを表示する以外にも、撮影時の撮影モードなどの各種動作内容等を表示したり、電子ファインダとしてモニタリング画像(動画)を表示することができる。なお、実際に撮影する前のモニタリング動作時においては、CCDイメージセンサ21からの画像信号に対して画素数を間引き処理した画像(動画)が液晶モニタ8に表示される。なお、本実施形態のデジタルカメラ1は、液晶モニタ8の画面の中のある領域に子画面を重ねて、この子画面にも画像を表示することができる機能を有している(詳細は後述する)。   In addition to displaying captured image data (captured images) and image data already recorded on the memory card 28, the liquid crystal monitor 8 displays various operation contents such as a shooting mode at the time of shooting, and an electronic viewfinder. Monitoring images (moving images) can be displayed. In the monitoring operation before actual shooting, an image (moving image) obtained by thinning the number of pixels with respect to the image signal from the CCD image sensor 21 is displayed on the liquid crystal monitor 8. The digital camera 1 according to the present embodiment has a function of superimposing a sub screen on a certain area in the screen of the liquid crystal monitor 8 and displaying an image on the sub screen (details will be described later). To do).

(測距装置3の構成)
図3(a),(b)に示すように、測距装置3は、前面側(図3(a)の上側)が開口した筐体30と、この筐体30の前面側に一対の測距用レンズ5a,5bが一列(デジタルカメラ1の左右方向)に一体に形成された透明樹脂材からなるレンズアレイ4と、レンズアレイ4と対向する筐体30内の背面側(図3(a)の下側)に配置された薄板状の撮像素子基板31と、撮像素子基板31上に所定間隔で形成された平面状(2次元状)の2つの撮像素子32a,32bと、撮像素子基板31の背面に配置された測距処理部33、及びアナログフロントエンド(AFE)部34を備えている。
(Configuration of ranging device 3)
As shown in FIGS. 3A and 3B, the distance measuring device 3 includes a housing 30 whose front side (the upper side in FIG. 3A) is open, and a pair of measurement devices on the front side of the housing 30. The lens array 4 made of a transparent resin material in which the distance lenses 5a and 5b are integrally formed in a line (left and right direction of the digital camera 1), and the back side in the housing 30 facing the lens array 4 (FIG. 3A ), A thin plate-like image pickup device substrate 31, two planar (two-dimensional) image pickup devices 32a and 32b formed on the image pickup device substrate 31 at predetermined intervals, and an image pickup device substrate. A distance measurement processing unit 33 and an analog front end (AFE) unit 34 are provided on the rear surface of 31.

各測距用レンズ5a,5bの各光軸は平行であり、各測距用撮像素子32a,32bの各撮像領域32a1,32b1の対角中心と各測距用レンズ5a,5bの光軸が略一致するように位置決めされている。各測距用レンズ5a,5bの画角は、撮影レンズ2を広角側に設定したときの画角に略対応している。   The optical axes of the distance measuring lenses 5a and 5b are parallel, and the diagonal centers of the imaging regions 32a1 and 32b1 of the distance measuring imaging elements 32a and 32b and the optical axes of the distance measuring lenses 5a and 5b are set. They are positioned so as to approximately match. The angle of view of each of the distance measuring lenses 5a and 5b substantially corresponds to the angle of view when the photographing lens 2 is set to the wide angle side.

測距処理部33は、各測距用撮像素子32a,32b(撮像領域32a1,32b1)から取り込んだ画像信号に基づいて各撮像領域32a1,32c1に結像された被写体像間のずれ(視差)を算出して、被写体までの距離を算出する。測距処理部33で算出された距離データは制御部24に出力される。制御部24は、入力された距離情報に基づいて、被写体像がCCDイメージセンサ21の受光面上に結像するようにフォーカスレンズ駆動部25に駆動制御信号を出力し、撮影レンズ2のフォーカスレンズ群を移動させる。   The distance measurement processing unit 33 shifts (parallax) between subject images formed in the imaging regions 32a1 and 32c1 based on the image signals captured from the distance measuring imaging devices 32a and 32b (imaging regions 32a1 and 32b1). And the distance to the subject is calculated. The distance data calculated by the distance measurement processing unit 33 is output to the control unit 24. The control unit 24 outputs a drive control signal to the focus lens driving unit 25 so that the subject image is formed on the light receiving surface of the CCD image sensor 21 based on the input distance information, and the focus lens of the photographing lens 2. Move the group.

AFE部34は、各測距用撮像素子32a,32b(撮像領域32a1,32b1)から出力される画像信号をデジタル信号に変換する。AFE部34でデジタル信号に変換に変換された画像信号は、前記信号処理部22に入力される。   The AFE unit 34 converts the image signals output from the distance measurement imaging devices 32a and 32b (imaging regions 32a1 and 32b1) into digital signals. The image signal converted into a digital signal by the AFE unit 34 is input to the signal processing unit 22.

ここで、測距装置3による測距原理について簡単に説明する。   Here, the principle of distance measurement by the distance measuring device 3 will be briefly described.

図4に示すように、測距用レンズ5aを通して得られた被写体像a1と測距用レンズ5bを通して得られた被写体像a2は、被写体a上の同一点が視差△だけずれて両側の測距用撮像素子32a,32bの各撮像領域32a1,32b1上にそれぞれ結像し、複数の画素(受光素子)で受光されて画像信号(電気信号)に変換される。   As shown in FIG. 4, the subject image a1 obtained through the distance measuring lens 5a and the subject image a2 obtained through the distance measuring lens 5b have the same point on the subject a deviated by the parallax Δ and distance measurement on both sides. An image is formed on each of the imaging regions 32a1 and 32b1 of the image pickup devices 32a and 32b, received by a plurality of pixels (light receiving elements), and converted into an image signal (electric signal).

そして、前記視差を△、測距用レンズ5a,5bの光軸間の距離(基線長)をD、測距用レンズ5a,5bと被写体a間の距離をL、測距用レンズ5a,5bの焦点距離をfとし、L≫fであるときは、下記の式(1)が成り立つ。   The parallax is Δ, the distance (base length) between the optical axes of the distance measuring lenses 5a and 5b is D, the distance between the distance measuring lenses 5a and 5b and the subject a is L, and the distance measuring lenses 5a and 5b. When the focal length of f is f and L >> f, the following equation (1) is established.

L=D・f/△ …式(1)       L = D · f / Δ Expression (1)

よって、Dとfは既知であるので、各撮像領域32a1,32b1の画素から出力される画像信号に基づいて前記視差△を算出することで、測距用レンズ5a,5bと被写体a間の距離Lを算出することができる。   Therefore, since D and f are known, the distance between the distance measuring lenses 5a and 5b and the subject a is calculated by calculating the parallax Δ based on the image signals output from the pixels of the imaging regions 32a1 and 32b1. L can be calculated.

(通常のモニタリング動作、静止画撮影動作)
次に、デジタルカメラ1の通常のモニタリング動作と静止画撮影動作について説明する。
(Normal monitoring operation, still image shooting operation)
Next, normal monitoring operation and still image shooting operation of the digital camera 1 will be described.

実際に撮影される前のモニタリング動作時においても、制御部24は、測距装置3の測距処理部33から入力された距離情報に基づいてフォーカスレンズ駆動部26を駆動制御して、撮像レンズ2のフォーカスレンズ群を合焦位置に移動させる合焦制御を行い、被写体像をCCDイメージセンサ21の受光面に結像させる。   Even during the monitoring operation before actual shooting, the control unit 24 drives and controls the focus lens driving unit 26 based on the distance information input from the distance measurement processing unit 33 of the distance measuring device 3, and the imaging lens. Focus control for moving the second focus lens group to the in-focus position is performed, and a subject image is formed on the light receiving surface of the CCD image sensor 21.

また、信号処理部12は、CCDイメージセンサ21から取り込んだデジタル信号に変換された画像信号に基づいて、被写体の輝度を算出する。算出された被写体の輝度情報は制御部24に出力される。そして、制御部24は、入力された輝度情報に基づいて、被写体に対して適正な露光量となるように絞りユニット20の開放状態(絞り値)と、CCDイメージセンサ21の電子シャッタ回数等を設定する。絞りユニット20の開放状態は、絞りユニット駆動部27の駆動によって制御される。   Further, the signal processing unit 12 calculates the luminance of the subject based on the image signal converted into the digital signal captured from the CCD image sensor 21. The calculated luminance information of the subject is output to the control unit 24. Then, the control unit 24 determines the open state (aperture value) of the aperture unit 20 and the number of times of the electronic shutter of the CCD image sensor 21 so as to obtain an appropriate exposure amount for the subject based on the input luminance information. Set. The open state of the aperture unit 20 is controlled by driving the aperture unit drive unit 27.

この際、液晶モニタ8には、モニタリング動作時の画像(動画)が表示されている。なお、液晶モニタ8には、CCDイメージセンサ21からの画像信号に対して画素数を間引き処理した画像が表示される。   At this time, the liquid crystal monitor 8 displays an image (moving image) at the time of the monitoring operation. The liquid crystal monitor 8 displays an image obtained by thinning the number of pixels with respect to the image signal from the CCD image sensor 21.

そして、このモニタリング動作時にレリーズボタン6が押下操作されると、測距装置3からの距離情報によって被写体にピントが合った合焦状態でかつ適正な露光条件(CCDイメージセンサ21の電子シャッタ回数、絞りユニット20の絞り値等)で被写体を撮影する。そして、信号処理部24は、CCDイメージセンサ21から出力される画像信号をデジタル処理して取り込み、表示や記録が可能な画像データに変換処理する。信号処理部24で生成された画像データは、メモリカード28に記録され、また、液晶モニタ8に静止画像として表示される。   When the release button 6 is pressed during the monitoring operation, the subject is in focus in accordance with the distance information from the distance measuring device 3 and in an appropriate exposure condition (the number of electronic shutters of the CCD image sensor 21). The subject is photographed with the aperture value of the aperture unit 20. Then, the signal processor 24 digitally processes the image signal output from the CCD image sensor 21 and converts it into image data that can be displayed or recorded. The image data generated by the signal processing unit 24 is recorded on the memory card 28 and displayed as a still image on the liquid crystal monitor 8.

また、制御部24は、顔検出部24aを有している。顔検出部24aは、例えば、撮像画面内の各エリアの輝度データを読み出し、予め記憶されている人物の顔部の目と鼻の輝度パターンテンプレートとのマッチングを行うことで、主要被写体領域である人物の顔部を検出する処理を行う。前記輝度パターンテンプレートは、複数種類の大きさのものが予めROM(不図示)に記憶されており、それぞれの大きさの輝度パターンテンプレートで撮像画面内の各エリアにおいてパターンマッチングすることで人物の顔部の検出を行う。人物の顔部が検出されると、人物の顔部が撮像画面内で移動してもそれに追尾して検出状態を保持する。   The control unit 24 includes a face detection unit 24a. The face detection unit 24a, for example, reads out luminance data of each area in the imaging screen and performs matching with a pre-stored human face eye and nose luminance pattern template to thereby be a main subject region. A process for detecting a human face is performed. Plural types of brightness pattern templates are stored in advance in a ROM (not shown), and a person's face is obtained by pattern matching in each area in the imaging screen with the brightness pattern templates of each size. Part detection. When the face of a person is detected, even if the face of the person moves within the imaging screen, it is tracked and the detection state is maintained.

また、顔検出部24aは、人物の顔部の検出以外にも犬や猫などのペットの顔部も検出する機能も有している。   Further, the face detection unit 24a has a function of detecting the face of a pet such as a dog or a cat in addition to detecting the face of a person.

(モニタリング時の子画面の表示動作)
次に、モニタリング時における子画面の表示動作について説明する。
(Sub-screen display operation during monitoring)
Next, the display operation of the small screen during monitoring will be described.

図5(a)に示すように、上記した通常のモニタリング時には液晶モニタ8の画面には、撮像ユニット(撮影レンズ2、CCDイメージセンサ21)によって得られた画像(以下、「第1画像」という)が表示される。なお、図では、主要被写体としての2人の人物が表示されており、2人の人物の顔部(主要被写体領域)の周囲には顔部を検出していることを示している顔検出枠Aが表示されている。また、液晶モニタ8の画面全体に表示されている第1画像の画角は、広角側ズームスイッチ10を操作して撮影レンズ2を広角側に設定したときのものである。   As shown in FIG. 5A, an image (hereinafter referred to as “first image”) obtained by the imaging unit (the photographic lens 2 and the CCD image sensor 21) is displayed on the screen of the liquid crystal monitor 8 during the normal monitoring described above. ) Is displayed. In the figure, two persons are displayed as main subjects, and a face detection frame indicating that a face is detected around the faces (main subject region) of the two persons. A is displayed. Further, the angle of view of the first image displayed on the entire screen of the liquid crystal monitor 8 is that when the photographing lens 2 is set to the wide angle side by operating the wide angle side zoom switch 10.

そして、メニューボタン11を操作して液晶モニタ8の画面上で「子画面表示」(不図示)を選択し、確定ボタン12を押すことにより、図5(b)に示すように、液晶モニタ8の画面(主画面)の中の右下領域に子画面30が重ねられるようにして表示される。なお、図5(b)に示す液晶モニタ8の画面に表示された第1画像は、望遠側ズームスイッチ9を操作して撮影レンズ2を望遠側に設定したときのものであり、主要被写体としての2人の人物の顔部付近をズームアップしている。なお、図5では、主要被写体が2人の人物の例であるが、主要被写体が1人の人物或いは3人以上の場合であってもよい。   Then, by operating the menu button 11 to select “sub-screen display” (not shown) on the screen of the liquid crystal monitor 8 and pressing the confirm button 12, the liquid crystal monitor 8 is displayed as shown in FIG. The child screen 30 is displayed so as to be superimposed on the lower right area of the screen (main screen). Note that the first image displayed on the screen of the liquid crystal monitor 8 shown in FIG. 5B is the one when the photographic lens 2 is set to the telephoto side by operating the telephoto zoom switch 9 and is used as the main subject. The area near the face of these two people is zoomed up. In FIG. 5, the main subject is an example of two people, but the main subject may be one person or three or more people.

この子画面30には、測距装置3の一方の測距用撮像ユニット(測距用レンズ5a、測距用撮像素子32a)によって得られた画像(以下、「第2画像」という)が表示される。なお、子画面30には、測距装置3の他方の測距用撮像ユニット(測距用レンズ5b、測距用撮像素子32b)によって得られた画像(前記第2画像に対して少し視差があるだけで略同じ画像)を表示するようにしてもよい。   The sub screen 30 displays an image (hereinafter referred to as a “second image”) obtained by one of the ranging imaging units (ranging lens 5a, ranging imaging element 32a) of the ranging device 3. Is done. The sub-screen 30 has an image (a little parallax with respect to the second image) obtained by the other ranging imaging unit (ranging lens 5b, ranging imaging element 32b) of the ranging device 3. Only substantially the same image) may be displayed.

子画面30に表示される第2画像の画角は、撮影レンズ2を広角側に設定したときと略対応している。よって、図5(b)の子画面30に表示された第2画像の画角は、図5(a)の液晶モニタ8の画面に表示された第1画像の画角と略対応している。   The angle of view of the second image displayed on the child screen 30 substantially corresponds to when the photographing lens 2 is set to the wide angle side. Therefore, the angle of view of the second image displayed on the sub-screen 30 in FIG. 5B substantially corresponds to the angle of view of the first image displayed on the screen of the liquid crystal monitor 8 in FIG. .

このように、子画面30に表示される第2画像の画角は、画面サイズが異なるだけで撮影レンズ2を広角側に設定したときの画像の画角と略同じものとなる。よって、図5(b)に示すように、液晶モニタ8の画面全体に表示された第1画像の所望の領域(図では、主要被写体領域としての2人の人物の顔部付近)をズームアップした場合でも、子画面30に表示された第2画像を確認することにより、主要被写体のどの部分を撮影しているかを容易に把握することができる。   Thus, the angle of view of the second image displayed on the child screen 30 is substantially the same as the angle of view of the image when the photographic lens 2 is set to the wide-angle side, only with a different screen size. Therefore, as shown in FIG. 5B, the desired area of the first image displayed on the entire screen of the liquid crystal monitor 8 (in the figure, the vicinity of the faces of two persons as the main subject area) is zoomed up. Even in this case, by confirming the second image displayed on the child screen 30, it is possible to easily grasp which part of the main subject is being photographed.

ところで、上記したように子画面30は、最初に液晶モニタ8の画面の中の右下領域に表示されるように設定されている。このため、例えば図5(b)に示したように、モニタリング時において、液晶モニタ8の画面に表示された第1画像の所望の領域(図では、主要被写体領域としての2人の人物の顔部付近)をズームアップした場合に、主要被写体領域(人物の顔部付近)の一部が子画面30で隠れてしまうと、この主要被写体領域の全体を把握し難くなる。   By the way, as described above, the sub-screen 30 is initially set to be displayed in the lower right region in the screen of the liquid crystal monitor 8. For this reason, for example, as shown in FIG. 5B, at the time of monitoring, a desired area of the first image displayed on the screen of the liquid crystal monitor 8 (in the figure, the faces of two persons as main subject areas) If a part of the main subject area (near the face of a person) is hidden on the sub-screen 30 when the zoom is zoomed up, it becomes difficult to grasp the entire main subject area.

そこで、本実施形態のデジタルカメラ1の制御部24は、モニタリング時において、液晶モニタ8の画面に表示された第1画像内の主要被写体領域(例えば人物の顔部付近)の一部が子画面30で隠れているか否かを判定し、この主要被写体領域の一部が子画面30で隠れていると判定した場合には、子画面30を他の位置に移動させる、又は子画面30のサイズを縮小するような制御を行う。以下、この制御について、図6に示したフローチャートを参照して説明する。   Therefore, the control unit 24 of the digital camera 1 according to the present embodiment is configured such that a part of the main subject region (for example, near the face of a person) in the first image displayed on the screen of the liquid crystal monitor 8 is a sub-screen during monitoring. When it is determined whether or not a part of the main subject area is hidden on the child screen 30, the child screen 30 is moved to another position or the size of the child screen 30 is determined. Control to reduce the size. Hereinafter, this control will be described with reference to the flowchart shown in FIG.

モニタリング時において、図5(b)に示したように、子画面30を液晶モニタ8の画面の中の右下領域(設定位置)に表示する(ステップS1)。そして、このときに液晶モニタ8の画面に表示された主要被写体領域(人物の顔部付近)周囲の顔検出枠Aの領域の一部が、子画面30と重なっているか否かを判定する(ステップS2)。   At the time of monitoring, as shown in FIG. 5B, the child screen 30 is displayed in the lower right area (set position) in the screen of the liquid crystal monitor 8 (step S1). At this time, it is determined whether or not a part of the area of the face detection frame A around the main subject area (near the face of the person) displayed on the screen of the liquid crystal monitor 8 overlaps the child screen 30 ( Step S2).

そして、ステップS2で、顔検出枠Aの領域の一部が子画面30と重なっていると判定した場合(ステップS2:YES)、図7に示すように、液晶モニタ8の画面全体を複数に分割(図では、全体で12(3×4)分割)して、各分割領域全体に対して主要被写体領域(人物の顔部付近)周囲の顔検出枠Aが位置しているか否かを判定する(ステップS3)。   If it is determined in step S2 that a part of the area of the face detection frame A overlaps with the child screen 30 (step S2: YES), the entire screen of the liquid crystal monitor 8 is made plural as shown in FIG. Divide (12 (3 × 4) in the figure as a whole) and determine whether or not the face detection frame A around the main subject area (near the face of a person) is located with respect to the entire divided area (Step S3).

なお、各分割領域は、子画面30のサイズよりも少し大きく設定されている。よって、各分割領域のうちで顔検出枠Aが位置していない分割領域に子画面30を位置させた場合には、顔検出枠Aの領域が子画面30に重なることはない。即ち、図7では、画面の左上の分割領域a1又はその右隣の分割領域a2に子画面30を位置させた場合には、顔検出枠Aの領域は子画面30と重ならない。   Each divided area is set to be slightly larger than the size of the child screen 30. Therefore, when the child screen 30 is positioned in a divided region where the face detection frame A is not located in each divided region, the region of the face detection frame A does not overlap the child screen 30. That is, in FIG. 7, when the child screen 30 is positioned in the upper left divided area a1 or the right adjacent divided area a2, the area of the face detection frame A does not overlap the child screen 30.

なお、本実施形態では、子画面30の表示位置の優先度は、優先度の高い順に液晶モニタ8の画面全体の中の右下領域(設定位置)→左下領域→左上領域→右上領域となるように設定されている。よって、図7では、画面の左下領域にも別の顔検出枠Aの領域があるので、画面の左上領域(分割領域a1)に子画面30を位置させることができる。なお、子画面30の表示位置の優先度は上記の表示位置パターンに限らず、予め複数の表示位置パターンが格納されている場合には、撮影者が任意の表示位置パターンを選択することができる。   In the present embodiment, the priority of the display position of the child screen 30 is the lower right area (setting position) → the lower left area → the upper left area → the upper right area in the entire screen of the liquid crystal monitor 8 in descending order of priority. Is set to Therefore, in FIG. 7, there is another face detection frame A area in the lower left area of the screen, so that the child screen 30 can be positioned in the upper left area (divided area a1) of the screen. Note that the priority of the display position of the sub-screen 30 is not limited to the above display position pattern, and when a plurality of display position patterns are stored in advance, the photographer can select an arbitrary display position pattern. .

そして、ステップS3で、各分割領域全体に対して主要被写体領域(人物の顔部付近)周囲の顔検出枠Aが位置していない分割領域があると判定した場合(ステップS3:NO)、上記したように画面の左上領域(分割領域a1)に子画面30を移動させる(ステップS4)。これにより、図8に示すように、液晶モニタ8の画面の中の左上領域に子画面30が表示される。   When it is determined in step S3 that there is a divided area where the face detection frame A around the main subject area (near the face of the person) is not located with respect to the entire divided area (step S3: NO), As described above, the child screen 30 is moved to the upper left area (divided area a1) of the screen (step S4). As a result, as shown in FIG. 8, the child screen 30 is displayed in the upper left area of the screen of the liquid crystal monitor 8.

また、ステップS3で、例えば図9に示すように、各分割領域全体に対して主要被写体領域(人物の顔部付近)周囲の顔検出枠Aが全ての分割領域にまたがるように位置していると判定した場合(ステップS3:YES)、図10に示すように、子画面30の位置はそのままで子画面30のサイズを縮小して顔検出枠Aで隠れないようにする(ステップS5)。図9のように、顔検出枠Aが全ての分割領域にまたがるように位置している状況としては、主要被写体に対して高倍率でズームアップした場合や、主要被写体がカメラ側に近づいてきた場合などが挙げられる。   In step S3, for example, as shown in FIG. 9, the face detection frame A around the main subject area (near the face of a person) is positioned so as to cover all the divided areas with respect to the entire divided areas. 10 (step S3: YES), as shown in FIG. 10, the size of the child screen 30 is reduced without changing the size of the child screen 30 so as not to be hidden by the face detection frame A (step S5). As shown in FIG. 9, the face detection frame A is positioned so as to cover all the divided areas. When the main subject is zoomed up at a high magnification, or the main subject has approached the camera side. Cases.

なお、ステップS4で、子画面30が所定サイズ以下に縮小されるような場合には、子画面30内の画像も小さくなって視認し難くなるので子画面30を非表示にする。   In step S4, when the child screen 30 is reduced to a predetermined size or less, the child screen 30 is not displayed because the image in the child screen 30 becomes smaller and difficult to view.

また、ステップS5で、子画面30のサイズを縮小するとともに、この縮小した子画面30を他の位置(例えば、画面の左上領域)に移動させて表示するようにしてもよい。   In step S5, the size of the child screen 30 may be reduced, and the reduced child screen 30 may be moved to another position (for example, the upper left area of the screen) and displayed.

上記したデジタルカメラ1は、モニタリング時から測距装置3で主要被写体領域(例えば、人物の顔部)までの距離を連続的に測距して合焦制御しているので、モニタリング時に主要被写体領域が移動してもそれに追尾して、主要被写体領域を液晶モニタ8に表示することができる。また、モニタリング時に液晶モニタ8の画面に子画面30が重ねられて表示されているときは、図6に示したフローチャートに基づいた制御が行われる。   Since the above-described digital camera 1 continuously measures the distance from the monitoring device to the main subject area (for example, the face of a person) by the distance measuring device 3 and performs focus control, the main subject area is monitored. The main subject area can be displayed on the liquid crystal monitor 8 by tracking the moving object. Further, when the sub screen 30 is displayed superimposed on the screen of the liquid crystal monitor 8 during monitoring, control based on the flowchart shown in FIG. 6 is performed.

よって、モニタリング時において、例えば図11(a)に示すように、液晶モニタ8の画面にズームアップされた顔検出枠Aで囲まれた主要被写体領域(人物の顔部)と、子画面30が画面の左上領域に表示されているときに、主要被写体領域が移動しても、図11(b)に示すように、顔検出枠Aと重ならない位置に子画面30を自動的に移動させて表示することができる。なお、図11(b)では、子画面30は画面の右上領域に表示されている。   Therefore, at the time of monitoring, for example, as shown in FIG. 11A, a main subject region (a person's face) surrounded by a face detection frame A zoomed up on the screen of the liquid crystal monitor 8 and a child screen 30 are displayed. Even if the main subject area moves while being displayed in the upper left area of the screen, the child screen 30 is automatically moved to a position that does not overlap the face detection frame A as shown in FIG. Can be displayed. In FIG. 11B, the child screen 30 is displayed in the upper right area of the screen.

また、前記顔検出部24aは、人物の顔部の検出以外にも犬や猫などのペットの顔部も検出する機能も有している。よって、モニタリング時において、例えば図12に示すように、モニタリング時に液晶モニタ8の画面内に子画面30を表示した場合、この子画面30に、前記測距装置3の一方の測距用撮像ユニット(例えば、測距用レンズ5a、測距用撮像素子32a)で得られた犬(主要被写体)全体を表示する。そして、液晶モニタ8の画面にズームアップされた顔検出枠Aで囲まれた主要被写体領域である犬の顔部を表示したときに、前記同様に顔検出枠Aと重ならない位置に子画面30を自動的に移動させて表示することができる。なお、図12では、子画面30は画面の左下領域に表示されている。   The face detection unit 24a also has a function of detecting the face of a pet such as a dog or a cat in addition to detecting the face of a person. Therefore, at the time of monitoring, for example, as shown in FIG. 12, when the sub screen 30 is displayed in the screen of the liquid crystal monitor 8 at the time of monitoring, one ranging imaging unit of the distance measuring device 3 is displayed on the sub screen 30. For example, the entire dog (main subject) obtained by the distance measuring lens 5a and the distance measuring image sensor 32a is displayed. Then, when the face portion of the dog, which is the main subject area surrounded by the face detection frame A zoomed up, is displayed on the screen of the liquid crystal monitor 8, the child screen 30 is positioned so as not to overlap the face detection frame A as described above. Can be moved and displayed automatically. In FIG. 12, the sub-screen 30 is displayed in the lower left area of the screen.

このように、本実施形態のデジタルカメラ1によれば、液晶モニタ8の画面内に、広角側に設定した画角の主要被写体(例えば、人物全体)を子画面30で表示することにより、液晶モニタ8の画面にズームアップされた主要被写体の所定の領域(例えば、人物の顔部)を表示したときに、子画面30の画像を確認することによって主要被写体のどの領域をズームアップしているかを容易に把握することができる。   As described above, according to the digital camera 1 of the present embodiment, the main subject (for example, the entire person) having the angle of view set on the wide angle side is displayed on the sub screen 30 in the screen of the liquid crystal monitor 8. Which area of the main subject is zoomed in by checking the image on the sub-screen 30 when a predetermined area (for example, the face of a person) of the main object zoomed up is displayed on the screen of the monitor 8 Can be easily grasped.

更に、液晶モニタ8の画面にズームアップされた主要被写体の所定の領域(例えば、人物の顔部)の一部に子画面30が重ならないように、子画面30の位置を移動させたり、子画面30のサイズを縮小させる(又はその両方)ことができるので、子画面30に遮られることなくズームアップされた主要被写体の所定の領域(例えば、人物の顔部)全体を常に把握することができる。   Furthermore, the position of the child screen 30 is moved so that the child screen 30 does not overlap a part of a predetermined area (for example, a human face) of the main subject zoomed up on the screen of the liquid crystal monitor 8. Since the size of the screen 30 can be reduced (or both), it is possible to always grasp the entire predetermined area (for example, the face of a person) of the main subject that has been zoomed up without being blocked by the sub-screen 30. it can.

なお、前記実施形態1では、第2の撮像手段として測距装置を兼用して用いた構成であったが、専用の撮像装置を備えた構成でもよい。   In the first embodiment, the distance measuring device is also used as the second imaging unit. However, a configuration including a dedicated imaging device may be used.

〈実施形態2〉
図13(a)は、本発明の実施形態2に係る撮像装置の一例としてのデジタルカメラを示す正面図、図13(b)は、このデジタルカメラの背面側を示す図、図14は、図13に示したデジタルカメラのシステム構成の概要を示すブロック図である。
<Embodiment 2>
FIG. 13A is a front view showing a digital camera as an example of an imaging apparatus according to Embodiment 2 of the present invention, FIG. 13B is a view showing the back side of the digital camera, and FIG. FIG. 14 is a block diagram showing an outline of a system configuration of the digital camera shown in FIG.

本実施形態のデジタルカメラは、立体視可能な画像を記録、表示可能な3Dカメラである。なお、図1、図2に示した実施形態1のデジタルカメラと同一機能を有する構成部には同一符号を付し、重複する説明は省略する(2つの撮影レンズ、CCDイメージセンサに対しては、第1、第2の撮影レンズ2a,2b、第1、第2のCCDイメージセンサ21a,21bと表記している)。   The digital camera of this embodiment is a 3D camera capable of recording and displaying a stereoscopically viewable image. Components having the same functions as those of the digital camera according to the first embodiment shown in FIGS. 1 and 2 are denoted by the same reference numerals, and redundant description is omitted (for two photographing lenses and a CCD image sensor). , First and second photographing lenses 2a and 2b, and first and second CCD image sensors 21a and 21b).

なお、本実施形態に係るデジタルカメラ(以下、「3Dカメラ」という)の制御部24は、第1、第2のCCDイメージセンサ21a,21bから信号処理部22を介して取り込まれる各画像信号に基づいてオートフォーカス制御を行う。詳細には、制御部23は、第1、第2のCCDイメージセンサ21a,21bから出力される各画像信号を信号処理部12を介して取り込み、取り込まれた画素出力信号からAF(自動合焦)評価値を算出する。   The control unit 24 of the digital camera (hereinafter referred to as “3D camera”) according to the present embodiment applies each image signal captured from the first and second CCD image sensors 21 a and 21 b via the signal processing unit 22. Based on this, auto focus control is performed. Specifically, the control unit 23 captures each image signal output from the first and second CCD image sensors 21a and 21b via the signal processing unit 12, and performs AF (automatic focusing) from the captured pixel output signal. ) Calculate the evaluation value.

このAF評価値は、例えば高周波成分抽出フィルタの出力積分値や、近接画素の輝度差の積分値によって算出される。合焦状態にあるときは、被写体のエッジ部分がはっきりとしているため、高周波成分が一番高くなる。これを利用して、AF動作時(合焦検出動作時)には、第1、第2の撮影レンズ2a,2bの各フォーカス位置におけるAF評価値を取得して、その極大になる点を合焦検出位置としてAF動作が実行される。   This AF evaluation value is calculated by, for example, the output integral value of the high frequency component extraction filter or the integral value of the luminance difference between adjacent pixels. When in the in-focus state, the edge portion of the subject is clear, so the high frequency component is the highest. Using this, during the AF operation (focus detection operation), the AF evaluation values at the respective focus positions of the first and second photographing lenses 2a and 2b are acquired, and the point at which the local maximum is reached. An AF operation is performed as the focus detection position.

図13(a)に示すように、本実施形態に係る3Dカメラ1aの正面(前面)側には、光学ズーム機能を有する2つの第1、第2撮影レンズ2a,2bが左右に所定の間隔を設けて配置されている。この3Dカメラ1aでは、第1の撮像ユニット(第1の撮影レンズ2a、第1のCCDイメージセンサ21a)と、第2の撮像ユニット(第2の撮影レンズ2b、第2のCCDイメージセンサ21b)によって得られた視差のある2つの同じ画角の画像を同時に記録することができる。   As shown in FIG. 13 (a), on the front (front) side of the 3D camera 1a according to the present embodiment, two first and second photographing lenses 2a and 2b having an optical zoom function are arranged at predetermined intervals on the left and right. Is arranged. In this 3D camera 1a, a first imaging unit (first photographing lens 2a, first CCD image sensor 21a) and a second imaging unit (second photographing lens 2b, second CCD image sensor 21b). It is possible to simultaneously record two images having the same angle of view obtained by the above.

そして、この視差のある2つの画像を3D表示用に特殊処理された液晶モニタ8に表示することにより、撮影者等は撮影した被写体像を立体視できる。なお、モニタリング時においても、同様に液晶モニタ8には立体視可能な被写体像(動画)が表示される。   Then, by displaying the two images with parallax on the liquid crystal monitor 8 specially processed for 3D display, the photographer can stereoscopically view the photographed subject image. It should be noted that a subject image (moving image) that can be viewed stereoscopically is also displayed on the liquid crystal monitor 8 during monitoring.

また、図14に示すように、第1、第2の撮影レンズ2a,2bには、それぞれフォーカスレンズ駆動部25、ズームレンズ駆動部26、絞りユニット駆動部27が設けられており、制御部24の制御によって、第1、第2の撮影レンズ2a,2bのフォーカスレンズ群、ズームレンズ群、絞りユニット20を同期させて駆動したり、個別に駆動させることができる。また、この3Dカメラ1aにも、実施形態1で述べた子画面30を液晶モニタ8の画面に重ねるように表示する機能を有している。   As shown in FIG. 14, the first and second photographing lenses 2 a and 2 b are each provided with a focus lens driving unit 25, a zoom lens driving unit 26, and a diaphragm unit driving unit 27. With this control, the focus lens group, the zoom lens group, and the aperture unit 20 of the first and second photographing lenses 2a and 2b can be driven synchronously or individually. The 3D camera 1a also has a function of displaying the child screen 30 described in the first embodiment so as to overlap the screen of the liquid crystal monitor 8.

よって、この3Dカメラ1aでは、図13(b)に示すように、モニタリング時に液晶モニタ8の画面に子画面30を表示した場合、この子画面30には、第2の撮像ユニット(第2の撮影レンズ2b、第2のCCDイメージセンサ21b)で得られた第2の撮影レンズ2bを広角側に設定した状態の画像(図では、主要被写体としての2人の人物像)を表示することができる。一方、液晶モニタ8の画面には、第1の撮像ユニット(第1の撮影レンズ2a、第1のCCDイメージセンサ21a)で得られたズームアップした画像(図では、主要被写体領域としての2人の人物の顔部付近)を表示することができる。   Therefore, in the 3D camera 1a, as shown in FIG. 13B, when the small screen 30 is displayed on the screen of the liquid crystal monitor 8 at the time of monitoring, the small image is displayed on the small image on the small screen 30. It is possible to display an image (in the figure, two person images as main subjects) in a state where the second photographing lens 2b obtained by the photographing lens 2b and the second CCD image sensor 21b) is set to the wide angle side. it can. On the other hand, on the screen of the liquid crystal monitor 8, a zoomed-up image obtained by the first imaging unit (the first photographing lens 2a and the first CCD image sensor 21a) (in the figure, two people as main subject areas). Near the face of a person).

そして、この3Dカメラ1aにおいても実施形態1と同様に、モニタリング時に液晶モニタ8の画面に子画面30を表示した場合には、図6に示したフローチャートに基づいた制御が行われ、液晶モニタ8の画面に表示された顔検出枠Aと重ならない位置に子画面30を自動的に移動させて表示することができる。なお、図13(b)では、子画面30は画面の左上領域に表示されている。   In the 3D camera 1a, as in the first embodiment, when the child screen 30 is displayed on the screen of the liquid crystal monitor 8 during monitoring, control based on the flowchart shown in FIG. The child screen 30 can be automatically moved to a position that does not overlap the face detection frame A displayed on the screen. In FIG. 13B, the child screen 30 is displayed in the upper left area of the screen.

よって、実施形態1と同様に液晶モニタ8の画面内に、広角側に設定した画角の主要被写体(例えば、人物全体)を子画面30で表示することにより、液晶モニタ8の画面にズームアップされた主要被写体の所定の領域(例えば、人物の顔部)を表示したときに、子画面30の画像を確認することによって主要被写体のどの領域をズームアップしているかを容易に把握することができる。   Therefore, as in the first embodiment, the main subject (for example, the entire person) having the angle of view set on the wide angle side is displayed on the sub-screen 30 in the screen of the liquid crystal monitor 8, thereby zooming in on the screen of the liquid crystal monitor 8. It is possible to easily grasp which area of the main subject is zoomed up by confirming the image on the sub-screen 30 when a predetermined area (for example, the face of a person) of the main object is displayed. it can.

更に、液晶モニタ8の画面にズームアップされた主要被写体の所定の領域(例えば、人物の顔部)の一部に子画面30が重ならないように、子画面30の位置を移動させたり、子画面30のサイズを縮小させる(又はその両方)ことができるので、子画面30に遮られることなくズームアップされた主要被写体領域の全体を常に把握することができる。   Furthermore, the position of the child screen 30 is moved so that the child screen 30 does not overlap a part of a predetermined area (for example, a human face) of the main subject zoomed up on the screen of the liquid crystal monitor 8. Since the size of the screen 30 can be reduced (or both), it is possible to always grasp the entire main subject region that has been zoomed up without being blocked by the child screen 30.

なお、この3Dカメラ1aは、上記したようにモニタリング時には第2の撮影レンズ2bを広角側に設定してその画像を子画面30に表示し、第1の撮影レンズ2aをズームアップしてその画像を液晶モニタ8の画面に表示することができるが、撮影時に前記した視差のある2つの同じ画角の画像を得るには、第1、第2の撮影レンズ2a,2bの両方の画角を同じにする必要がる。このモニタリング時には、第1の撮影レンズ2aはズームアップされて望遠側に設定され、第2の撮影レンズ2bは広角側に設定されている。   As described above, the 3D camera 1a sets the second photographing lens 2b to the wide-angle side during monitoring and displays the image on the sub-screen 30, and zooms up the first photographing lens 2a to display the image. Can be displayed on the screen of the liquid crystal monitor 8, but in order to obtain two images having the same angle of view with parallax at the time of shooting, the angles of view of both the first and second shooting lenses 2a and 2b are set. Must be the same. During this monitoring, the first photographing lens 2a is zoomed in and set to the telephoto side, and the second photographing lens 2b is set to the wide angle side.

よって、上記のモニタリング時からレリーズボタン6を押下操作して撮影を行う際には、先ず、制御部24の制御により第2の撮影レンズ2b側のズームレンズ駆動部26を駆動して、広角側に設定されている第2の撮影レンズ2bを望遠側に駆動する。そして、第2の撮影レンズ2bの画角を第1の撮影レンズ2aの画角に合わせた後に撮影動作が実行され、視差のある2つの同じ画角の画像が同時に記録される。   Therefore, when shooting is performed by depressing the release button 6 from the above monitoring, first, the zoom lens driving unit 26 on the second shooting lens 2b side is driven by the control of the control unit 24, and the wide angle side is driven. The second photographic lens 2b set to is driven to the telephoto side. Then, after the angle of view of the second photographic lens 2b is matched with the angle of view of the first photographic lens 2a, a photographing operation is executed, and two images with the same angle of view with parallax are recorded simultaneously.

そして、この撮影の後のモニタリング時には、前記同様に第2の撮影レンズ2bを広角側に再度設定してその画像が子画面30に表示される。なお、液晶モニタ8の画面には、第1の撮像ユニット(第1の撮影レンズ2a、第1のCCDイメージセンサ21a)で得られたズームアップした画像が表示される。   Then, at the time of monitoring after the photographing, the second photographing lens 2b is set again to the wide angle side as described above, and the image is displayed on the sub screen 30. In addition, on the screen of the liquid crystal monitor 8, a zoomed-up image obtained by the first imaging unit (the first photographing lens 2a and the first CCD image sensor 21a) is displayed.

なお、上記した各実施形態では、モニタリング時の画像を液晶モニタ(表示手段)に表示するときに本発明を適用した例であったが、記録された画像(再生画像)を液晶モニタに表示するときにおいても、同様に本発明を適用することができる。   In each of the above-described embodiments, the present invention is applied when an image at the time of monitoring is displayed on the liquid crystal monitor (display means). However, the recorded image (reproduced image) is displayed on the liquid crystal monitor. In some cases, the present invention can be similarly applied.

即ち、再生画像全体を第2のモニタリング画像として子画面に表示し、再生画像全体の一部を拡大させた画像を第1のモニタリング画像として液晶モニタの画面に表示する。再生画像の場合は画像の中央に限らず拡大箇所を設定することができて、顔検出も記録画像を用いて同様に行うことができる。なお、この場合の再生画像は静止画でも動画でもよい。動画の場合は画像の拡大状況に加えて、時間の経過に伴う構図の変化によって子画面の位置を変更させることになる。   That is, the entire reproduced image is displayed as a second monitoring image on the child screen, and an image obtained by enlarging a part of the entire reproduced image is displayed as a first monitoring image on the screen of the liquid crystal monitor. In the case of a reproduced image, not only the center of the image but also an enlarged portion can be set, and face detection can be similarly performed using a recorded image. In this case, the reproduced image may be a still image or a moving image. In the case of a moving image, in addition to the state of image enlargement, the position of the sub-screen is changed by a change in composition with the passage of time.

1 デジタルカメラ
1a 3Dカメラ
2 撮影レンズ
2a 第1の撮影レンズ
2b 第2の撮影レンズ
3 測距装置
8 液晶モニタ
24 制御部
30 子画面
DESCRIPTION OF SYMBOLS 1 Digital camera 1a 3D camera 2 Shooting lens 2a 1st shooting lens 2b 2nd shooting lens 3 Distance measuring device 8 Liquid crystal monitor 24 Control part 30 Subscreen

特許第4050385号公報Japanese Patent No. 4050385

Claims (10)

第1の撮影光学系を通して被写体像が結像される第1の撮像素子を有する第1の撮像手段と、
第2の撮影光学系を通して前記被写体像が結像される第2の撮像素子を有する第2の撮像手段と、
撮影前のモニタリング時において、前記第1の撮像手段によって得られた第1のモニタリング画像を主画面に表示するとともに、前記第2の撮像手段によって得られた、前記第1のモニタリング画像の撮影画角範囲を含む第2のモニタリング画像を前記主画面の所定位置に重ねた子画面に表示する表示手段と、
前記第1の撮像手段又は前記前記第2の撮像手段によって得られた画像情報に基づいて前記第1のモニタリング画像又は前記第2のモニタリング画像の中から主要被写体領域を検出し、モニタリング時に前記主画面に表示された前記主要被写体領域に前記子画面が重ならないように、前記子画面の表示を制御する制御手段とを備えたことを特徴とする撮像装置。
First imaging means having a first imaging element on which a subject image is formed through a first imaging optical system;
A second imaging means having a second imaging element on which the subject image is formed through a second imaging optical system;
At the time of monitoring before shooting, the first monitoring image obtained by the first imaging unit is displayed on the main screen, and the captured image of the first monitoring image obtained by the second imaging unit is displayed. Display means for displaying a second monitoring image including an angular range on a sub-screen superimposed on a predetermined position of the main screen;
A main subject region is detected from the first monitoring image or the second monitoring image based on image information obtained by the first imaging unit or the second imaging unit, and the main subject region is detected during monitoring. An imaging apparatus comprising: control means for controlling display of the sub-screen so that the sub-screen does not overlap the main subject area displayed on the screen.
ズーム光学系を有する第1の撮影光学系を通して被写体像が結像される第1の撮像素子を有する第1の撮像手段と、前記第1の撮像手段に対して撮影光軸が所定距離だけ離間されて配置され、ズーム光学系を有する第2の撮影光学系を通して前記被写体像が結像される第2の撮像素子を有する第2の撮像手段とを具備し、前記第1、第2の各撮像手段によって得られた各画像から3D画像を生成可能な表示可能な撮像装置であって、
撮影前のモニタリング時において、前記第1の撮像手段によって得られたズームアップされた第1のモニタリング画像を主画面に表示するとともに、前記第2の撮像手段によって得られた広角側に設定された第2のモニタリング画像を前記主画面の所定位置に重ねた子画面に表示可能な表示手段と、
前記第1の撮像手段又は前記前記第2の撮像手段によって得られた画像情報に基づいて前記第1のモニタリング画像又は前記第2のモニタリング画像の中から主要被写体領域を検出し、モニタリング時に前記主画面に表示された前記主要被写体領域に前記子画面が重ならないように、前記子画面の表示を制御する制御手段とを備えたことを特徴とする撮像装置。
A first imaging unit having a first imaging element on which a subject image is formed through a first imaging optical system having a zoom optical system, and the imaging optical axis are separated from the first imaging unit by a predetermined distance. And a second imaging unit having a second imaging element on which the subject image is formed through a second imaging optical system having a zoom optical system, and each of the first and second A displayable imaging device capable of generating a 3D image from each image obtained by an imaging means,
During monitoring before shooting, the zoomed-up first monitoring image obtained by the first imaging unit is displayed on the main screen and set to the wide-angle side obtained by the second imaging unit. Display means capable of displaying a second monitoring image on a sub-screen superimposed on a predetermined position of the main screen;
A main subject region is detected from the first monitoring image or the second monitoring image based on image information obtained by the first imaging unit or the second imaging unit, and the main subject region is detected during monitoring. An imaging apparatus comprising: control means for controlling display of the sub-screen so that the sub-screen does not overlap the main subject area displayed on the screen.
前記制御手段は、前記主画面の中の前記主要被写体領域に対して前記子画面が重ならないように、前記子画面の位置を移動及び/又はサイズ縮小させるような制御を行うことを特徴とする請求項1又は2に記載の撮像装置。   The control means performs control to move and / or reduce the size of the child screen so that the child screen does not overlap the main subject region in the main screen. The imaging device according to claim 1 or 2. 前記制御手段は、前記主画面全体の画面領域を複数のブロック領域に分割して、検出した前記主要被写体領域が存在しないブロック領域に前記子画面を表示させることを特徴とする請求項1乃至3のいずれか一項に記載の撮像装置。   The control means divides a screen area of the entire main screen into a plurality of block areas, and displays the child screen in a block area where the detected main subject area does not exist. The imaging device according to any one of the above. 前記制御手段は、検出した前記主要被写体領域が全てのブロック領域にまたがるときは、前記子画面を非表示にすることを特徴とする請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the control unit hides the child screen when the detected main subject region covers all block regions. 前記主要被写体領域を追尾して合焦状態を自動制御する合焦手段をさらに備え、
前記制御手段は、前記合焦手段が追尾する前記主要被写体領域に応じて前記子画面が重ならないように、前記子画面の表示を制御することを特徴とする請求項1乃至5のいずれか一項に記載の撮像装置。
Further comprising focusing means for tracking the main subject area and automatically controlling the in-focus state,
The said control means controls the display of the said subscreen so that the said subscreen does not overlap according to the said main subject area | region tracked by the said focusing means. The imaging device according to item.
前記制御手段は、前記主要被写体領域が複数ある場合には全ての主要被写体領域を検出して、前記全ての主要被写体領域に前記子画面が重ならないように、前記子画面の表示を制御することを特徴とする請求項1乃至6のいずれか一項に記載の撮像装置。   The control means detects all the main subject areas when there are a plurality of the main subject areas, and controls the display of the sub-screen so that the sub-screen does not overlap all the main subject areas. The imaging device according to any one of claims 1 to 6, wherein 前記制御手段は、前記主要被写体領域として人物の顔部領域及び/又はペットの顔部領域を検出することを特徴とする請求項1乃至7のいずれか一項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the control unit detects a human face area and / or a pet face area as the main subject area. 前記制御手段は、検出した前記主要被写体領域を矩形の枠領域として前記主画面に重ねて表示して、前記矩形の枠領域の内側に前記子画面が重ならないように前記子画面の表示を制御することを特徴とする請求項1乃至8のいずれか一項に記載の撮像装置。   The control means displays the detected main subject area as a rectangular frame area so as to overlap the main screen, and controls display of the sub screen so that the sub screen does not overlap the rectangular frame area. The imaging apparatus according to any one of claims 1 to 8, wherein 第1の撮影光学系を通して被写体像が結像される第1の撮像素子を有する第1の撮像手段と、第2の撮影光学系を通して前記被写体像が結像される第2の撮像素子を有する第2の撮像手段とを備えた撮像装置のモニタリング画像の表示方法であって、
撮影前のモニタリング時において、前記第1の撮像手段によって得られた第1のモニタリング画像を表示手段の主画面に表示するとともに、前記第2の撮像手段によって得られた、前記第1のモニタリング画像の撮影画角範囲を含む第2のモニタリング画像を前記主画面の所定位置に重ねた子画面に表示する第1ステップと、
前記第1の撮像手段又は前記前記第2の撮像手段によって得られた画像情報に基づいて前記第1のモニタリング画像又は前記第2のモニタリング画像の中から主要被写体領域を検出し、モニタリング時に前記主画面に表示された前記主要被写体領域に前記子画面が重ならないように、前記子画面の位置を移動及び/又はサイズ縮小させる第2ステップとを含むことを特徴とする撮像装置のモニタリング画像の表示方法。
A first imaging unit having a first imaging element that forms a subject image through a first imaging optical system; and a second imaging element that forms the subject image through a second imaging optical system. A method for displaying a monitoring image of an imaging apparatus comprising a second imaging means,
During monitoring before shooting, the first monitoring image obtained by the first imaging unit is displayed on the main screen of the display unit, and the first monitoring image obtained by the second imaging unit is displayed. A first step of displaying a second monitoring image including a photographing field angle range on a sub-screen superimposed on a predetermined position of the main screen;
A main subject region is detected from the first monitoring image or the second monitoring image based on image information obtained by the first imaging unit or the second imaging unit, and the main subject region is detected during monitoring. And a second step of moving and / or reducing the size of the sub-screen so that the sub-screen does not overlap the main subject area displayed on the screen. Method.
JP2011150113A 2011-07-06 2011-07-06 Imaging apparatus and display method for monitoring image of the same Pending JP2013017125A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011150113A JP2013017125A (en) 2011-07-06 2011-07-06 Imaging apparatus and display method for monitoring image of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011150113A JP2013017125A (en) 2011-07-06 2011-07-06 Imaging apparatus and display method for monitoring image of the same

Publications (1)

Publication Number Publication Date
JP2013017125A true JP2013017125A (en) 2013-01-24

Family

ID=47689342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011150113A Pending JP2013017125A (en) 2011-07-06 2011-07-06 Imaging apparatus and display method for monitoring image of the same

Country Status (1)

Country Link
JP (1) JP2013017125A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015122670A (en) * 2013-12-24 2015-07-02 キヤノン株式会社 Imaging apparatus, control method, program, and storage medium
US9706109B2 (en) 2013-12-26 2017-07-11 Canon Kabushiki Kaisha Imaging apparatus having multiple imaging units and method of controlling the same
KR20170131377A (en) * 2015-03-27 2017-11-29 인텔 코포레이션 Techniques for controlling user access to image sensors in camera devices
JP2020502951A (en) * 2016-12-23 2020-01-23 ▲寧▼波舜宇光▲電▼信息有限公司 Array imaging module and its application
WO2021096251A1 (en) * 2019-11-14 2021-05-20 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11338449A (en) * 1998-05-21 1999-12-10 Mitsubishi Electric Corp Enlarged display unit
US20030160886A1 (en) * 2002-02-22 2003-08-28 Fuji Photo Film Co., Ltd. Digital camera
US20050128333A1 (en) * 2003-12-15 2005-06-16 Samsung Techwin Co., Ltd. Method of controlling digital photographing apparatus
JP2005311888A (en) * 2004-04-23 2005-11-04 Omron Corp Magnified display device and magnified image control apparatus
JP2006093859A (en) * 2004-09-21 2006-04-06 Olympus Corp Camera mounted with twin lens image pickup system and camera capable of stereoscopic photographing
JP2008258779A (en) * 2007-04-02 2008-10-23 Sony Corp Television conference apparatus, control method and program
JP2009200784A (en) * 2008-02-21 2009-09-03 Nikon Corp Image processing apparatus and program
JP2010161662A (en) * 2009-01-08 2010-07-22 Panasonic Corp Image display device, teleconferencing device and image display method
JP2010226496A (en) * 2009-03-24 2010-10-07 Olympus Imaging Corp Photographing device, and method of displaying live view

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11338449A (en) * 1998-05-21 1999-12-10 Mitsubishi Electric Corp Enlarged display unit
US20030160886A1 (en) * 2002-02-22 2003-08-28 Fuji Photo Film Co., Ltd. Digital camera
JP2004207774A (en) * 2002-02-22 2004-07-22 Fuji Photo Film Co Ltd Digital camera
US20050128333A1 (en) * 2003-12-15 2005-06-16 Samsung Techwin Co., Ltd. Method of controlling digital photographing apparatus
JP2005311888A (en) * 2004-04-23 2005-11-04 Omron Corp Magnified display device and magnified image control apparatus
US20050251015A1 (en) * 2004-04-23 2005-11-10 Omron Corporation Magnified display apparatus and magnified image control apparatus
JP2006093859A (en) * 2004-09-21 2006-04-06 Olympus Corp Camera mounted with twin lens image pickup system and camera capable of stereoscopic photographing
JP2008258779A (en) * 2007-04-02 2008-10-23 Sony Corp Television conference apparatus, control method and program
JP2009200784A (en) * 2008-02-21 2009-09-03 Nikon Corp Image processing apparatus and program
JP2010161662A (en) * 2009-01-08 2010-07-22 Panasonic Corp Image display device, teleconferencing device and image display method
JP2010226496A (en) * 2009-03-24 2010-10-07 Olympus Imaging Corp Photographing device, and method of displaying live view

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015122670A (en) * 2013-12-24 2015-07-02 キヤノン株式会社 Imaging apparatus, control method, program, and storage medium
US9706109B2 (en) 2013-12-26 2017-07-11 Canon Kabushiki Kaisha Imaging apparatus having multiple imaging units and method of controlling the same
KR20170131377A (en) * 2015-03-27 2017-11-29 인텔 코포레이션 Techniques for controlling user access to image sensors in camera devices
JP2018515945A (en) * 2015-03-27 2018-06-14 インテル・コーポレーション Technology for controlling user access to image sensors in camera devices
KR102583624B1 (en) * 2015-03-27 2023-09-26 인텔 코포레이션 Techniques for controlling user access to the image sensor of a camera device
JP2020502951A (en) * 2016-12-23 2020-01-23 ▲寧▼波舜宇光▲電▼信息有限公司 Array imaging module and its application
WO2021096251A1 (en) * 2019-11-14 2021-05-20 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same

Similar Documents

Publication Publication Date Title
JP2008245055A (en) Image display device, photographing device, and image display method
JP5676988B2 (en) Focus adjustment device
JP5809390B2 (en) Ranging / photometric device and imaging device
JP6031545B2 (en) Imaging apparatus and imaging support method
JP6045214B2 (en) Focus adjustment apparatus and control method thereof
JP5295426B2 (en) Compound eye imaging apparatus, parallax adjustment method and program thereof
JP5530322B2 (en) Display device and display method
JP2010068182A (en) Three-dimensional imaging device, method, and program
US10564391B2 (en) Imaging device and control method therefor
JP2010056737A (en) Three-dimensional display device, method, and program
JP2013017125A (en) Imaging apparatus and display method for monitoring image of the same
JP2008136024A (en) Photographing device, photographing system, and photographing method
JPWO2013035427A1 (en) Stereoscopic imaging apparatus and method
JP5822700B2 (en) Image capturing method, image capturing apparatus, and program
JP2008092007A (en) Photography apparatus
US9955066B2 (en) Imaging apparatus and control method of imaging apparatus
JP2011040990A (en) Imaging apparatus
JP2009058762A (en) Imaging apparatus
JP2012083584A (en) Imaging device
JP2013061560A (en) Distance measuring device, and imaging device
JP2011030123A (en) Imaging apparatus, control method of the same, and computer program
JP2008187440A (en) Image sensing device and its driving method
JP5672922B2 (en) Imaging device
JP6124684B2 (en) Imaging device, control method thereof, and control program
US10567662B2 (en) Imaging device and control method therefor using shift direction calculation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151201