JP2016184947A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2016184947A
JP2016184947A JP2016104747A JP2016104747A JP2016184947A JP 2016184947 A JP2016184947 A JP 2016184947A JP 2016104747 A JP2016104747 A JP 2016104747A JP 2016104747 A JP2016104747 A JP 2016104747A JP 2016184947 A JP2016184947 A JP 2016184947A
Authority
JP
Japan
Prior art keywords
image
image processing
sub
processing unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016104747A
Other languages
Japanese (ja)
Other versions
JP6123079B2 (en
Inventor
幸孝 土田
Yukitaka Tsuchida
幸孝 土田
喜博 冨倉
Yoshihiro Tomikura
喜博 冨倉
将寛 山田
Masahiro Yamada
将寛 山田
奈央 片岡
Nao Kataoka
奈央 片岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JP2016184947A publication Critical patent/JP2016184947A/en
Application granted granted Critical
Publication of JP6123079B2 publication Critical patent/JP6123079B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device in which an imaging unit is rotatable around the axis with respect to a main body and different image processing can be performed according to the imaging direction of the imaging unit.SOLUTION: An imaging device includes a first imaging unit for imaging a subject to generate first image data, a second imaging unit that is secured to the first imaging unit so that the imaging direction is rotatable, and generates second image data, a detector for detecting a first imaging direction and a second imaging direction as the imaging direction of the second imaging unit, a first image processor for performing image processing on the first image data, a second image processor for performing image processing on the second image data, and a controller for setting the operation of the first image processor and the second image processor according to the imaging direction. The controller operates the first image processor and the second image processor interlockingly with each other when the imaging direction is the first imaging direction, and operates the first image processor and the second image processor independently of each other when the imaging direction is the second imaging direction.SELECTED DRAWING: Figure 4

Description

本開示は撮像装置に関する。   The present disclosure relates to an imaging apparatus.

特許文献1に示すようなデジタルカメラは、静止画或いは動画という形式により、撮影者が見た情景を撮影することができる。近年、デジタルカメラは様々な進化を遂げており、ユーザの満足度も益々高くなっている。   A digital camera as shown in Patent Document 1 can capture a scene viewed by a photographer in the form of a still image or a moving image. In recent years, digital cameras have evolved in various ways, and user satisfaction has increased.

特開2010−154426号公報JP 2010-154426 A

従来のデジタルカメラから進化したカメラ形態の一例として、撮像部であるカメラユニットが本体に対して軸回りに回転可能なカメラ形態が考えられる。カメラユニットが本体に対して軸回りに回転することで、撮影方向の自由度は、従来のデジタルカメラよりも広がる。一方、撮影にあたっては、シーンに応じた好適な画質で画像が撮影できることが望まれている。従って、撮影方向の自由度の広がりに見合って、画質面でも対応する必要性が発生した。   As an example of a camera form that has evolved from a conventional digital camera, a camera form in which a camera unit that is an imaging unit can rotate about an axis with respect to the main body can be considered. As the camera unit rotates about the axis with respect to the main body, the degree of freedom in the shooting direction is wider than that of a conventional digital camera. On the other hand, in photographing, it is desired that an image can be photographed with a suitable image quality according to the scene. Accordingly, it has become necessary to cope with the image quality in accordance with the expansion of the degree of freedom in the photographing direction.

上記課題を解決するために、本開示に係る撮像装置は、被写体を撮像し、第1画像データを生成する第1撮像部と、第1撮像部に対して撮影方向を回転可能に取り付けられ、第2画像データを生成する第2撮像部と、第2撮像部の撮影方向として第1の撮影方向と第2の撮影方向を検出する検出部と、第1撮像部で生成された第1画像データに画像処理を施す第1画像処理部と、第2撮像部で生成された第2画像データに画像処理を施す第2画像処理部と、検出部で検出された撮影方向に応じて第1画像処理部および第2画像処理部の動作を設定する制御部と、を有する。   In order to solve the above problem, an imaging apparatus according to the present disclosure is attached to a first imaging unit that captures an image of a subject and generates first image data, and a shooting direction that is rotatable with respect to the first imaging unit. A second imaging unit that generates second image data; a detection unit that detects a first imaging direction and a second imaging direction as imaging directions of the second imaging unit; and a first image generated by the first imaging unit. A first image processing unit that performs image processing on the data, a second image processing unit that performs image processing on the second image data generated by the second imaging unit, and a first direction according to the shooting direction detected by the detection unit A control unit configured to set operations of the image processing unit and the second image processing unit.

第1の撮影方向は第1撮像部の撮影方向に近く、第2の撮影方向は第1の撮影方向に比べて撮影者側に近く、制御部は、検出部で検出された撮影方向が第1の撮影方向であるときは、第1画像処理部および第2画像処理部を連動して動作させ、検出部で検出された撮影方向が第2の撮影方向であるときは、第1画像処理部および第2画像処理部を独立して動作させる。   The first shooting direction is closer to the shooting direction of the first imaging unit, the second shooting direction is closer to the photographer side than the first shooting direction, and the control unit detects that the shooting direction detected by the detection unit is the first shooting direction. When the shooting direction is one, the first image processing unit and the second image processing unit are operated in conjunction with each other, and when the shooting direction detected by the detection unit is the second shooting direction, the first image processing unit And the second image processing unit are operated independently.

本開示は、回動可能な撮像部により撮影された被写体に対し、好適な画像処理を行うことができる撮像装置を提供する。   The present disclosure provides an imaging apparatus capable of performing suitable image processing on a subject photographed by a rotatable imaging unit.

(a)、(b)実施の形態に係る撮像装置の概要を示すための斜視図(A), (b) The perspective view for showing the outline | summary of the imaging device which concerns on embodiment (a)、(b)実施の形態に係る撮像装置の使用例を示す図(A), (b) The figure which shows the usage example of the imaging device which concerns on embodiment (a)、(b)実施の形態に係る撮像装置の表示部に表示される画像例を示す図(A), (b) The figure which shows the example of an image displayed on the display part of the imaging device which concerns on embodiment 実施の形態に係る撮像装置の電気的構成を示す図The figure which shows the electrical constitution of the imaging device which concerns on embodiment (a)、(b)実施の形態に係る撮像装置の撮影動作を示すフローチャート(A), (b) The flowchart which shows imaging | photography operation | movement of the imaging device which concerns on embodiment. (a)〜(c)実施の形態に係る撮像装置の画像処理動作を示すフローチャート(A)-(c) The flowchart which shows the image processing operation | movement of the imaging device which concerns on embodiment. (a)、(b)実施の形態に係る撮像装置のホワイトバランス補正の概要を示す図(A), (b) The figure which shows the outline | summary of the white balance correction | amendment of the imaging device which concerns on embodiment. (a)、(b)実施の形態に係る撮像装置の露出補正の概要を示す図(A), (b) The figure which shows the outline | summary of exposure correction | amendment of the imaging device which concerns on embodiment

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。   Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.

なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。   In addition, the inventors provide the accompanying drawings and the following description in order for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims. Absent.

〔実施の形態1〕
〔1.概要〕
まず、撮像装置10の概要について図を用いて説明する。図1(a)及び(b)は、撮像装置10の概要を説明するための斜視図である。図2(a)及び(b)は、撮像装置10の使用例を示す図である。図3(a)及び(b)は、撮像装置10の表示部220に表示される画像例を示す図である。図1(a)、図2(a)及び図3(a)はサブカメラ300が状態1であるときに対応した図を示し、図1(b)、図2(b)及び図3(b)はサブカメラ300が状態2であるときに対応した図を示す。
[Embodiment 1]
[1. Overview〕
First, an outline of the imaging apparatus 10 will be described with reference to the drawings. 1A and 1B are perspective views for explaining the outline of the imaging apparatus 10. FIGS. 2A and 2B are diagrams illustrating a usage example of the imaging apparatus 10. FIGS. 3A and 3B are diagrams illustrating examples of images displayed on the display unit 220 of the imaging apparatus 10. FIGS. 1A, 2A, and 3A are diagrams corresponding to the state where the sub camera 300 is in the state 1, and FIGS. 1B, 2B, and 3B are illustrated. ) Shows a diagram corresponding to when the sub camera 300 is in the state 2. FIG.

図1(a)(b)及び図2(a)(b)に示すように、撮像装置10は、メインカメラ100、表示部220、サブカメラ300を有する。メインカメラ100は、撮像装置10の本体に配置される。表示部220は、撮像装置10の本体に対し、ヒンジ部で2軸回転可能に接合される。サブカメラ300は、表示部220上に軸回転可能に取り付けられる。メインカメラ100は、撮影者が主に撮影したい被写体を撮像する。サブカメラ300は、メインカメラ100に対して回動可能であるため、メインカメラ100とは異なる撮影方向の被写体を撮像できる。表示部220は、図3(a)(b)に示すように、メインカメラ100で撮像された画像に対して、サブカメラ300で撮像された画像が重畳されたPinP(Picture in Picture)画像を表示する。以下では、説明の便宜のため、メインカメラ100で撮影された画像をメイン画像222と称し、サブカメラ300で撮影された画像をサブ画像221と称する。メインカメラ100及びサブカメラ300は撮像部の一例である。   As illustrated in FIGS. 1A and 1B and FIGS. 2A and 2B, the imaging apparatus 10 includes a main camera 100, a display unit 220, and a sub camera 300. The main camera 100 is disposed in the main body of the imaging device 10. The display unit 220 is joined to the main body of the imaging apparatus 10 so as to be biaxially rotatable at the hinge unit. The sub camera 300 is mounted on the display unit 220 so as to be rotatable about the axis. The main camera 100 images a subject that the photographer mainly wants to shoot. Since the sub camera 300 can rotate with respect to the main camera 100, it can capture a subject in a shooting direction different from that of the main camera 100. As shown in FIGS. 3A and 3B, the display unit 220 displays a PinP (Picture in Picture) image in which an image captured by the sub camera 300 is superimposed on an image captured by the main camera 100. indicate. Hereinafter, for convenience of explanation, an image shot by the main camera 100 is referred to as a main image 222, and an image shot by the sub camera 300 is referred to as a sub image 221. The main camera 100 and the sub camera 300 are an example of an imaging unit.

次に、図2を用いて、撮像装置10の使用例を説明する。図2に示すように、通常の使用時においては、撮影者は、メインカメラ100の撮影方向が撮影者の正面方向を向くようにして撮像装置10を使用する。このとき、撮影者は、表示部220を回動して、表示部220に表示される画像を確認できる状態にする。サブカメラ300は、軸回りに回動することにより、図2(a)に示すような、撮影方向が撮影者側を向いている状態(状態1)を実現することができる。又、サブカメラ300は、軸回りに回動することにより、図2(b)に示すような、撮影方向が撮影者側を向いていない状態(状態2)を実現することができる。   Next, a usage example of the imaging device 10 will be described with reference to FIG. As shown in FIG. 2, during normal use, the photographer uses the imaging apparatus 10 such that the photographing direction of the main camera 100 faces the front direction of the photographer. At this time, the photographer rotates the display unit 220 so that the image displayed on the display unit 220 can be confirmed. The sub-camera 300 can realize a state (state 1) in which the photographing direction faces the photographer as shown in FIG. 2A by rotating around the axis. Further, the sub camera 300 can be rotated around the axis to realize a state (state 2) in which the photographing direction is not directed to the photographer as shown in FIG.

なお、サブカメラ300の撮影方向が表示部220を向いているときのサブカメラ300の状態を、サブカメラ300が収納されている状態(以下、収納状態)であるとする。   Note that the state of the sub camera 300 when the shooting direction of the sub camera 300 faces the display unit 220 is a state in which the sub camera 300 is housed (hereinafter, housed state).

本実施の形態ではサブカメラ300が状態1にあるとき、サブカメラ300は撮影者を撮影する。これに対し、本実施の形態ではサブカメラ300が状態2にあるとき、サブカメラ300はメインカメラ100と同様の被写体を撮影する。撮像装置10は、サブカメラ300の状態1と状態2とで被写体が異なることに応じて、状態1と状態2とで異なる画像処理を行う。   In the present embodiment, when the sub camera 300 is in the state 1, the sub camera 300 captures the photographer. In contrast, in this embodiment, when the sub camera 300 is in the state 2, the sub camera 300 captures the same subject as the main camera 100. The imaging apparatus 10 performs different image processing in the state 1 and the state 2 in accordance with the subject being different in the state 1 and the state 2 of the sub camera 300.

〔2.電気的構成〕
続いて、撮像装置10の、メインカメラ100及びサブカメラ300の電気的構成、制御系統、画像処理について、図4を用いて説明する。
[2. Electrical configuration)
Next, the electrical configuration, control system, and image processing of the main camera 100 and the sub camera 300 of the imaging apparatus 10 will be described with reference to FIG.

〔2−1.メインカメラの電気的構成〕
まず、図4を用いて、メインカメラ100の電気的構成について説明する。メインカメラ100は、1又は複数のレンズからなるメイン光学系110により形成された被写体像をCMOSイメージセンサ140で撮像する。CMOSイメージセンサ140で生成された画像データは、A/Dコンバータ(ADC)150でデジタル信号に変換された後、メイン画像処理部160で各種処理が施され、メモリカード200に格納される、或いは、表示部220に表示される。
[2-1. Main camera electrical configuration)
First, the electrical configuration of the main camera 100 will be described with reference to FIG. The main camera 100 captures a subject image formed by the main optical system 110 including one or a plurality of lenses with a CMOS image sensor 140. Image data generated by the CMOS image sensor 140 is converted into a digital signal by an A / D converter (ADC) 150 and then subjected to various processes by the main image processing unit 160 and stored in the memory card 200. Are displayed on the display unit 220.

メイン光学系110は、ズームレンズ111、手振れ補正レンズ112、フォーカスレンズ113、絞り114等により構成される。ズームレンズ111は光軸に沿って移動されることにより、被写体像の拡大、縮小を可能にする。また、フォーカスレンズ113は光軸に沿って移動されることにより、被写体像のピントの調整を可能にする。また、手振れ補正レンズ112は、メイン光学系110の光軸に垂直な面内で移動可能である。撮像装置10のブレを打ち消す方向に手振れ補正レンズ112を移動することで、撮像装置10のブレが撮像画像に与える影響を低減できる。また、絞り114は、使用者の設定に応じて若しくは自動で、開口部の大きさを調整し、透過する光の量を調整する。   The main optical system 110 includes a zoom lens 111, a camera shake correction lens 112, a focus lens 113, a diaphragm 114, and the like. The zoom lens 111 is moved along the optical axis, thereby enabling enlargement and reduction of the subject image. In addition, the focus lens 113 is moved along the optical axis, so that the focus of the subject image can be adjusted. Further, the camera shake correction lens 112 is movable in a plane perpendicular to the optical axis of the main optical system 110. By moving the camera shake correction lens 112 in a direction in which the blur of the imaging device 10 is canceled, it is possible to reduce the influence of the blur of the imaging device 10 on the captured image. The diaphragm 114 adjusts the amount of transmitted light by adjusting the size of the opening in accordance with the setting of the user or automatically.

メインレンズ駆動部120は、ズームレンズ111や、手振れ補正レンズ112、フォーカスレンズ113、絞り114をそれぞれ駆動させるアクチュエータを含む。そして、メインレンズ駆動部120は、例えば、各アクチュエータを制御する。   The main lens driving unit 120 includes actuators that drive the zoom lens 111, the camera shake correction lens 112, the focus lens 113, and the diaphragm 114, respectively. And the main lens drive part 120 controls each actuator, for example.

CMOSイメージセンサ140は、メイン光学系110で形成された被写体像を撮像して、画像データを生成する。CMOSイメージセンサ140は、露光、転送、電子シャッタなどの各種動作を行う。   The CMOS image sensor 140 captures a subject image formed by the main optical system 110 and generates image data. The CMOS image sensor 140 performs various operations such as exposure, transfer, and electronic shutter.

A/Dコンバータ150は、CMOSイメージセンサ140で生成されたアナログ画像データをデジタル画像データに変換する。   The A / D converter 150 converts analog image data generated by the CMOS image sensor 140 into digital image data.

メイン画像処理部160は、CMOSイメージセンサ140で生成された画像データに対して各種処理を施し、表示部220に表示するための画像データを生成する。又、メイン画像処理部160はメモリカード200に格納するための画像データを生成する。例えば、メイン画像処理部160は、CMOSイメージセンサ140で生成された画像データに対して、ガンマ補正、ホワイトバランス(WB)補正、シャープネス補正、傷補正などの各種処理を行う。また、メイン画像処理部160は、CMOSイメージセンサ140で生成された画像データを、H.264規格やMPEG2規格に準拠した圧縮形式等により圧縮する。   The main image processing unit 160 performs various processes on the image data generated by the CMOS image sensor 140 and generates image data to be displayed on the display unit 220. The main image processing unit 160 generates image data to be stored in the memory card 200. For example, the main image processing unit 160 performs various processes such as gamma correction, white balance (WB) correction, sharpness correction, and flaw correction on the image data generated by the CMOS image sensor 140. The main image processing unit 160 converts the image data generated by the CMOS image sensor 140 into H.264. It compresses by the compression format etc. based on H.264 standard or MPEG2 standard.

本実施の形態では、メイン画像処理部160にPinP処理部390が内蔵されている。図3(a)(b)は、PinP処理部390で重畳処理され、表示部220に表示される画像の一例である。PinP処理部390は、メイン画像222にサブ画像221を重畳処理(PinP処理)する。PinP処理されたサブ画像221は、表示部220に表示されるスルー画像において、位置や大きさを変えることができる。このとき、メイン画像222がサブ画像221より大きくなるようにPinP処理されることが望ましい。   In the present embodiment, the main image processing unit 160 includes a PinP processing unit 390. FIGS. 3A and 3B are examples of images that are superimposed by the PinP processing unit 390 and displayed on the display unit 220. The PinP processing unit 390 superimposes the sub image 221 on the main image 222 (PinP processing). The PinP-processed sub-image 221 can be changed in position and size in the through image displayed on the display unit 220. At this time, it is desirable to perform PinP processing so that the main image 222 is larger than the sub image 221.

〔2−2.サブカメラの電気的構成〕
次に、図4を用いて、サブカメラ300の電気的構成について説明する。サブカメラ300は、1又は複数のレンズからなるサブ光学系310により形成された被写体像をCMOSイメージセンサ340で撮像する。CMOSイメージセンサ340で生成された画像データは、A/Dコンバータ(ADC)350でデジタル信号に変換された後、サブ画像処理部360で各種処理が施され、メモリカード200に格納される、或いは、表示部220に表示される。
[2-2. Sub-camera electrical configuration)
Next, the electrical configuration of the sub camera 300 will be described with reference to FIG. The sub camera 300 captures a subject image formed by the sub optical system 310 including one or a plurality of lenses with the CMOS image sensor 340. The image data generated by the CMOS image sensor 340 is converted into a digital signal by an A / D converter (ADC) 350 and then subjected to various processing by the sub image processing unit 360 and stored in the memory card 200, or Are displayed on the display unit 220.

サブ光学系310は、フォーカスレンズ313、絞り314等により構成される。各要素の構成はメインカメラ100に備えられたものと同じであるとして、詳細な説明を省略する。なお、サブカメラ300のサブ光学系310を構成する要素の種類はフォーカスレンズ313や絞り314に限られたものではなく、ズームレンズや手振れ補正レンズ等を有していてもよい。   The sub optical system 310 includes a focus lens 313, a diaphragm 314, and the like. Since the configuration of each element is the same as that of the main camera 100, a detailed description is omitted. Note that the types of elements constituting the sub optical system 310 of the sub camera 300 are not limited to the focus lens 313 and the aperture 314, and may include a zoom lens, a camera shake correction lens, and the like.

サブカメラ300が有するサブレンズ駆動部320、CMOSイメージセンサ340、A/Dコンバータ350、サブ画像処理部360の主な構成は、メインカメラ100が有するメインレンズ駆動部120、CMOSイメージセンサ140、A/Dコンバータ150、メイン画像処理部160の主な構成と同様であるとして、詳細な説明を省略する。なお、サブカメラ300のサブ光学系310として固定焦点の光学系を用いる場合は、サブレンズ駆動部320が存在しなくてもよい。   The main configurations of the sub lens driving unit 320, the CMOS image sensor 340, the A / D converter 350, and the sub image processing unit 360 included in the sub camera 300 are the main lens driving unit 120, the CMOS image sensor 140, and A included in the main camera 100. Since it is the same as the main configuration of the / D converter 150 and the main image processing unit 160, the detailed description is omitted. When a fixed-focus optical system is used as the sub optical system 310 of the sub camera 300, the sub lens driving unit 320 may not be present.

〔2−3.制御系統〕
サブ画像処理部360は、各種処理が施された画像データを、PinP処理部390へと送る。そして、PinP処理された画像データはメモリカード200に格納される。或いは、PinP処理された画像データは、表示部220に表示される。
[2-3. Control system)
The sub image processing unit 360 sends the image data that has been subjected to various types of processing to the PinP processing unit 390. The PinP-processed image data is stored in the memory card 200. Alternatively, the PinP processed image data is displayed on the display unit 220.

画像処理やPinP処理された画像データは、コントローラ180へ送られる。コントローラ180は、撮像装置10全体を制御する制御手段である。コントローラ180は、半導体素子などで実現できる。コントローラ180は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。コントローラ180は、マイコンなどで実現できる。   Image data that has undergone image processing or PinP processing is sent to the controller 180. The controller 180 is a control unit that controls the entire imaging apparatus 10. The controller 180 can be realized by a semiconductor element or the like. The controller 180 may be configured only by hardware, or may be realized by combining hardware and software. The controller 180 can be realized by a microcomputer or the like.

向きセンサ380は、サブカメラ300の撮影方向を検出する。このとき、向きセンサ380は少なくともサブカメラ300が状態1にあるか状態2にあるかを検出する。向きセンサ380が検出した結果はコントローラ180に通知される。これにより、コントローラ180は、サブカメラ300が軸回りに回動したときの撮影方向(状態1、状態2)を把握できる。向きセンサ380は、スイッチング機構やマグネット、可変抵抗などを用いて実現できる。   The direction sensor 380 detects the shooting direction of the sub camera 300. At this time, the orientation sensor 380 detects at least whether the sub camera 300 is in state 1 or state 2. The result detected by the orientation sensor 380 is notified to the controller 180. Thereby, the controller 180 can grasp the shooting direction (state 1 and state 2) when the sub camera 300 rotates about the axis. The direction sensor 380 can be realized using a switching mechanism, a magnet, a variable resistor, or the like.

バッファ170、370は、メイン画像処理部160、サブ画像処理部360及びコントローラ180のワークメモリとして機能する。バッファ170、370は、例えば、DRAM、強誘電体メモリなどで実現できる。   The buffers 170 and 370 function as work memories for the main image processing unit 160, the sub image processing unit 360, and the controller 180. The buffers 170 and 370 can be realized by, for example, a DRAM or a ferroelectric memory.

カードスロット190は、メモリカード200を着脱可能である。カードスロット190は、機械的及び電気的にメモリカード200と接続可能である。メモリカード200は、フラッシュメモリや強誘電体メモリなどを内部に含み、メイン画像処理部160、サブ画像処理部360で生成された画像ファイル等のデータを格納できる。   The card slot 190 is detachable from the memory card 200. The card slot 190 can be mechanically and electrically connected to the memory card 200. The memory card 200 includes a flash memory, a ferroelectric memory, and the like, and can store data such as image files generated by the main image processing unit 160 and the sub image processing unit 360.

内部メモリ240は、フラッシュメモリや強誘電体メモリなどで構成される。内部メモリ240は、撮像装置10全体を制御するための制御プログラム等を記憶する。   The internal memory 240 is composed of a flash memory or a ferroelectric memory. The internal memory 240 stores a control program for controlling the entire imaging apparatus 10 and the like.

操作部材210は、使用者からの操作を受け付けるユーザーインターフェースの総称である。操作部材210には、例えば、使用者からの操作を受け付ける十字キーや決定釦等が挙げられる。また、操作部材210は動画記録釦や、動画再生釦なども有する。動画記録釦は、ユーザによる動画記録開始/停止の指示を受け付ける。動画再生釦は、ユーザによる動画像データの再生開始/再生停止の指示を受け付ける。動画記録釦は、動画非記録時における動画記録開始指示と、動画記録時における動画記録停止指示とを兼用する釦として以下説明するが、これに限定されない。動画記録開始釦とは別途、動画記録停止釦を備えていてもよい。動画記録釦などは、撮像装置10の外装に備わるハードキーでもよい。又、動画記録釦などは表示部220に表示された釦アイコンを、タッチパネルを介して操作させるソフトキーであってもよい。   The operation member 210 is a generic name for a user interface that receives an operation from a user. The operation member 210 includes, for example, a cross key that accepts an operation from a user, a determination button, and the like. The operation member 210 also has a moving image recording button, a moving image reproduction button, and the like. The moving image recording button receives an instruction to start / stop moving image recording by the user. The moving image playback button receives an instruction to start / stop playback of moving image data by the user. The moving image recording button will be described below as a button that uses both a moving image recording start instruction when moving images are not recorded and a moving image recording stop instruction when moving images are recorded, but is not limited thereto. A moving image recording stop button may be provided separately from the moving image recording start button. The moving image recording button or the like may be a hard key provided on the exterior of the imaging apparatus 10. The moving image recording button or the like may be a soft key for operating a button icon displayed on the display unit 220 via a touch panel.

表示部220は、CMOSイメージセンサ140で生成された画像データが示す画像や、PinP処理部390が重畳処理を行った画像や、メモリカード200から読み出された画像データが示す画像を表示できる。また、表示部220は、撮像装置10の各種設定を行うための各種メニュー画面等も表示できる。   The display unit 220 can display an image indicated by the image data generated by the CMOS image sensor 140, an image subjected to the superimposition processing by the PinP processing unit 390, and an image indicated by the image data read from the memory card 200. The display unit 220 can also display various menu screens for performing various settings of the imaging device 10.

なお、図4では、PinP処理部390は、メイン画像処理部160に内蔵されるように示しているが、本開示はこれに限定されるものではない。PinP処理部390は、サブ画像処理部360に内蔵されていてもよいし、独立して存在してもよい。   In FIG. 4, the PinP processing unit 390 is shown to be built in the main image processing unit 160, but the present disclosure is not limited to this. The PinP processing unit 390 may be built in the sub image processing unit 360 or may exist independently.

また、サブ画像処理部360からPinP処理部390へ送られる画像データは、バッファ370を介してもよい。これにより、サブ画像221の画像データはバッファ370に一時保存されるので、メイン画像222の画像データとサブ画像221の画像データとが、同じタイミングでコントローラ180に送られることが可能となる。   Further, the image data sent from the sub image processing unit 360 to the PinP processing unit 390 may pass through the buffer 370. Accordingly, the image data of the sub image 221 is temporarily stored in the buffer 370, so that the image data of the main image 222 and the image data of the sub image 221 can be sent to the controller 180 at the same timing.

また、メインカメラ100のワークメモリとして機能するバッファ170と、サブカメラ300のワークメモリとして機能するバッファ370の二つが存在するとしているが、本開示はこれに限定されるものではない。バッファは一つであってもよいし、3つ以上あってもよい。   In addition, the buffer 170 that functions as the work memory of the main camera 100 and the buffer 370 that functions as the work memory of the sub camera 300 exist. However, the present disclosure is not limited to this. There may be one buffer or three or more buffers.

〔2−4.画像処理〕
続いて、メイン画像処理部160やサブ画像処理部360で行われる画像処理の内、ホワイトバランス補正、露出補正、シャープネス補正を例に挙げて説明する。
[2-4. Image processing〕
Subsequently, white balance correction, exposure correction, and sharpness correction will be described as examples of image processing performed by the main image processing unit 160 and the sub image processing unit 360.

〔2−4−1.ホワイトバランス補正〕
まず、メイン画像処理部160やサブ画像処理部360で行われるホワイトバランス補正について説明する。メインカメラ100とサブカメラ300の各画像処理部は、画像の色味を調整することで画像データのホワイトバランスを補正する。コントローラ180は、画像データから光源を推定する。例えば、図7(a)に示すように、RデータとBデータの座標上において、複数の光源推定範囲が設定されている。図7(a)に示す例では、白熱灯、蛍光灯、晴天及び日陰の4つの光源推定範囲A1〜A4が設定されている。コントローラ180の光源推定部は、画像データの入力データが、いずれの光源推定範囲に分布しているかに基づいて、ホワイトバランス補正のために基準とする光源を推定できる。メイン画像処理部160やサブ画像処理部360は、光源推定部により推定された光源に基づいて、ホワイトバランス補正の追従範囲を制御する。このとき、光源推定範囲内に追従範囲が含まれることが望ましい。各画像処理部は、ホワイトバランス補正の追従範囲内でRゲイン、Bゲイン、Gゲインを調整することにより、画像の色味を調整する。例えば、画像が赤み掛かっているときは、各画像処理部はRゲインを下げてBゲインやGゲインを上げるなどの補正を行う。なお、図7(a)(b)に示すWB補正の詳細は後述する。
[2-4-1. (White balance correction)
First, white balance correction performed by the main image processing unit 160 and the sub image processing unit 360 will be described. Each image processing unit of the main camera 100 and the sub camera 300 corrects the white balance of the image data by adjusting the color of the image. The controller 180 estimates the light source from the image data. For example, as shown in FIG. 7A, a plurality of light source estimation ranges are set on the coordinates of R data and B data. In the example shown in FIG. 7A, four light source estimation ranges A1 to A4 are set for the incandescent lamp, the fluorescent lamp, the clear sky, and the shade. The light source estimation unit of the controller 180 can estimate a light source used as a reference for white balance correction based on which light source estimation range the input data of image data is distributed over. The main image processing unit 160 and the sub image processing unit 360 control the tracking range of white balance correction based on the light source estimated by the light source estimation unit. At this time, it is desirable that the tracking range is included in the light source estimation range. Each image processing unit adjusts the color of the image by adjusting the R gain, the B gain, and the G gain within the tracking range of the white balance correction. For example, when the image is reddish, each image processing unit performs correction such as decreasing the R gain and increasing the B gain or the G gain. Details of the WB correction shown in FIGS. 7A and 7B will be described later.

〔2−4−2.露出補正〕
次に、メイン画像処理部160やサブ画像処理部360で行われる露出補正について説明する。各画像処理部は、画像の明るさを調整することで画像データの露出を補正する。コントローラ180は、画像データの輝度情報に基づき、画像の明るさを判断する。このとき、図示しない測光計を用いてもよいし、得られた画像データを解析してもよい。画像データから得られた輝度情報に応じて、各画像処理部は、画像が適正露出の基準値よりも明るすぎる場合(露出オーバー)は露出をマイナスに補正する。又、各画像処理部は、画像が適正露出の基準値よりも暗すぎる場合(露出アンダー)は露出をプラスに補正する。このような補正により、画像の露出を適正露出にする。露出を補正する方法としては、絞り114,314を調整する方法や、メイン画像処理部160、サブ画像処理部360でコントラスト値を調整する方法などが挙げられる。また、後述するように、適正露出を判断する際に、ユーザの設定により画像の一部に重みを付けてもよいし、画像全体を平均的に扱ってもよい。
[2-4-2. (Exposure compensation)
Next, exposure correction performed by the main image processing unit 160 and the sub image processing unit 360 will be described. Each image processing unit corrects the exposure of the image data by adjusting the brightness of the image. The controller 180 determines the brightness of the image based on the luminance information of the image data. At this time, a photometer (not shown) may be used, or the obtained image data may be analyzed. In accordance with the luminance information obtained from the image data, each image processing unit corrects the exposure to be negative when the image is too bright (overexposure) than the reference value for proper exposure. Each image processing unit corrects the exposure to plus if the image is too dark (underexposure) than the reference value for proper exposure. By such correction, the image is exposed properly. Examples of a method for correcting exposure include a method of adjusting the diaphragms 114 and 314, a method of adjusting a contrast value using the main image processing unit 160 and the sub image processing unit 360, and the like. Further, as described later, when determining appropriate exposure, a part of an image may be weighted according to a user setting, or the entire image may be handled on an average.

〔2−4−3.シャープネス補正〕
最後に、メイン画像処理部160やサブ画像処理部360で行われるシャープネス補正について説明する。各画像処理部は、画像のコントラストを調整することで画像データのシャープネス(鮮明さ)を補正する。コントローラ180は、画像データの各画素の輝度差を解析する。各画像処理部は、画像を鋭くする場合は画像データの各画素間の輝度差を強調する。また、各画像処理部は、画像を柔らかくする場合は画像データの各画素間の輝度差を低減させる。風景などを撮像する場合は、画像の色を際立たせるために、画像データの各画素間の輝度差を強調することが望ましい。また、人物を撮像する場合は、顔の影や皺を目立たなくするために、画像データの各画素間の輝度差を低減させることが望ましい。
[2-4-3. Sharpness correction)
Finally, the sharpness correction performed by the main image processing unit 160 and the sub image processing unit 360 will be described. Each image processing unit corrects the sharpness of image data by adjusting the contrast of the image. The controller 180 analyzes the luminance difference of each pixel of the image data. Each image processing unit enhances the luminance difference between each pixel of the image data when sharpening the image. Each image processing unit reduces the luminance difference between the pixels of the image data when the image is softened. When capturing a landscape or the like, it is desirable to enhance the luminance difference between each pixel of the image data in order to make the color of the image stand out. When a person is imaged, it is desirable to reduce the luminance difference between the pixels of the image data in order to make the shadows and wrinkles of the face inconspicuous.

〔3.動作〕
続いて、撮像装置10の動作を説明する。図5(a)はメインカメラ100の撮影動作を示すフローチャートであり、図5(b)はサブカメラ300の撮影動作を示すフローチャートである。
[3. Operation)
Subsequently, the operation of the imaging apparatus 10 will be described. FIG. 5A is a flowchart showing the photographing operation of the main camera 100, and FIG. 5B is a flowchart showing the photographing operation of the sub camera 300.

〔3−1.メインカメラの動作〕
まずメインカメラ100の動作を、図5(a)を用いて説明する。なお、簡単のため、撮像装置10は撮影モードに設定されているとする。
[3-1. (Main camera operation)
First, the operation of the main camera 100 will be described with reference to FIG. For simplicity, it is assumed that the imaging apparatus 10 is set to the shooting mode.

撮像装置10の電源がオン(ON)される(ステップS100)と、コントローラ180は、撮像装置10を構成する各部に必要な電力を供給する(ステップS101)。電力が供給されると、メインレンズ駆動部120やCMOSイメージセンサ140は動作可能な状態へ初期設定を行う(ステップS102)。初期設定が完了すると、CMOSイメージセンサ140は被写体の撮像を開始する(ステップS103)。CMOSイメージセンサ140により撮像された画像データは、メイン画像処理部160に送られる(ステップS104)。   When the power supply of the imaging apparatus 10 is turned on (step S100), the controller 180 supplies necessary power to each unit constituting the imaging apparatus 10 (step S101). When power is supplied, the main lens driving unit 120 and the CMOS image sensor 140 are initialized to an operable state (step S102). When the initial setting is completed, the CMOS image sensor 140 starts imaging the subject (step S103). Image data captured by the CMOS image sensor 140 is sent to the main image processing unit 160 (step S104).

ここで、コントローラ180は、サブ画像221が存在するか否かを検知する(ステップS105)。サブ画像221がない場合(ステップS105におけるNo)には、表示部220はCMOSイメージセンサ140が生成した画像データに基づくスルー画像の表示を開始する(ステップS107)。このとき、表示部220にはメイン画像222のスルー画像が表示されている。ユーザは、表示部220に表示されるスルー画像を見ながら、画角等を判断し、動画記録の開始に好適なタイミングで操作部材210の動画記録釦を押下する。サブ画像221がある場合(ステップS105におけるYes)には、PinP処理を行った(ステップS106)後、図3(a)(b)に示すPinP処理されたスルー画像が表示部220に表示される(ステップS107)。詳細は、サブカメラ300の動作と併せて後述する。   Here, the controller 180 detects whether or not the sub image 221 exists (step S105). If there is no sub-image 221 (No in step S105), the display unit 220 starts displaying a through image based on the image data generated by the CMOS image sensor 140 (step S107). At this time, a through image of the main image 222 is displayed on the display unit 220. The user determines the angle of view while viewing the through image displayed on the display unit 220, and presses the moving image recording button of the operation member 210 at a timing suitable for starting moving image recording. When the sub image 221 is present (Yes in step S105), the PinP process is performed (step S106), and then the through image subjected to the PinP process shown in FIGS. 3A and 3B is displayed on the display unit 220. (Step S107). Details will be described later together with the operation of the sub camera 300.

コントローラ180は、動画記録釦が押下されたか否かを監視している(ステップS108)。動画記録釦が押下されるまで、コントローラ180はS108の状態で待機する。動画記録釦が押下されると(ステップS108におけるYes)、コントローラ180は、CMOSイメージセンサ140の撮像画像に基づく動画像データのメモリカード200への記録を開始する(ステップS109)。メモリカード200に動画像データを書き込む前に、一旦、動画像データを、バッファ170に蓄積しておいてもよい。このとき、バッファ170に蓄積された動画像データのデータ量が一定量を越えたときに、コントローラ180は、この一定量を超えたデータ量の動画像データをメモリカード200に書き込みにいくようにしてもよい。   The controller 180 monitors whether or not the moving image recording button has been pressed (step S108). The controller 180 stands by in the state of S108 until the moving image recording button is pressed. When the moving image recording button is pressed (Yes in step S108), the controller 180 starts recording moving image data based on the image captured by the CMOS image sensor 140 to the memory card 200 (step S109). Before the moving image data is written in the memory card 200, the moving image data may be temporarily stored in the buffer 170. At this time, when the data amount of the moving image data stored in the buffer 170 exceeds a certain amount, the controller 180 writes the moving image data with the data amount exceeding the certain amount to the memory card 200. May be.

コントローラ180は、ここでもまた動画記録釦が押下されたか否かを監視している(ステップS110)。動画記録釦が押下されるまで、コントローラ180はステップS110の状態で動画像データの記録を継続する。再度動画記録釦が押下されると(ステップS110におけるYes)、コントローラ180は動画像データの記録を終了する。そして、ステップS103に戻り、再度、CMOSイメージセンサ140は被写体像の撮像を行う。   The controller 180 again monitors whether or not the moving image recording button has been pressed (step S110). Until the moving image recording button is pressed, the controller 180 continues recording moving image data in the state of step S110. When the moving image recording button is pressed again (Yes in step S110), the controller 180 ends the recording of the moving image data. Then, returning to step S103, the CMOS image sensor 140 captures the subject image again.

〔3−2.サブカメラの動作〕
次に、サブカメラ300の基本動作および、画像処理の詳細動作について説明する。
[3-2. Operation of sub camera)
Next, the basic operation of the sub camera 300 and the detailed operation of image processing will be described.

〔3−2−1.基本動作〕
まず、サブカメラ300の基本動作を、図5(b)を用いて説明する。なお、ここで簡単のため、撮像装置10は撮影モードにすでに設定されているとして説明する。
[3-2-1. basic action〕
First, the basic operation of the sub camera 300 will be described with reference to FIG. Here, for the sake of simplicity, description will be made assuming that the imaging apparatus 10 has already been set to the shooting mode.

撮像装置10の電源がオン(ON)され(ステップS200)、コントローラ180に電力が供給されると、コントローラ180はサブカメラ300が起動しているかどうかを常に監視する(ステップS201)。ユーザがサブカメラ300を起動させる(ステップS201におけるYes)と、サブカメラ300を構成する各部に必要な電力が供給される(ステップS202)。このとき、向きセンサ380がサブカメラ300の収納状態からの回動を検知するとサブカメラ300が起動する。なお、サブカメラ300を起動させる起動釦が存在し、その起動釦をONすることでサブカメラ300が起動するようにしてもよい。電力が供給されると、サブレンズ駆動部320やCMOSイメージセンサ340は動作可能な状態へ初期設定を行う(ステップS203)。初期設定が完了すると、CMOSイメージセンサ340は被写体の撮像を開始する(ステップS204)。CMOSイメージセンサ340により撮像された画像データは、サブ画像処理部360に送られ、画像処理が行われる(ステップS205)。   When the power of the imaging apparatus 10 is turned on (step S200) and power is supplied to the controller 180, the controller 180 always monitors whether the sub camera 300 is activated (step S201). When the user activates the sub camera 300 (Yes in step S201), necessary power is supplied to each unit constituting the sub camera 300 (step S202). At this time, when the orientation sensor 380 detects the rotation of the sub camera 300 from the housed state, the sub camera 300 is activated. Note that there may be an activation button for activating the sub camera 300, and the sub camera 300 may be activated by turning on the activation button. When power is supplied, the sub-lens driver 320 and the CMOS image sensor 340 perform initial setting to an operable state (step S203). When the initial setting is completed, the CMOS image sensor 340 starts imaging of the subject (step S204). Image data captured by the CMOS image sensor 340 is sent to the sub-image processing unit 360, and image processing is performed (step S205).

サブカメラ300において上述した動作が行われると、図5(a)のステップS105で、サブ画像221が存在すると判断される(S105におけるYes)。サブ画像221は、サブ画像処理部360で各種処理された後、PinP処理部390にてPinP処理が行われる(ステップS106)。PinP処理された画像は、図3(a)及び(b)に示すようにメイン画像222とサブ画像221とが重畳された状態で、表示部220にスルー画像として表示される(ステップS107)。その後、記録動作(ステップS108〜ステップS111)が行われる。   When the above-described operation is performed in the sub camera 300, it is determined in step S105 in FIG. 5A that the sub image 221 exists (Yes in S105). The sub image 221 is subjected to various processes by the sub image processing unit 360 and then subjected to PinP processing by the PinP processing unit 390 (step S106). The PinP processed image is displayed as a through image on the display unit 220 in a state where the main image 222 and the sub image 221 are superimposed as shown in FIGS. 3A and 3B (step S107). Thereafter, a recording operation (step S108 to step S111) is performed.

記録動作の際には、重畳された各画像は別のデータとして個別に圧縮されて記録されても構わない。又は、各画像は一つのデータとして圧縮されて記録されても構わない。   In the recording operation, each superimposed image may be individually compressed and recorded as different data. Alternatively, each image may be compressed and recorded as one data.

サブカメラ300は、前述したように、回動することによってメインカメラ100とは異なった被写体を撮像できる。即ちサブカメラ300は、撮影者を撮像する可能性の高い状態1と、撮影者を撮像する可能性の低い状態2の2つの状態を少なくとも有する。本実施の形態における撮像装置10は、状態1、状態2のそれぞれに応じて、サブカメラ300で撮像された画像に対し異なった画像処理パラメータの設定方法を用いる。   As described above, the sub camera 300 can image a subject different from the main camera 100 by rotating. That is, the sub-camera 300 has at least two states, a state 1 where there is a high possibility of capturing a photographer and a state 2 where the possibility of capturing a photographer is low. The imaging apparatus 10 according to the present embodiment uses different image processing parameter setting methods for images captured by the sub camera 300 in accordance with states 1 and 2 respectively.

具体的には、状態1ではサブカメラ300は撮影者を近距離で撮像している可能性が高い。そのため、サブ画像処理部360はメインカメラ100で撮像している被写体とは異なる画像処理パラメータの設定方法を用いる。一方、状態2ではサブカメラ300はメインカメラ100と近い状態の被写体を撮像している可能性が高い。そのため、サブ画像処理部360はメインカメラ100と同様の画像処理パラメータの設定方法を用いる。以下で、各状態における画像処理(ホワイトバランス補正、露出補正、シャープネス補正)について説明する。   Specifically, in state 1, there is a high possibility that the sub camera 300 is photographing the photographer at a short distance. Therefore, the sub image processing unit 360 uses a method for setting image processing parameters different from that of the subject imaged by the main camera 100. On the other hand, in state 2, there is a high possibility that the sub camera 300 is imaging a subject that is close to the main camera 100. Therefore, the sub image processing unit 360 uses the same image processing parameter setting method as that of the main camera 100. Hereinafter, image processing (white balance correction, exposure correction, sharpness correction) in each state will be described.

〔3−2−2.ホワイトバランス補正〕
まず、ホワイトバランス補正について説明する。撮像装置10では、サブ画像221に対して、サブカメラ300の状態に応じて異なるホワイトバランス補正を行うことができる。図6(a)を用いて以下で詳細を説明する。
[3-2-2. (White balance correction)
First, white balance correction will be described. In the imaging apparatus 10, different white balance correction can be performed on the sub image 221 depending on the state of the sub camera 300. Details will be described below with reference to FIG.

図6(a)は、図5(b)に示すステップS205におけるホワイトバランス補正の画像処理動作を示すフローチャートである。図6(a)のステップS11において、図5(b)のステップS204と同様に、CMOSイメージセンサ340は被写体像を撮像する。同時に、サブ画像処理部360はサブカメラ300の状態を検知する(ステップS12)。本実施の形態では、状態の検知に関して、向きセンサ380の検出値を、コントローラ180を介してサブ画像処理部360が受け取るように構成されているが、コントローラ180を介さずに直接、サブ画像処理部360が受け取るようにしてもよい。サブカメラ300の状態を検知した結果、サブカメラ300が状態1であるとき(ステップS12におけるYes)は、サブ画像処理部360は画像データに対してWB補正1を行う(ステップS13)。上述のように、状態1ではサブカメラ300は撮影者を近距離で撮像している可能性が高いので、WB補正1としては、人物の顔に適した、すなわち肌色が退色しないようなWB補正を行う。サブカメラ300が状態2であるとき(ステップS12におけるNo)は、サブ画像処理部360は、サブカメラ300により生成された画像データに対して、メインカメラ100により生成された画像データに対するWB補正と対応したWB補正2を行う(ステップS14)。ここで、メインカメラ100により生成された画像データに対するWB補正と対応したWB補正2とは、メインカメラ100により生成された画像データに対するWB補正のパラメータと同一のパラメータによる補正であってもよい。或いは、メインカメラ100により生成された画像データに対するWB補正のパラメータに所定の係数を乗じたパラメータによる補正であってもよい。   FIG. 6A is a flowchart showing the image processing operation for white balance correction in step S205 shown in FIG. In step S11 of FIG. 6A, the CMOS image sensor 340 captures a subject image as in step S204 of FIG. 5B. At the same time, the sub image processing unit 360 detects the state of the sub camera 300 (step S12). In the present embodiment, regarding the state detection, the detection value of the orientation sensor 380 is configured to be received by the sub image processing unit 360 via the controller 180. However, the sub image processing is directly performed without using the controller 180. The unit 360 may receive it. As a result of detecting the state of the sub camera 300, when the sub camera 300 is in state 1 (Yes in step S12), the sub image processing unit 360 performs WB correction 1 on the image data (step S13). As described above, in the state 1, the sub camera 300 is likely to capture the photographer at a short distance. Therefore, as the WB correction 1, the WB correction suitable for a person's face, that is, the skin color does not fade. I do. When the sub camera 300 is in state 2 (No in step S12), the sub image processing unit 360 performs WB correction on the image data generated by the main camera 100 with respect to the image data generated by the sub camera 300. Corresponding WB correction 2 is performed (step S14). Here, the WB correction 2 corresponding to the WB correction for the image data generated by the main camera 100 may be a correction using the same parameter as the parameter of the WB correction for the image data generated by the main camera 100. Alternatively, correction by a parameter obtained by multiplying a parameter for WB correction for image data generated by the main camera 100 by a predetermined coefficient may be used.

ここで、WB補正1について詳細に説明する。図7(a)は、WB補正の概要を示す図であり、主な光源である白熱灯、蛍光灯、晴天、日陰の4つの光源にそれぞれ対応する光源推定範囲A1、A2、A3、A4を示している。図7(b)は図7(a)における光源推定範囲A1の近傍の拡大図である。   Here, the WB correction 1 will be described in detail. FIG. 7A is a diagram showing an outline of WB correction, and light source estimation ranges A1, A2, A3, and A4 corresponding to four light sources, which are incandescent lamps, fluorescent lamps, clear sky, and shade, which are main light sources, are shown. Show. FIG. 7B is an enlarged view of the vicinity of the light source estimation range A1 in FIG.

WB補正1においては、サブ画像処理部360は、メイン画像処理部160とは独立して動作する。コントローラ180は、サブカメラ300から得られた画像データに基づいて光源を推定し、サブ画像処理部360にWB補正の追従範囲を通知する。このとき、サブカメラ300が撮影者を撮像していると、撮影者の肌を多量に検知して、光源として白熱灯を推定する可能性が高い。光源として白熱灯が推定されると、図7(a)に示す光源推定範囲A1の範囲内においてWB補正がされる。そうすると、WB補正によって、サブ画像221は、撮影者の肌の赤みを打ち消すような青白い画像、所謂青かぶり画像となる場合がある。即ち、この場合、サブ画像221は、撮影者の肌色が退色した画像となる。しかし、そのような画像では撮影者の肌色を適切に表現できず、撮影者が不満に感じる、ということが考えられる。   In the WB correction 1, the sub image processing unit 360 operates independently of the main image processing unit 160. The controller 180 estimates the light source based on the image data obtained from the sub camera 300 and notifies the sub image processing unit 360 of the tracking range of the WB correction. At this time, if the sub camera 300 is capturing a photographer, there is a high possibility that the photographer's skin is detected in large quantities and an incandescent lamp is estimated as a light source. When an incandescent lamp is estimated as the light source, WB correction is performed within the range of the light source estimation range A1 shown in FIG. Then, by the WB correction, the sub-image 221 may be a pale image that cancels the redness of the photographer's skin, a so-called blue fog image. That is, in this case, the sub image 221 is an image in which the skin color of the photographer is faded. However, it is conceivable that such an image cannot adequately express the photographer's skin color and the photographer feels dissatisfied.

そこで本実施の形態に係る撮像装置10では、サブカメラ300が状態1であるとき、撮影者の肌を適切に再現するために、図7(a)及び(b)に示すように、サブ画像処理部360がWB補正を行う範囲に対して制限を掛ける。即ち、サブ画像処理部360が行うWB補正の範囲を追従範囲Bに制限することにより、WB補正がより低色温度側に追従しないように制限を掛ける(WB補正1)。この制限により、撮像装置10は、サブ画像処理部360が光源として白熱灯の場合のような低色温度範囲を推定しても、撮影者の肌が退色した画像を生成することを防ぐことが可能となる。   Therefore, in the imaging apparatus 10 according to the present embodiment, when the sub camera 300 is in the state 1, in order to appropriately reproduce the photographer's skin, as shown in FIGS. The range in which the processing unit 360 performs WB correction is limited. That is, by limiting the range of WB correction performed by the sub image processing unit 360 to the tracking range B, the WB correction is limited so as not to follow the lower color temperature side (WB correction 1). Due to this limitation, the imaging apparatus 10 can prevent the photographer's skin from being faded even if the sub-image processing unit 360 estimates a low color temperature range as in the case of an incandescent lamp as a light source. It becomes possible.

なお、WB補正に制限を掛ける方法は、低色温度側の追従範囲に対して制御を掛ける方法に限るものではない。撮像画像に対して、撮影者の顔が写っている可能性の低い画像周辺部に重みを付けて光源推定をしても構わないし、サブ画像処理部360が生成した画像データを解析する際に、低色温度側のデータを意図的に参照せずに光源推定をしても構わない。そうすることにより、サブ画像処理部360が低色温度側の光源を推定することを抑制することができる。また、低色温度側だけでなく、高色温度側にもWB補正の追従範囲に制限を設けて、画像に赤かぶりが発生することを防ぐようにすることもできる。   Note that the method of limiting the WB correction is not limited to the method of controlling the tracking range on the low color temperature side. For the captured image, light source estimation may be performed by weighting the image peripheral portion where the photographer's face is unlikely to be captured, and when analyzing the image data generated by the sub image processing unit 360 The light source may be estimated without intentionally referring to the data on the low color temperature side. By doing so, it can suppress that the sub image process part 360 estimates the light source of the low color temperature side. Further, it is possible to limit the following range of the WB correction not only on the low color temperature side but also on the high color temperature side to prevent the occurrence of red fog in the image.

次に、WB補正2について説明する。WB補正2において、サブ画像処理部360はメイン画像処理部160と連動して動作する。コントローラ180は、メインカメラ100から得られた画像データに基づいて光源を推定し、推定された光源に基づき、サブ画像処理部360に対しWB補正を行う範囲を通知する。例えば、光源として白熱灯を推定した場合、図7(b)に示すように、コントローラ180は、メイン画像処理部160がWB補正を行う範囲である追従範囲C1をサブ画像処理部360に対し通知する。メイン画像処理部160がその追従範囲C1内でWB補正を行う際、サブ画像処理部360も同じ範囲である追従範囲C2内でWB補正を行う。この制限により、本実施の形態に係る撮像装置10は、メイン画像処理部160から得られた画像とサブ画像処理部360から得られた画像とで同様のWB補正を行うことができる。従ってPinP処理した際に、色味の異なる画像が重畳表示されるような違和感のある画像が生成されることを抑制できる。   Next, WB correction 2 will be described. In the WB correction 2, the sub image processing unit 360 operates in conjunction with the main image processing unit 160. The controller 180 estimates the light source based on the image data obtained from the main camera 100, and notifies the sub image processing unit 360 of the range for performing WB correction based on the estimated light source. For example, when an incandescent lamp is estimated as the light source, as shown in FIG. 7B, the controller 180 notifies the sub-image processing unit 360 of the tracking range C1 in which the main image processing unit 160 performs WB correction. To do. When the main image processing unit 160 performs WB correction within the tracking range C1, the sub image processing unit 360 also performs WB correction within the tracking range C2, which is the same range. Due to this limitation, the imaging apparatus 10 according to the present embodiment can perform the same WB correction on the image obtained from the main image processing unit 160 and the image obtained from the sub image processing unit 360. Therefore, when the PinP process is performed, it is possible to suppress the generation of an uncomfortable image in which images having different colors are superimposed and displayed.

〔3−2−3.露出補正〕
次に、露出補正について説明する。撮像装置10では、サブ画像221に、サブカメラ300の状態に応じて異なる自動露出(AE)補正を行うことができる。図8はAE補正の際、画像の測光箇所に重みづけを設定した図である。図8において、数字が小さくなるほど強い重みがつけられている。図6(b)、図8を用いて以下で詳細を説明する。
[3-2-3. (Exposure compensation)
Next, exposure correction will be described. In the imaging apparatus 10, different automatic exposure (AE) corrections can be performed on the sub image 221 depending on the state of the sub camera 300. FIG. 8 is a diagram in which weighting is set for a photometric portion of an image during AE correction. In FIG. 8, a stronger weight is assigned to a smaller number. Details will be described below with reference to FIGS.

図6(b)において、ステップS22までは図6(a)のステップS12までと同様である。撮影方向を検知した結果、サブカメラ300が状態1であるとき(ステップS22におけるYes)は、サブ画像処理部360は画像データに対して人物の顔に適した、撮影者の顔が適切な明るさになるようなAE補正1を行う(ステップS23)。サブカメラ300が状態2であるとき(ステップS22におけるNo)は、サブ画像処理部360は、サブカメラ300で生成された画像データに対して、メインカメラ100で生成された画像データに対して与えた画像処理パラメータに対応したAE補正2を行う(ステップS24)。ここで、メインカメラ100により生成された画像データに対するAE補正に対応したAE補正2とは、メインカメラ100により生成された画像データに対するAE補正のパラメータと同一のパラメータによる補正であってもよい。或いは、メインカメラ100により生成された画像データに対するAE補正のパラメータに所定の係数を乗じたパラメータによる補正であってもよい。   In FIG. 6B, the process up to step S22 is the same as the process up to step S12 in FIG. When the sub camera 300 is in state 1 as a result of detecting the shooting direction (Yes in step S22), the sub image processing unit 360 is suitable for a human face with respect to the image data, and the photographer's face has an appropriate brightness. An AE correction 1 is performed (step S23). When the sub camera 300 is in the state 2 (No in step S22), the sub image processing unit 360 gives the image data generated by the sub camera 300 to the image data generated by the main camera 100. AE correction 2 corresponding to the image processing parameter is performed (step S24). Here, the AE correction 2 corresponding to the AE correction for the image data generated by the main camera 100 may be correction using the same parameters as the parameters for the AE correction for the image data generated by the main camera 100. Alternatively, correction by a parameter obtained by multiplying a parameter for AE correction for image data generated by the main camera 100 by a predetermined coefficient may be used.

ここで、AE補正1について詳細に説明する。コントローラ180は、画像データの輝度情報を検出してAE補正を行う。サブカメラ300が状態1にあるとき、サブカメラ300は撮影者を撮像している可能性が高い。従って、撮影者の顔が撮像されていないと考えられる画像の周辺部の輝度情報を過度に参照すると、背景の明るさに応じて撮影者の顔が明るくなり過ぎることや暗くなり過ぎることが考えられる。しかし、そのような画像では撮影者の顔を適切に表現できず、撮影者が不満に感じる可能性が高い。   Here, the AE correction 1 will be described in detail. The controller 180 detects luminance information of the image data and performs AE correction. When the sub camera 300 is in the state 1, it is highly likely that the sub camera 300 is capturing a photographer. Therefore, excessively referring to the luminance information in the periphery of the image where the photographer's face is not imaged may cause the photographer's face to become too bright or too dark depending on the brightness of the background. It is done. However, such an image cannot appropriately express the photographer's face, and the photographer is likely to feel dissatisfied.

そこで、本実施の形態に係る撮像装置10では、サブカメラ300が状態1であるとき、撮影者の顔の明るさを適切に表現するために、図8(a)に示すように、測光範囲の中心部により強い重みづけをする。この重みづけにより、サブ画像処理部360が画像の中心部を重点的に測光するので、撮影者の顔に適した明るさの画像とすることができる。   Therefore, in the imaging apparatus 10 according to the present embodiment, when the sub camera 300 is in the state 1, in order to appropriately express the brightness of the photographer's face, as shown in FIG. Gives more weight to the center of By this weighting, the sub-image processing unit 360 focuses light on the center of the image, so that an image with brightness suitable for the photographer's face can be obtained.

次に、AE補正2について説明する。AE補正2において、サブ画像処理部360はメイン画像処理部160と連動して動作する。ユーザの設定により、メイン画像222に対して測光に重みづけがされていない場合、メイン画像処理部160及びサブ画像処理部360は共に、図8(b)に示すように、画像の特定の箇所に重みを付けずに測光を行う。これにより、本実施の形態に係る撮像装置10は、メイン画像処理部160から得られた画像とサブ画像処理部360から得られた画像とに対応した同様のAE補正を行うことができる。従ってPinP処理した際に、明るさの異なる画像が重畳表示されるような違和感のある画像が生成されることを抑制できる。   Next, AE correction 2 will be described. In the AE correction 2, the sub image processing unit 360 operates in conjunction with the main image processing unit 160. When the main image 222 is not weighted by the user setting, the main image processing unit 160 and the sub image processing unit 360 both have a specific part of the image as shown in FIG. Measure the light without weighting. Thereby, the imaging apparatus 10 according to the present embodiment can perform the same AE correction corresponding to the image obtained from the main image processing unit 160 and the image obtained from the sub image processing unit 360. Therefore, when the PinP process is performed, it is possible to suppress the generation of an uncomfortable image in which images with different brightness are superimposed and displayed.

なお、AE補正2の際に、メイン画像222に対して測光に重みづけがされている場合、サブ画像221に対しては図8(b)に示すように重みを付けずに測光してもよい。また、サブ画像221に対してもメイン画像222と同様に、あるいは独立して重みを付けて測光してもよい。   Note that, in the case of AE correction 2, if the main image 222 is weighted for metering, the sub-image 221 may be metered without weighting as shown in FIG. Good. Further, the sub-image 221 may be subjected to photometry in the same manner as the main image 222 or independently.

〔3−2−4.シャープネス補正〕
最後に、シャープネス補正について説明する。撮像装置10は、サブ画像221に対して、サブカメラ300の状態に応じて異なるシャープネス(SP)補正を行うことができる。図6(c)を用いて以下で詳細を説明する。
[3-2-4. Sharpness correction)
Finally, the sharpness correction will be described. The imaging apparatus 10 can perform different sharpness (SP) corrections on the sub image 221 depending on the state of the sub camera 300. Details will be described below with reference to FIG.

図6(c)のステップS32までは図6(a)のS12までと同様である。撮影方向を検知した結果、サブカメラ300が状態1であるとき(ステップS32におけるYes)は、サブ画像処理部360は画像データに対して人物の顔に適した、輪郭や影を強調しすぎないようなSP補正1を行う(ステップS33)。サブカメラ300が状態2であるとき(ステップS32におけるNo)は、サブ画像処理部360は画像データに対してメインカメラ100と対応したSP補正2を行う(ステップS34)。   The process up to step S32 in FIG. 6C is the same as that up to step S12 in FIG. When the sub camera 300 is in the state 1 as a result of detecting the shooting direction (Yes in step S32), the sub image processing unit 360 does not overemphasize contours and shadows suitable for a human face on the image data. Such SP correction 1 is performed (step S33). When the sub camera 300 is in state 2 (No in step S32), the sub image processing unit 360 performs SP correction 2 corresponding to the main camera 100 on the image data (step S34).

SP補正1及びSP補正2について説明する。コントローラ180は、画像データの各画素の輝度差を解析する。SP補正1については、撮影者の顔の輪郭や影を強調しすぎないよう、各画素間の輝度差を低減させる。これにより、撮影者の顔を自然に表現することができる。SP補正2については、ユーザの設定に応じて、メイン画像処理部160に対応したSP補正をサブ画像処理部360でも行う。ここで、メインカメラ100により生成された画像データに対するSP補正に対応したSP補正2とは、メインカメラ100により生成された画像データに対するSP補正のパラメータと同一のパラメータによる補正であってもよい。或いは、メインカメラ100により生成された画像データに対するSP補正のパラメータに所定の係数を乗じたパラメータによる補正であってもよい。これにより、撮像装置10は、メイン画像処理部160から得られた画像とサブ画像処理部360から得られた画像とで同様のSP補正を行うことができる。従って、PinP処理した際に、鮮明さの異なる画像が重畳表示されるような違和感のある画像が生成されることを抑制できる。   The SP correction 1 and SP correction 2 will be described. The controller 180 analyzes the luminance difference of each pixel of the image data. For SP correction 1, the luminance difference between pixels is reduced so that the contour and shadow of the photographer's face are not emphasized too much. Thereby, a photographer's face can be expressed naturally. Regarding the SP correction 2, the sub image processing unit 360 performs SP correction corresponding to the main image processing unit 160 according to the user setting. Here, the SP correction 2 corresponding to the SP correction for the image data generated by the main camera 100 may be correction by the same parameter as the SP correction parameter for the image data generated by the main camera 100. Alternatively, correction by a parameter obtained by multiplying the SP correction parameter for the image data generated by the main camera 100 by a predetermined coefficient may be used. As a result, the imaging apparatus 10 can perform the same SP correction on the image obtained from the main image processing unit 160 and the image obtained from the sub image processing unit 360. Therefore, it is possible to suppress the generation of an uncomfortable image such that images with different clarity are superimposed and displayed when the PinP process is performed.

〔4.総括〕
本実施の形態では、メインカメラ100に対して回動可能なサブカメラ300を設けた撮像装置について、サブカメラ300の撮影方向に応じて、最適な画像処理を施すことで、例えば、撮影者の顔を適切に表現することや、PinP処理した際に違和感のない画像の撮影を可能にする。
[4. (Summary)
In the present embodiment, for an image pickup apparatus provided with a sub camera 300 that can rotate with respect to the main camera 100, by performing optimal image processing according to the shooting direction of the sub camera 300, for example, the photographer's It is possible to appropriately express a face and to capture an image with no sense of incompatibility when performing PinP processing.

〔5.他の実施の形態〕
なお、本実施の形態では、サブカメラ300は表示部に取付けられているが、本開示はこれに限定するものではない。軸回りに回動可能であれば、撮像装置において、表示部以外の場所に取り付けられていてもよい。
[5. Other Embodiments]
In the present embodiment, the sub camera 300 is attached to the display unit, but the present disclosure is not limited to this. As long as it can rotate around the axis, the imaging device may be attached to a place other than the display unit.

また、本実施の形態では、状態1ではサブカメラ300は撮影者を撮影し、状態2ではサブカメラ300はメインカメラ100と同様の被写体を撮影するとしたが、本開示はこれに限定するものではない。状態2でサブカメラ300が撮影者を撮影しているような状態を検知し、人物の顔に適した画像処理を行うようにしてもよい。また、状態1でサブカメラ300は撮影者を撮影せず、人物の顔に適した画像処理を行わないようにしてもよい。   In the present embodiment, the sub camera 300 captures the photographer in the state 1 and the sub camera 300 captures the same subject as the main camera 100 in the state 2. However, the present disclosure is not limited to this. Absent. A state in which the sub camera 300 is photographing the photographer in state 2 may be detected, and image processing suitable for a person's face may be performed. Further, in state 1, the sub camera 300 may not shoot the photographer and may not perform image processing suitable for a person's face.

また、本実施の形態ではサブカメラ300が状態1、状態2の2つの状態を有するものとしたが、本開示はこれに限定されるものではない。例えば、メインカメラ100の撮影方向と、サブカメラ300の撮影方向とが垂直になった状態を状態3として、3つの状態を有してもよい。そして、各画像処理部は、状態1から状態3の各状態に応じた画像処理パラメータの設定方法を用いるようにすればよい。   In the present embodiment, the sub camera 300 has two states, state 1 and state 2, but the present disclosure is not limited to this. For example, the state where the shooting direction of the main camera 100 and the shooting direction of the sub camera 300 are perpendicular to each other may be referred to as state 3 and may have three states. Each image processing unit may use an image processing parameter setting method corresponding to each state from state 1 to state 3.

また、本実施の形態ではサブカメラ300が1軸回りに回転するものとしたが、本開示はこれに限定されるものではない。サブカメラ300が2軸以上の軸回りに回転してもよい。これにより、表示部の回動状況によらずにサブカメラ300は撮影者又はメインカメラ100と同様の被写体を撮像することができる。   In the present embodiment, the sub camera 300 rotates about one axis, but the present disclosure is not limited to this. The sub camera 300 may rotate about two or more axes. Accordingly, the sub camera 300 can capture the same subject as the photographer or the main camera 100 regardless of the rotation state of the display unit.

また、本実施の形態では撮影された画像データはメモリカード200に保存されるとしたが、本開示はこれに限定されるものではない。内部メモリなどの異なる記録媒体に保存されるようにしてもよい。   In the present embodiment, the captured image data is stored in the memory card 200, but the present disclosure is not limited to this. You may make it preserve | save on different recording media, such as an internal memory.

また、本実施の形態では、メイン画像処理部160と、サブ画像処理部360とが別体であるとして説明したが、本開示はこれに限定されない。メイン画像処理部160の機能とサブ画像処理部360の機能とを備えた一体の画像処理部により実現してもよい。   Further, although the main image processing unit 160 and the sub image processing unit 360 have been described as separate bodies in the present embodiment, the present disclosure is not limited to this. You may implement | achieve by the integrated image processing part provided with the function of the main image process part 160, and the function of the sub image process part 360. FIG.

また、ホワイトバランス補正、露出補正、シャープネス補正の詳細は、本実施の形態に限定されるものではない。サブカメラ300の撮影方向に応じて異なる画像処理パラメータの設定方法を変更するのであれば、他の画像処理であっても適用することができる。   The details of white balance correction, exposure correction, and sharpness correction are not limited to the present embodiment. If different image processing parameter setting methods are changed according to the photographing direction of the sub camera 300, other image processing can be applied.

以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。   As described above, the embodiments have been described as examples of the technology in the present disclosure. For this purpose, the accompanying drawings and detailed description are provided.

したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。   Accordingly, among the components described in the accompanying drawings and the detailed description, not only the components essential for solving the problem, but also the components not essential for solving the problem in order to illustrate the above technique. May also be included. Therefore, it should not be immediately recognized that these non-essential components are essential as those non-essential components are described in the accompanying drawings and detailed description.

また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。   Moreover, since the above-mentioned embodiment is for demonstrating the technique in this indication, a various change, substitution, addition, abbreviation, etc. can be performed in a claim or its equivalent range.

本開示は、ビデオカメラやデジタルカメラ、携帯電話などに適用可能である。   The present disclosure can be applied to a video camera, a digital camera, a mobile phone, and the like.

10 撮像装置
100 メインカメラ
110 メイン光学系
111 ズームレンズ
112 手振れ補正レンズ
113 フォーカスレンズ
114 絞り
120 メインレンズ駆動部
140,340 CMOSイメージセンサ
150,350 A/Dコンバータ
160 メイン画像処理部
170,370 バッファ
180 コントローラ
190 カードスロット
200 メモリカード
210 操作部材
220 表示部
221 サブ画像
222 メイン画像
240 内部メモリ
300 サブカメラ
310 サブ光学系
313 フォーカスレンズ
314 絞り
320 サブレンズ駆動部
360 サブ画像処理部
380 向きセンサ
390 PinP処理部
DESCRIPTION OF SYMBOLS 10 Imaging device 100 Main camera 110 Main optical system 111 Zoom lens 112 Camera shake correction lens 113 Focus lens 114 Aperture 120 Main lens drive part 140,340 CMOS image sensor 150,350 A / D converter 160 Main image processing part 170,370 Buffer 180 Controller 190 Card slot 200 Memory card 210 Operation member 220 Display unit 221 Sub image 222 Main image 240 Internal memory 300 Sub camera 310 Sub optical system 313 Focus lens 314 Aperture 320 Sub lens driving unit 360 Sub image processing unit 380 Direction sensor 390 PinP processing Part

Claims (3)

被写体を撮像し、第1画像データを生成する第1撮像部と、
前記第1撮像部に対して撮影方向を回転可能に取り付けられ、第2画像データを生成する第2撮像部と、
前記第2撮像部の撮影方向として第1の撮影方向と第2の撮影方向を検出する検出部と、
前記第1撮像部で生成された第1画像データに画像処理を施す第1画像処理部と、
前記第2撮像部で生成された第2画像データに画像処理を施す第2画像処理部と、
前記検出部で検出された撮影方向に応じて前記第1画像処理部および前記第2画像処理部の動作を設定する制御部と、を有し、
前記第1の撮影方向は前記第1撮像部の撮影方向に近く、前記第2の撮影方向は前記第1の撮影方向に比べて撮影者側に近く、
前記制御部は、
前記検出部で検出された撮影方向が前記第1の撮影方向であるときは、前記第1画像処理部および前記第2画像処理部を連動して動作させ、
前記検出部で検出された撮影方向が前記第2の撮影方向であるときは、前記第1画像処理部および前記第2画像処理部を独立して動作させる、撮像装置。
A first imaging unit that images a subject and generates first image data;
A second imaging unit that is rotatably attached to the first imaging unit and that generates second image data; and
A detection unit for detecting a first shooting direction and a second shooting direction as a shooting direction of the second imaging unit;
A first image processing unit that performs image processing on the first image data generated by the first imaging unit;
A second image processing unit that performs image processing on the second image data generated by the second imaging unit;
A control unit configured to set operations of the first image processing unit and the second image processing unit according to the photographing direction detected by the detection unit,
The first shooting direction is closer to the shooting direction of the first imaging unit, and the second shooting direction is closer to the photographer side than the first shooting direction,
The controller is
When the shooting direction detected by the detection unit is the first shooting direction, the first image processing unit and the second image processing unit are operated in conjunction with each other,
An imaging apparatus that operates the first image processing unit and the second image processing unit independently when the imaging direction detected by the detection unit is the second imaging direction.
前記制御部は、
前記検出部で検出された撮影方向が前記第1の撮影方向であるときは、前記第1画像データに対して設定される画像処理パラメータと連動して前記第2画像データに対する画像処理パラメータを設定し、
前記検出部で検出された撮影方向が前記第2の撮影方向であるときは、前記第1画像データに対して設定される画像処理パラメータと独立して前記第2画像データに対する画像処理パラメータを設定する、請求項1に記載の撮像装置。
The controller is
When the shooting direction detected by the detection unit is the first shooting direction, an image processing parameter for the second image data is set in conjunction with an image processing parameter set for the first image data. And
When the shooting direction detected by the detection unit is the second shooting direction, the image processing parameter for the second image data is set independently of the image processing parameter set for the first image data. The imaging apparatus according to claim 1.
更に表示部を備え、
前記表示部は、前記第1画像データと前記第2画像データを重畳して共に表示する、請求項1または2に記載の撮像装置。
Furthermore, a display unit is provided,
The imaging device according to claim 1, wherein the display unit superimposes and displays the first image data and the second image data.
JP2016104747A 2013-12-20 2016-05-26 Imaging device Active JP6123079B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013263435 2013-12-20
JP2013263435 2013-12-20

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014237352A Division JP5957705B2 (en) 2013-12-20 2014-11-25 Imaging device

Publications (2)

Publication Number Publication Date
JP2016184947A true JP2016184947A (en) 2016-10-20
JP6123079B2 JP6123079B2 (en) 2017-05-10

Family

ID=55077245

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2015145483A Active JP5934954B2 (en) 2013-12-20 2015-07-23 Imaging device
JP2016059366A Active JP5994111B2 (en) 2013-12-20 2016-03-24 Imaging device
JP2016059367A Pending JP2016149790A (en) 2013-12-20 2016-03-24 Imaging device
JP2016104747A Active JP6123079B2 (en) 2013-12-20 2016-05-26 Imaging device

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2015145483A Active JP5934954B2 (en) 2013-12-20 2015-07-23 Imaging device
JP2016059366A Active JP5994111B2 (en) 2013-12-20 2016-03-24 Imaging device
JP2016059367A Pending JP2016149790A (en) 2013-12-20 2016-03-24 Imaging device

Country Status (1)

Country Link
JP (4) JP5934954B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108259756B (en) * 2018-03-14 2020-07-28 维沃移动通信有限公司 Image shooting method and mobile terminal

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004236287A (en) * 2003-01-09 2004-08-19 Nikon Corp Electronic camera
JP2004282296A (en) * 2003-03-14 2004-10-07 Sony Corp Image pickup apparatus
JP2009033756A (en) * 2008-08-21 2009-02-12 Fujifilm Corp Imaging system
JP2012159616A (en) * 2011-01-31 2012-08-23 Sanyo Electric Co Ltd Imaging device
JP2012239135A (en) * 2011-05-13 2012-12-06 Nikon Corp Electronic apparatus

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003032542A (en) * 2001-07-19 2003-01-31 Mitsubishi Electric Corp Imaging apparatus
JP2003051872A (en) * 2001-08-07 2003-02-21 Minolta Co Ltd Portable communication equipment
JP2004363994A (en) * 2003-06-05 2004-12-24 Casio Comput Co Ltd Imaging apparatus, imaging method, and imaging program
JP4993670B2 (en) * 2006-06-13 2012-08-08 キヤノン株式会社 Imaging apparatus and control method thereof
JP2009244369A (en) * 2008-03-28 2009-10-22 Sony Corp Imaging device and imaging method
JP5107806B2 (en) * 2008-06-23 2012-12-26 オリンパスイメージング株式会社 Image processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004236287A (en) * 2003-01-09 2004-08-19 Nikon Corp Electronic camera
JP2004282296A (en) * 2003-03-14 2004-10-07 Sony Corp Image pickup apparatus
JP2009033756A (en) * 2008-08-21 2009-02-12 Fujifilm Corp Imaging system
JP2012159616A (en) * 2011-01-31 2012-08-23 Sanyo Electric Co Ltd Imaging device
JP2012239135A (en) * 2011-05-13 2012-12-06 Nikon Corp Electronic apparatus

Also Published As

Publication number Publication date
JP5934954B2 (en) 2016-06-15
JP2016149789A (en) 2016-08-18
JP6123079B2 (en) 2017-05-10
JP2016001889A (en) 2016-01-07
JP5994111B2 (en) 2016-09-21
JP2016149790A (en) 2016-08-18

Similar Documents

Publication Publication Date Title
JP5136669B2 (en) Image processing apparatus, image processing method, and program
US8023009B2 (en) Imaging apparatus for correcting optical distortion and wide-angle distortion
JP7346654B2 (en) Image processing device, imaging device, control method, program, and storage medium
JP5957705B2 (en) Imaging device
WO2017043190A1 (en) Control system, imaging device, and program
JP2010103975A (en) Image capturing apparatus and method of controlling the same, and program
US20130120635A1 (en) Subject detecting method and apparatus, and digital photographing apparatus
US11245852B2 (en) Capturing apparatus for generating two types of images for display from an obtained captured image based on scene luminance and exposure
JP6776776B2 (en) Imaging equipment, display equipment, electronic devices, imaging methods, programs, imaging systems, display systems and image processing equipment
JP5370555B2 (en) Imaging apparatus, imaging method, and program
JP2012222387A (en) Imaging apparatus
JP5105139B2 (en) Imaging apparatus, display method, and program
US9998676B2 (en) Image adjustment apparatus, method, and imaging apparatus to determine a boundary in an image based on a position of a light source
US8773568B2 (en) Imaging apparatus and method for improving manipulation of view finders
JP6123079B2 (en) Imaging device
JP2018056941A (en) Imaging apparatus, display apparatus, electronic equipment, imaging method, program, imaging system, display system, and image processing apparatus
KR20090059512A (en) Image processing apparatus for compensating of lens part shading and method for controlling thereof
JP2013192088A (en) Imaging apparatus, control method, and control program
US11336802B2 (en) Imaging apparatus
JP2013127548A (en) Display device and display control program
JP2013179565A (en) Image pickup device
JP2010141458A (en) Imaging apparatus and method of controlling the same
JP2010050933A (en) Imaging device and red-eye correction method
JP4066148B2 (en) Digital camera
JP2006222806A (en) Photographing device, and method and program of controlling photographing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170306

R151 Written notification of patent or utility model registration

Ref document number: 6123079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151