JP7497205B2 - Imaging device and control method thereof - Google Patents

Imaging device and control method thereof Download PDF

Info

Publication number
JP7497205B2
JP7497205B2 JP2020086048A JP2020086048A JP7497205B2 JP 7497205 B2 JP7497205 B2 JP 7497205B2 JP 2020086048 A JP2020086048 A JP 2020086048A JP 2020086048 A JP2020086048 A JP 2020086048A JP 7497205 B2 JP7497205 B2 JP 7497205B2
Authority
JP
Japan
Prior art keywords
compression
processing unit
display
image data
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020086048A
Other languages
Japanese (ja)
Other versions
JP2021180454A (en
Inventor
英史 竹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020086048A priority Critical patent/JP7497205B2/en
Publication of JP2021180454A publication Critical patent/JP2021180454A/en
Application granted granted Critical
Publication of JP7497205B2 publication Critical patent/JP7497205B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Description

撮像装置およびその制御方法に関し、特には撮像で得られる画像データの取り扱い技術に関する。 This paper relates to an imaging device and a control method thereof, and in particular to a technique for handling image data obtained by imaging.

近年、デジタルカメラ等の撮像装置においては、表示装置にライブビュー表示を行うことにより、表示装置を電子ビューファインダ(EVF)として機能させている。ライブビュー表示中、撮像装置は動画の撮影から表示までの動作を継続して実行する。ライブビュー表示が撮像装置の動作可能時間に与える影響を抑制するため、ライブビュー表示に要する消費電力の低減が求められる。 In recent years, imaging devices such as digital cameras have been displaying a live view on a display device, causing the display device to function as an electronic viewfinder (EVF). During the live view display, the imaging device continues to perform operations from shooting video to displaying it. To limit the impact that the live view display has on the operating time of the imaging device, there is a demand to reduce the power consumption required for the live view display.

特許文献1には、ライブビュー表示用の画像の解像度を、シャッタボタンが半押しされるまでは表示装置の解像度より低くし、シャッタボタンが半押しされると表示装置の解像度と等しくするデジタルカメラが開示されている。ライブビュー表示用の画像の解像度が表示装置の解像度より低い場合、表示装置で拡大表示している。 Patent document 1 discloses a digital camera in which the resolution of an image for live view display is lower than the resolution of the display device until the shutter button is half-pressed, and then becomes equal to the resolution of the display device when the shutter button is half-pressed. When the resolution of an image for live view display is lower than the resolution of the display device, the image is enlarged and displayed on the display device.

特開2004-104222号公報JP 2004-104222 A

特許文献1の構成によれば、ライブビュー表示中の消費電力や発熱量を抑制することができる。しかし、シャッタボタンが半押しされる前後でライブビュー表示の画質が大きく変化するため、ユーザに違和感を与える恐れがある。また、特許文献1の構成では、シャッタボタンの半押し前の期間に実行される、ライブビュー表示に用いられる画像(ライブビュー画像)を用いる処理の精度が低下する恐れがある。このような処理には例えば特徴領域の検出処理や、特徴領域の検出結果に基づく追尾処理などがある。ライブビュー画像を用いる処理の結果を静止画撮影時の合焦制御や露出制御などに利用する場合、ライブビュー画像を用いる処理の精度低下は合焦制御や露出制御の精度低下の原因となり得る。 The configuration of Patent Document 1 makes it possible to reduce power consumption and heat generation during live view display. However, the image quality of the live view display changes significantly before and after the shutter button is half-pressed, which may cause the user to feel uncomfortable. Furthermore, the configuration of Patent Document 1 may reduce the accuracy of processing using the image used for live view display (live view image) that is executed in the period before the shutter button is half-pressed. Such processing includes, for example, detection processing of characteristic regions and tracking processing based on the detection results of characteristic regions. When the results of processing using the live view image are used for focus control or exposure control when taking still images, a decrease in accuracy of processing using the live view image may cause a decrease in accuracy of focus control or exposure control.

本発明はこのような従来技術の課題に鑑みてなされたもので、ライブビュー表示における消費電力の抑制と、ライブビュー画像を用いる処理の精度低下の抑制とを実現する撮像装置およびその制御方法の提供を目的とする。 The present invention was made in consideration of the problems with the conventional technology, and aims to provide an imaging device and a control method thereof that reduces power consumption during live view display and prevents deterioration in accuracy of processing that uses live view images.

上述の目的は、RAWデータに圧縮処理を適用する第1の圧縮手段と、第1の圧縮手段で圧縮処理されたRAWデータを伸長する第1の伸長手段と、第1の伸長手段が出力するRAWデータに基づいて表示用画像データを生成する生成手段と、第1の伸長手段が出力するRAWデータに基づいて撮影制御に用いる情報を取得する検出手段と、を備えた画像処理手段と、画像処理手段の動作を制御する制御手段と、を有し、制御手段は、表示用画像データを継続的に生成、表示するライブビュー表示の実行中、検出手段が取得する情報を用いる撮影準備動作を開始する際に、第1の圧縮手段が適用する圧縮処理の圧縮率を低減させることを特徴とする撮像装置によって達成される。 The above-mentioned object is achieved by an imaging device having image processing means including a first compression means for applying compression processing to RAW data, a first decompression means for decompressing the RAW data compressed by the first compression means, a generation means for generating image data for display based on the RAW data output by the first decompression means, and a detection means for acquiring information used for shooting control based on the RAW data output by the first decompression means, and a control means for controlling the operation of the image processing means, wherein the control means reduces the compression rate of the compression processing applied by the first compression means when starting a shooting preparation operation using the information acquired by the detection means during execution of a live view display that continuously generates and displays image data for display.

本発明によれば、ライブビュー表示における消費電力の抑制と、ライブビュー画像を用いる処理の精度低下の抑制とを実現する撮像装置およびその制御方法を提供することができる。 The present invention provides an imaging device and a control method thereof that can reduce power consumption during live view display and prevent deterioration in accuracy of processing using live view images.

実施形態に係る撮像装置の一例としてデジタルカメラの外観例を示す図FIG. 1 is a diagram showing an example of the appearance of a digital camera as an example of an imaging apparatus according to an embodiment; 図1のデジタルカメラとレンズユニットの機能構成例を示すブロック図FIG. 2 is a block diagram showing an example of the functional configuration of the digital camera and lens unit shown in FIG. 1 . センサ部の撮像素子に設けられるカラーフィルタの例を示す図FIG. 13 is a diagram showing an example of a color filter provided in an image sensor of a sensor unit; 第1実施形態におけるフロントエンジンおよびメインエンジンの機能構成例を示すブロック図FIG. 2 is a block diagram showing an example of the functional configuration of a front engine and a main engine in the first embodiment; 実施形態におけるフロントエンジンおよびメインエンジンの機能構成例を示すブロック図FIG. 2 is a block diagram showing an example of the functional configuration of a front engine and a main engine according to an embodiment; 実施形態におけるデジタルカメラの全体動作に関するフローチャート1 is a flowchart showing the overall operation of a digital camera according to an embodiment of the present invention; 図6のライブビュー処理の詳細に関するフローチャートA flowchart showing details of the live view process shown in FIG. 図6の撮影および記録処理に関するフローチャートFlowchart of the photographing and recording process of FIG. 図6の再生処理に関するフローチャートFlowchart of the playback process of FIG. 図6のメインエンジン起動処理および停止処理に関するフローチャート7 is a flowchart showing the main engine start-up and stop processes shown in FIG. 第2実施形態におけるフロントエンジンおよびメインエンジンの機能構成例を示すブロック図FIG. 11 is a block diagram showing an example of the functional configuration of a front engine and a main engine according to a second embodiment; 第2実施形態におけるライブビュー処理に関するフローチャートFlowchart regarding live view processing in the second embodiment 第3実施形態におけるライブビュー処理に関するフローチャートFlowchart regarding live view processing in the third embodiment

以下、添付図面を参照して本発明をその例示的な実施形態に基づいて詳細に説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定しない。また、実施形態には複数の特徴が記載されているが、その全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 The present invention will now be described in detail based on exemplary embodiments with reference to the attached drawings. Note that the following embodiments do not limit the invention according to the claims. In addition, although multiple features are described in the embodiments, not all of them are necessarily essential to the invention, and multiple features may be combined in any manner. Furthermore, in the attached drawings, the same reference numbers are used for the same or similar configurations, and duplicate explanations will be omitted.

なお、以下の実施形態では、本発明をデジタル一眼レフカメラ(DSLR)で実施する場合に関して説明する。しかし、本発明は電子ビューファインダ(EVF)を有する電子機器全般において実施可能である。このような電子機器には、ビデオカメラ、コンピュータ機器(パーソナルコンピュータ、タブレットコンピュータ、メディアプレーヤ、PDAなど)、携帯電話機、スマートフォン、ゲーム機、ロボット、ドライブレコーダなどが含まれる。これらは例示であり、本発明は他の電子機器でも実施可能である。 In the following embodiment, the present invention will be described with respect to a digital single-lens reflex camera (DSLR). However, the present invention can be implemented in any electronic device that has an electronic viewfinder (EVF). Such electronic devices include video cameras, computer devices (personal computers, tablet computers, media players, PDAs, etc.), mobile phones, smartphones, game consoles, robots, drive recorders, etc. These are merely examples, and the present invention can also be implemented in other electronic devices.

●(第1実施形態)
図1は本発明を実施可能な撮像装置の一例としてのデジタルカメラ100の外観例を示す斜視図である。図1(a)はデジタルカメラ100を被写体側から見た前面斜視図である。図1(b)はデジタルカメラ100を図1(a)と逆方向から見た背面斜視図である。なお、図1には、レンズ未装着時のデジタルカメラ100(いわゆるカメラ本体)の外観例を示している。
● (First embodiment)
Fig. 1 is a perspective view showing an example of the appearance of a digital camera 100 as an example of an imaging device capable of implementing the present invention. Fig. 1(a) is a front perspective view of the digital camera 100 as seen from the subject side. Fig. 1(b) is a rear perspective view of the digital camera 100 as seen from the opposite direction to Fig. 1(a). Fig. 1 shows an example of the appearance of the digital camera 100 (so-called camera body) when no lens is attached.

表示部101は、カメラ背面に設けられ、画像や各種情報を表示する。本実施形態において表示部101はタッチパネル111を有するタッチディスプレイであるものとする。
シャッタボタン102は、半押し状態で静止画の撮影準備指示を、全押し状態で記録用の静止画の撮影指示を与える。
電源スイッチ103はデジタルカメラ100の電源をONにする起動指示とOFFにする停止指示とを選択的に与える。
The display unit 101 is provided on the rear surface of the camera and displays images and various information. In this embodiment, the display unit 101 is a touch display having a touch panel 111.
The shutter button 102 issues a command to prepare for shooting a still image when pressed halfway, and issues a command to shoot a still image for recording when pressed fully.
A power switch 103 selectively issues a start instruction to turn the power of the digital camera 100 ON and a stop instruction to turn it OFF.

メイン電子ダイヤル112は回転可能で、例えばシャッタ速度や絞りなどの設定値の変更指示を与える。また、後述する拡大モードがONの場合、メイン電子ダイヤル112は表示倍率の変更指示を与える。サブ電子ダイヤル113は回転可能で、例えば選択枠の移動や画像送りの指示を与える。十字キー114は円形部材を有し、円形部材の押下位置(上、下、左、右)を与える。十字キー114は例えば押下位置に応じた方向への移動指示を与える。 The main electronic dial 112 is rotatable, and for example issues instructions to change settings such as shutter speed and aperture. Furthermore, when the enlargement mode described below is ON, the main electronic dial 112 issues instructions to change the display magnification. The sub electronic dial 113 is rotatable, and for example issues instructions to move the selection frame or advance images. The cross key 114 has a circular member, and indicates the position (up, down, left, right) of the circular member that is pressed. The cross key 114 issues instructions to move in a direction corresponding to the pressed position, for example.

SETボタン115は十字キー114の円形部材の中心に設けられ、例えば押下時に選択されていた事項の決定指示を与える。動画ボタン116は、動画撮影(記録)の開始、停止の指示を与える。AEロックボタン117は撮影待機状態で押下されると露出状態を押下時の設定に固定する指示を与える。拡大ボタン118は撮影モードのライブビュー表示において拡大モードのON、OFF指示を与える。拡大ボタン118は再生モードにおいては再生画像に対する拡大モードのON,OFF指示を与える。 The SET button 115 is located at the center of the circular member of the cross key 114, and, for example, when pressed, issues an instruction to confirm the item that was selected. The video button 116 issues instructions to start and stop video shooting (recording). When pressed in shooting standby mode, the AE lock button 117 issues an instruction to fix the exposure state to the setting at the time of pressing. The enlarge button 118 issues an instruction to turn the enlargement mode ON or OFF in the live view display in shooting mode. In playback mode, the enlargement button 118 issues an instruction to turn the enlargement mode ON or OFF for the playback image.

再生ボタン119は、撮影モード中に押下されると再生モードへの切り替え指示を与え、再生モード中に押下されると撮影モードへの切り替え指示を与える。再生モードに切り替えられると、記録媒体200に記録された画像のうち最新の画像が表示部101に表示される。 When the playback button 119 is pressed during shooting mode, it instructs the camera to switch to playback mode, and when pressed during playback mode, it instructs the camera to switch to shooting mode. When the camera switches to playback mode, the most recent image recorded on the recording medium 200 is displayed on the display unit 101.

メニューボタン120はメニュー画面の表示指示を与える。ユーザは、メニューボタン120の押下に応じて表示部101に表示されるメニュー画面を十字キー114やSETボタン115を用いて操作することにより、デジタルカメラ100の設定値を変更することができる。モード切替スイッチ121は、デジタルカメラ100の動作モードを切り替える指示を与える。動作モードには少なくとも静止画撮影モード、動画撮影モード、再生モードがあるものとする。なお、静止画撮影モード、動画撮影モード、再生モードのそれぞれは、さらに複数のモードを有してもよい。 The menu button 120 issues an instruction to display a menu screen. The user can change the settings of the digital camera 100 by using the cross key 114 and the SET button 115 to operate the menu screen that is displayed on the display unit 101 in response to pressing the menu button 120. The mode change switch 121 issues an instruction to switch the operation mode of the digital camera 100. The operation modes include at least a still image capture mode, a video capture mode, and a playback mode. Note that each of the still image capture mode, the video capture mode, and the playback mode may further have multiple modes.

なお、上述した各種のボタン、スイッチ、ダイヤルの操作が与える指示の種類は動的に変更可能であり、操作とそれによってデジタルカメラ100に与えられる指示との組み合わせは単なる例示である。ただし、シャッタボタン102と電源スイッチ103については、操作によってデジタルカメラ100に与えられる指示が固定されているものとする。 The types of instructions given by the operation of the various buttons, switches, and dials described above can be changed dynamically, and the combinations of operations and the instructions given to the digital camera 100 by them are merely examples. However, for the shutter button 102 and the power switch 103, the instructions given to the digital camera 100 by their operation are fixed.

端子群104はデジタルカメラ100がレンズマウントに装着されたレンズユニット(交換レンズ)やアダプタ(マウントコンバータ、テレコンバータなど)と通信を行ったり、それらに電力を供給したりするために設けられている。レンズやアダプタにも同様の端子群(後述)が設けられており、デジタルカメラ100への装着時に両者が有する端子群が接触することにより、デジタルカメラ100と、レンズまたはアダプタとが電気的に接続される。 The terminal group 104 is provided so that the digital camera 100 can communicate with a lens unit (interchangeable lens) or an adapter (mount converter, teleconverter, etc.) attached to the lens mount, and supply power to them. The lens and adapter are also provided with similar terminal groups (described below), and when attached to the digital camera 100, the terminal groups on both devices come into contact, electrically connecting the digital camera 100 to the lens or adapter.

接眼部11は、デジタルカメラ100の内部に配置されたEVFを見るために設けられている。接眼部11には、近接する物体を検出する接眼検知部が設けられている。例えば接眼検知部において物体が検出された場合、表示部101をOFFとすることで、電力消費を抑制することができる。 The eyepiece 11 is provided for viewing the EVF arranged inside the digital camera 100. The eyepiece 11 is provided with an eyepiece detection unit that detects nearby objects. For example, when an object is detected by the eyepiece detection unit, the display unit 101 is turned off, thereby reducing power consumption.

開閉可能な端子カバー13は、デジタルカメラ100を外部機器と接続するための端子(不図示)を保護する。開閉可能な蓋14は、メモリカードなどの記録媒体を着脱可能なスロットを保護する。グリップ部15は、ユーザがデジタルカメラ100を保持しやすい形状に形成されている。 The openable terminal cover 13 protects a terminal (not shown) for connecting the digital camera 100 to an external device. The openable lid 14 protects a slot into which a recording medium such as a memory card can be inserted and removed. The grip portion 15 is shaped to make it easy for the user to hold the digital camera 100.

図2は、デジタルカメラ100にレンズユニット150が装着された状態の機能構成例を示すブロック図であり、図1に示した構成は図1と同じ参照数字を付してある。レンズユニット150はデジタルカメラ100の交換レンズである。レンズ151は通常、固定レンズと可動レンズとを含んだ複数枚のレンズを有するが、便宜上一枚のレンズとして図示している。可動レンズには例えばフォーカシングレンズ、防振レンズ、変倍レンズなどがある。 Figure 2 is a block diagram showing an example of the functional configuration when lens unit 150 is attached to digital camera 100, and the components shown in Figure 1 are given the same reference numerals as in Figure 1. Lens unit 150 is an interchangeable lens for digital camera 100. Lens 151 usually has multiple lenses including fixed lenses and movable lenses, but for convenience it is illustrated as a single lens. Examples of movable lenses include focusing lenses, anti-vibration lenses, and variable magnification lenses.

レンズユニット150のマウント部には端子群153が設けられている。端子群153はレンズユニット150がデジタルカメラ100に装着された状態で端子群104と接するように構成されている。レンズユニット150は端子群153、104を通じてデジタルカメラ100から供給される電力で動作し、また端子群153、104を通じてデジタルカメラ100と通信する。 A terminal group 153 is provided on the mount of the lens unit 150. The terminal group 153 is configured to contact the terminal group 104 when the lens unit 150 is attached to the digital camera 100. The lens unit 150 operates with power supplied from the digital camera 100 via the terminal groups 153 and 104, and also communicates with the digital camera 100 via the terminal groups 153 and 104.

レンズ制御部154は例えばCPU、ROM、RAMを有し、ROMに記憶されたプログラムをRAMにロードして実行することにより、レンズユニット150の動作を制御する。レンズ制御部154は後述するカメラ制御部132と端子群153、104を介して通信し、カメラ制御部132からの指示に従ってレンズユニット150の動作を制御する。 The lens control unit 154 has, for example, a CPU, ROM, and RAM, and controls the operation of the lens unit 150 by loading a program stored in the ROM into the RAM and executing it. The lens control unit 154 communicates with the camera control unit 132 (described later) via terminal groups 153 and 104, and controls the operation of the lens unit 150 according to instructions from the camera control unit 132.

絞り駆動回路155はレンズユニット150に設けられた絞り152を駆動するアクチュエータなどを有する。絞り駆動回路155はレンズ制御部154の制御に従って絞り152を駆動する。
フォーカス駆動回路156はレンズユニット150が有するフォーカシングレンズを駆動するモータまたはアクチュエータなどを有する。フォーカス駆動回路156はレンズ制御部154の制御に従ってフォーカシングレンズを駆動する。また、フォーカシングレンズの位置情報を取得し、レンズ制御部154に通知する。
The aperture drive circuit 155 has an actuator that drives the aperture 152 provided in the lens unit 150. The aperture drive circuit 155 drives the aperture 152 under the control of the lens control unit 154.
The focus drive circuit 156 has a motor or an actuator that drives the focusing lens of the lens unit 150. The focus drive circuit 156 drives the focusing lens under the control of the lens control unit 154. The focus drive circuit 156 also obtains position information of the focusing lens and notifies the lens control unit 154.

シャッタ105はフォーカルプレーンシャッタであり、カメラ制御部132の制御に従って走行する。
センサ部106は、撮像素子とA/D変換回路を有する。撮像素子は例えばCCDイメージセンサやCMOSイメージセンサである。撮像素子は2次元配列された複数の画素(光電変換部)を有し、撮像面に形成される光学像を画素信号群(アナログ画像信号)に変換する。A/D変換回路は、アナログ画像信号をデジタル信号(画像データ)に変換して出力する。なお、撮像素子は1つのマイクロレンズを複数の光電変換部で共有する構成を有してもよい。この場合、撮像素子から得られる信号に基づいて位相差方式のオートフォーカスが可能である。
The shutter 105 is a focal plane shutter, and operates under the control of the camera control unit 132 .
The sensor unit 106 has an image sensor and an A/D conversion circuit. The image sensor is, for example, a CCD image sensor or a CMOS image sensor. The image sensor has a plurality of pixels (photoelectric conversion units) arranged two-dimensionally, and converts an optical image formed on an imaging surface into a pixel signal group (analog image signal). The A/D conversion circuit converts the analog image signal into a digital signal (image data) and outputs it. Note that the image sensor may have a configuration in which one microlens is shared by a plurality of photoelectric conversion units. In this case, autofocus using a phase difference method is possible based on a signal obtained from the image sensor.

図3は、撮像素子に配置されるカラーフィルタの色配列を示している。本実施形態では赤(R)フィルタ1003、緑(G)フィルタ1001、青(B)フィルタ1002が垂直2画素、水平2画素の4画素を繰り返し単位として配列される原色ベイヤ配列のカラーフィルタとする。 Figure 3 shows the color arrangement of color filters arranged on the image sensor. In this embodiment, the red (R) filter 1003, green (G) filter 1001, and blue (B) filter 1002 are primary color Bayer array color filters arranged in a repeating unit of four pixels, two pixels vertically and two pixels horizontally.

本実施形態では、撮像素子がいわゆる4Kまたは8Kに対応した画素数を有するものとする。4K解像度の場合は横3840画素×縦2160画素(約800万画素)であり、8K解像度の場合は横7680画素×縦4320画素(約3300万画素)である。また、センサ部106は4Kまたは8K解像度の画像データを120フレーム毎秒のフレームレートで出力可能であるものとする。 In this embodiment, the image sensor has a number of pixels corresponding to so-called 4K or 8K. In the case of 4K resolution, it is 3840 pixels horizontally by 2160 pixels vertically (approximately 8 million pixels), and in the case of 8K resolution, it is 7680 pixels horizontally by 4320 pixels vertically (approximately 33 million pixels). In addition, the sensor unit 106 is capable of outputting image data of 4K or 8K resolution at a frame rate of 120 frames per second.

フロントエンジン130は、センサ部106から取得した画像データを処理する画像処理部131と、デジタルカメラ100およびレンズユニット150の動作を制御するカメラ制御部132とを有する。フロントエンジン130は例えば一つの半導体集積回路パッケージとして構成されてよい。また、画像処理部131とカメラ制御部132とが同一の半導体チップに実装されてもよいし、画像処理部131とカメラ制御部132とが別個の半導体チップに実装されて同一パッケージに封入された構成でもよい。カメラ制御部132はCPUを有し、例えばシステムメモリ133が有するROMに記憶されたプログラムをシステムメモリ133が有するRAM112に読み込んで実行して各部の動作を制御する。 The front engine 130 has an image processing unit 131 that processes image data acquired from the sensor unit 106, and a camera control unit 132 that controls the operation of the digital camera 100 and the lens unit 150. The front engine 130 may be configured as, for example, a single semiconductor integrated circuit package. The image processing unit 131 and the camera control unit 132 may be mounted on the same semiconductor chip, or may be mounted on separate semiconductor chips and enclosed in the same package. The camera control unit 132 has a CPU, and for example, loads a program stored in a ROM of the system memory 133 into the RAM 112 of the system memory 133 and executes it to control the operation of each unit.

フロントエンジン130が有する画像処理部131は主に画像データの縮小(解像度の低減)処理と、縮小画像データに対する画像処理とを受け持つ。画像処理は例えば表示画像データの生成処理、検出処理、評価値算出処理などである。検出処理には、特徴領域(たとえば顔領域や人体領域)やその動きの検出、人物の認識処理などが含まれる。評価値算出処理には、自動焦点検出(AF)に用いる信号や評価値の生成、自動露出制御(AE)に用いる評価値の算出などが含まれる。なお、これらは画像処理部131の代表的な処理の例示であり、他の処理が実行されてもよい。 The image processing unit 131 of the front engine 130 is mainly responsible for image data reduction (resolution reduction) processing and image processing of reduced image data. Image processing includes, for example, display image data generation processing, detection processing, evaluation value calculation processing, etc. Detection processing includes detection of characteristic regions (for example, face regions and human body regions) and their movements, person recognition processing, etc. Evaluation value calculation processing includes generation of signals and evaluation values used for autofocus detection (AF), calculation of evaluation values used for automatic exposure control (AE), etc. Note that these are examples of typical processing of the image processing unit 131, and other processing may also be performed.

ここで画像処理部131が生成する表示画像データは、表示部101およびEVF108の少なくとも一方にライブビュー表示するための画像データ(ライブビュー画像データ)である。なお、ライブビュー表示とは、撮影範囲、撮影条件を確認するために、現在の撮影条件に基づく動画像の撮影と、撮影された動画像の表示を継続的に行う機能である。なお、EVF108は、デジタルカメラ100の筐体内に配置され、接眼部11を通じて筐体外部から観察可能な表示装置である。ここでは、EVF108と表示部101の解像度が等しいものとする。 The display image data generated by the image processing unit 131 here is image data (live view image data) for live view display on at least one of the display unit 101 and EVF 108. Note that live view display is a function that continuously captures moving images based on the current shooting conditions and displays the captured moving images in order to check the shooting range and shooting conditions. Note that the EVF 108 is a display device that is disposed inside the housing of the digital camera 100 and can be observed from outside the housing through the eyepiece unit 11. Here, it is assumed that the resolution of the EVF 108 and the display unit 101 is the same.

なお、表示画像データは通信部109を介して外部装置に出力されてもよい。外部装置に出力する表示画像データをEVF108や表示部101で用いる表示画像データと異ならせてもよい。この場合、外部装置に出力する表示画像データはメインエンジン140が生成する。 The display image data may be output to an external device via the communication unit 109. The display image data output to the external device may be different from the display image data used by the EVF 108 or the display unit 101. In this case, the display image data output to the external device is generated by the main engine 140.

また、フロントエンジン130は、デジタルカメラ100の動作モードに応じてメインエンジン140の起動制御を実行する。フロントエンジン130とメインエンジン140とは物理的に別個の半導体集積回路である。 The front engine 130 also controls the startup of the main engine 140 depending on the operation mode of the digital camera 100. The front engine 130 and the main engine 140 are physically separate semiconductor integrated circuits.

システムメモリ133は不揮発性メモリ(ROM)と揮発性メモリ(RAM)とを有する。ROMにはカメラ制御部132が実行するプログラムや、デジタルカメラ100の設定値、メニュー画面やライブビュー画像とともに表示するアイコンなどのGUI画像データが記憶される。RAMはカメラ制御部132が実行するプログラムをロードしたり、プログラムの実行中に利用する変数値などを記憶したりするために用いられる。 The system memory 133 has a non-volatile memory (ROM) and a volatile memory (RAM). The ROM stores programs executed by the camera control unit 132, settings for the digital camera 100, and GUI image data such as icons displayed along with menu screens and live view images. The RAM is used to load programs executed by the camera control unit 132 and to store variable values used during program execution.

メモリ134は、画像処理部131が処理対象の画像データ、処理中の画像データ、処理後の画像データなどを記憶するために用いる。例えば、メモリ134は、DRAM(Dynamic Random Access Memory)である。なお、システムメモリ133のRAMを画像データの記憶に用いてもよい。 The memory 134 is used by the image processing unit 131 to store image data to be processed, image data being processed, image data after processing, etc. For example, the memory 134 is a dynamic random access memory (DRAM). Note that the RAM of the system memory 133 may also be used to store image data.

メインエンジン140は、フロントエンジン130とは別個の半導体パッケージとして構成される。画像処理部141と、記録再生部143と、メインエンジン140の動作を制御する制御部142と、を有する。また、メインエンジン140は1チップの集積回路であってもよいし、複数のチップが同一パッケージに封入された構成でもよい。画像処理部141は、フロントエンジン130から得られる、縮小処理されていない画像データに対して画像処理を適用する。 The main engine 140 is configured as a semiconductor package separate from the front engine 130. It has an image processing unit 141, a recording/playback unit 143, and a control unit 142 that controls the operation of the main engine 140. The main engine 140 may be a single-chip integrated circuit, or may be configured with multiple chips enclosed in the same package. The image processing unit 141 applies image processing to the unreduced image data obtained from the front engine 130.

記録再生部143は、画像処理部141が処理した画像データを記録媒体200に記録したり、記録媒体200に記録されたデータを読み出して画像処理部141に出力したりする。記録媒体200は例えばメモリカードや磁気ディスクなどであってよい。デジタルカメラ100が再生モードで動作している場合、記録媒体200から読み出されて画像処理部141で処理された画像データは、フロントエンジン130を通じて表示部101に表示される。また、外部出力が有効の場合、記録再生部143によって記録媒体200から読み出され、画像処理部141で処理された画像データは、通信部109を介して外部装置に出力される。 The recording and playback unit 143 records the image data processed by the image processing unit 141 on the recording medium 200, and reads out the data recorded on the recording medium 200 and outputs it to the image processing unit 141. The recording medium 200 may be, for example, a memory card or a magnetic disk. When the digital camera 100 is operating in the playback mode, the image data read out from the recording medium 200 and processed by the image processing unit 141 is displayed on the display unit 101 through the front engine 130. In addition, when external output is enabled, the image data read out from the recording medium 200 by the recording and playback unit 143 and processed by the image processing unit 141 is output to an external device via the communication unit 109.

システムメモリ144は不揮発性メモリ(ROM)と揮発性メモリ(RAM)とを有する。ROMには制御部142が実行するプログラムやパラメータが記憶される。RAMは制御部142が実行するプログラムをロードしたり、プログラムの実行中に利用する変数値などを記憶したりするために用いられる。 The system memory 144 has a non-volatile memory (ROM) and a volatile memory (RAM). The ROM stores the programs and parameters executed by the control unit 142. The RAM is used to load the programs executed by the control unit 142 and to store variable values used during program execution.

メモリ145は、画像処理部141が処理対象の画像データ、処理中の画像データ、処理後の画像データなどを記憶するために用いる。例えば、メモリ145は、MRAM(Magnetoresistive Random Access Memory)である。 The memory 145 is used by the image processing unit 141 to store image data to be processed, image data being processed, image data after processing, etc. For example, the memory 145 is a magnetoresistive random access memory (MRAM).

電源制御部107は、電池検出回路、DC-DCコンバータ、給電するブロックを切り替えるスイッチ回路等により構成される。電源制御部107は、電源210の種類(例えばACアダプタまたは電池)、電源210の装着の有無、電源210(電池)の残量を検出する。また、電源制御部107はこれらの検出結果およびカメラ制御部132の指示に基づいてDC-DCコンバータを制御し、必要な電力を必要な期間、フロントエンジン130、メインエンジン140を含む各部へ供給する。また、電源制御部107は、記録媒体200やレンズユニット150にも電力を供給する。また、電源制御部107は画像記録を行わない撮影待機状態ではメインエンジン140へ供給する電力を制限したり、接眼検知部が物体の近接を検出したことに応じて表示部101への電源供給を制限したりする。 The power supply control unit 107 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching between blocks to which power is supplied, and the like. The power supply control unit 107 detects the type of power supply 210 (e.g., AC adapter or battery), whether the power supply 210 is attached, and the remaining charge of the power supply 210 (battery). The power supply control unit 107 also controls the DC-DC converter based on these detection results and instructions from the camera control unit 132, and supplies the necessary power to each unit including the front engine 130 and main engine 140 for the necessary period. The power supply control unit 107 also supplies power to the recording medium 200 and the lens unit 150. The power supply control unit 107 also limits the power supplied to the main engine 140 in a standby state in which no image is recorded, and limits the power supply to the display unit 101 in response to the eyepiece detection unit detecting the proximity of an object.

電源210は、アルカリ電池やリチウム電池等の一次電池、NiCd電池やNiMH電池、Li電池等の二次電池、ACアダプタの1つ以上である。ACアダプタ、電池ともデジタルカメラ100に対して着脱可能である。 The power source 210 is one or more of a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, or an AC adapter. Both the AC adapter and the battery are detachable from the digital camera 100.

通信部109は、無線または有線通信インタフェースであり、デジタルカメラ100は通信部109を通じて外部装置とデータ通信を行う。通信部109は規格に準拠した複数の通信インタフェースを有してもよい。通信部109が有する通信インタフェースが準拠する規格としては、USB、HDMI(登録商標)、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)などが代表例であるが、これらに限定されない。また、通信部109はGPSレシーバや、携帯電話網との送受信器を有してもよい。 The communication unit 109 is a wireless or wired communication interface, and the digital camera 100 communicates data with external devices through the communication unit 109. The communication unit 109 may have multiple communication interfaces that comply with standards. Typical standards to which the communication interface of the communication unit 109 complies include, but are not limited to, USB, HDMI (registered trademark), wireless LAN, Bluetooth (registered trademark), and NFC (Near Field Communication). The communication unit 109 may also have a GPS receiver and a transceiver for communication with a mobile phone network.

操作部110は、デジタルカメラ100の筐体外面に設けられた様々な入力デバイスの総称である。図1のメイン電子ダイヤル112、サブ電子ダイヤル113、十字キー114、SETボタン115、動画ボタン116、AEロックボタン117、拡大ボタン118、再生ボタン119、メニューボタン120、モード切替スイッチ121が含まれる。。また、表示部101に設けられるタッチパネル111もまた操作部110に含まれる。なお、本実施形態では便宜上シャッタボタン102と電源スイッチ103は操作部110とは別個に記載している The operation unit 110 is a collective term for various input devices provided on the outer surface of the housing of the digital camera 100. It includes the main electronic dial 112, the sub electronic dial 113, the cross key 114, the SET button 115, the movie button 116, the AE lock button 117, the enlarge button 118, the playback button 119, the menu button 120, and the mode switch 121 shown in FIG. 1. The touch panel 111 provided on the display unit 101 is also included in the operation unit 110. For the sake of convenience, in this embodiment, the shutter button 102 and the power switch 103 are described separately from the operation unit 110.

シャッタボタン102は、半押し状態でONになるスイッチ(SW1)と、全押し状態でONになるスイッチ(SW2)をと有する。カメラ制御部132は、シャッタボタン102の半押し状態を撮影準備指示の入力、全押し状態を静止画の撮影指示の入力と認識する。カメラ制御部132は、撮影準備指示の入力に応じて、AF(オートフォーカス)処理、AE(自動露出)処理などの撮影準備動作を実行する。また、カメラ制御部132は、静止画撮影指示の入力に応じて、絞りおよびシャッタの駆動、センサ部106からの画像データ読み出し、メインエンジン140での画像処理、記録媒体200への画像データ記録といった一連の動作を実行する。なお、撮影準備指示もしくは静止画撮影指示の入力に応じて、カメラ制御部132はメインエンジン140への電力供給の制限を解除する。 The shutter button 102 has a switch (SW1) that is turned on when pressed halfway, and a switch (SW2) that is turned on when pressed all the way. The camera control unit 132 recognizes the half-pressed state of the shutter button 102 as an input of a shooting preparation instruction, and the all-pressed state as an input of an instruction to shoot a still image. In response to the input of the shooting preparation instruction, the camera control unit 132 executes shooting preparation operations such as AF (autofocus) processing and AE (autoexposure) processing. In response to the input of a still image shooting instruction, the camera control unit 132 also executes a series of operations such as driving the aperture and shutter, reading image data from the sensor unit 106, image processing in the main engine 140, and recording image data to the recording medium 200. In response to the input of the shooting preparation instruction or the still image shooting instruction, the camera control unit 132 releases the restriction on the power supply to the main engine 140.

次に、フロントエンジン130、およびメインエンジン140に関してさらに説明する。
図4は、フロントエンジン130およびメインエンジン140の機能構成例を示すブロック図である。なお、画像処理部131および141が有する機能ブロックは、専用のハードウェア回路もしくは画像処理部が有する1つ以上のCPUがプログラムを実行することによって実現することができる。また、機能ブロックの間でのデータ伝送は、ある機能ブロックから他の機能ブロックへの直接伝送であってもよいし、ある機能ブロックがメモリ134や145に書き込んだデータを他の機能ブロックが読み出す間接伝送であってもよい。
Next, the front engine 130 and the main engine 140 will be described in further detail.
4 is a block diagram showing an example of the functional configuration of the front engine 130 and the main engine 140. The functional blocks of the image processing units 131 and 141 can be realized by a dedicated hardware circuit or by one or more CPUs of the image processing units executing a program. Data transmission between the functional blocks may be direct transmission from one functional block to another, or indirect transmission in which data written by one functional block to the memory 134 or 145 is read by the other functional block.

静止画撮影指示が入力されると、カメラ制御部132は静止画撮影処理を開始する。カメラ制御部132は、撮影準備指示の入力に応答して実行したAE処理によって決定した絞り値およびシャッタスピードで撮像素子を露光するようにレンズユニット150の絞り152と、シャッタ105の駆動を制御する。レンズユニット150の絞りやフォーカシングレンズの駆動制御は、例えばカメラ制御部132からレンズ制御部154にコマンドを送信することによって実現できる。 When a still image capture instruction is input, the camera control unit 132 starts the still image capture process. The camera control unit 132 controls the aperture 152 of the lens unit 150 and the drive of the shutter 105 so as to expose the image sensor at the aperture value and shutter speed determined by the AE process executed in response to the input of the capture preparation instruction. Drive control of the aperture and focusing lens of the lens unit 150 can be realized, for example, by sending a command from the camera control unit 132 to the lens control unit 154.

AE処理は公知の任意の方法を用いて行うことができる。露出条件の決定において、特徴領域の検出結果を用いてもよい。静止画撮影指示の入力時点でAE処理が完了していない場合、カメラ制御部132は例えばシステムメモリ133に予め記憶された絞り値およびシャッタスピードを用いることができる。 AE processing can be performed using any known method. The detection results of characteristic areas may be used in determining exposure conditions. If AE processing is not completed at the time when a still image capture instruction is input, the camera control unit 132 can use, for example, an aperture value and shutter speed that are pre-stored in the system memory 133.

センサ部106の出力する画像データは、フロントエンジン130の画像処理部131に入力される。画像処理部131は、表示画像データの生成や検出処理のためのデータ処理を行う第1の経路と、記録画像データの生成のためのデータ処理を行う第2の経路とを有する。 The image data output by the sensor unit 106 is input to an image processing unit 131 of the front engine 130. The image processing unit 131 has a first path for performing data processing for generating display image data and detection processing, and a second path for performing data processing for generating recording image data.

はじめに、第1の経路における処理について説明する。
画素並替処理部301は、センサ部106からラスタスキャン順に入力されるRAWデータを、画素データの配列が撮像素子の画素配列と対応するように2次元マトリクス状に並べ替える。RAWデータは画素あたり1つの色成分の値を有する画像データである。本実施形態では撮像素子が原色ベイヤ配列のカラーフィルタを有するので、RAWデータを構成する画素データは赤色成分、緑色成分、青色成分のいずれか1つを有する。本明細書においてRAWデータとは、各画素データが有する色成分が1つである画像データとする。各画像データが3つの色成分を有するように色成分値を補完する同時化処理またはデモザイク処理が適用される前の画像データがRAWデータであるとも言える。したがって、RAWデータには、データ量の圧縮処理など、画素データあたりの色成分の数に影響を与えない処理が適用されていてもよい。図5の例では、LV現像処理部308やRAW現像処理部322に入力されるまでの画像データはRAWデータであり、LV現像処理部308やRAW現像処理部322が出力する画像データはRAWデータではない。
First, the process in the first path will be described.
The pixel rearrangement processing unit 301 rearranges the RAW data input from the sensor unit 106 in the raster scan order into a two-dimensional matrix so that the arrangement of the pixel data corresponds to the pixel arrangement of the image sensor. The RAW data is image data having one color component value per pixel. In this embodiment, the image sensor has a primary color Bayer array color filter, so that the pixel data constituting the RAW data has one of a red component, a green component, and a blue component. In this specification, the RAW data is image data in which each pixel data has one color component. It can also be said that the image data before the synchronization process or the demosaic process that complements the color component values so that each image data has three color components is the RAW data. Therefore, the RAW data may be subjected to a process that does not affect the number of color components per pixel data, such as a data volume compression process. In the example of FIG. 5, the image data before being input to the LV development processing unit 308 or the RAW development processing unit 322 is RAW data, and the image data output by the LV development processing unit 308 or the RAW development processing unit 322 is not RAW data.

圧縮処理部302(第1の圧縮手段)は、画素並替処理部301が出力するRAWデータを符号化することにより、データ量を圧縮する。圧縮処理部302の圧縮処理は、低消費電力かつ低遅延で実行可能な符号化方法、例えば量子化、DPCMなどの差分符号化、エントロピー符号化など、単純な回路構成で実現可能な方法を用いることができる。符号化は可逆的であっても非可逆的であってもよい。圧縮処理はフロントエンジン131内のバス帯域を削減するために行う。バス帯域は、バスのデータ転送能力もしくは転送容量であり、バスのクロック周波数、バスのビット幅、レイテンシに応じて定まる。圧縮処理部302が生成する圧縮RAWデータは、一時的にメモリ134に格納してバッファリングされてもよい。圧縮処理は、RAWデータに対して所定の2次元画素ブロック単位で行うものとする。なお、圧縮処理部302における圧縮処理の圧縮率は、カメラ制御部132の制御に基づいて符号化ブロック単位で変更可能であるものとする。 The compression processing unit 302 (first compression means) compresses the amount of data by encoding the RAW data output by the pixel rearrangement processing unit 301. The compression processing by the compression processing unit 302 can use an encoding method that can be executed with low power consumption and low delay, such as quantization, differential encoding such as DPCM, entropy encoding, or other methods that can be realized with a simple circuit configuration. The encoding may be lossless or lossy. The compression processing is performed to reduce the bus bandwidth in the front engine 131. The bus bandwidth is the data transfer capability or transfer capacity of the bus, and is determined according to the clock frequency of the bus, the bit width of the bus, and the latency. The compressed RAW data generated by the compression processing unit 302 may be temporarily stored in the memory 134 and buffered. The compression processing is performed on the RAW data in units of a predetermined two-dimensional pixel block. The compression rate of the compression processing in the compression processing unit 302 can be changed in units of encoding blocks based on the control of the camera control unit 132.

伸長処理部303(第1の圧縮手段)は、圧縮処理部302が生成する圧縮RAWデータに対して伸長(復号)処理を適用する。
センサ補正処理部304は、伸長処理部303が復号したRAWデータに対して、撮像素子の特性に基づく補正処理(センサ補正処理)を実行する。センサ補正処理は、例えば、撮像素子が有する複数の光電変換部の光電変換効率(感度)のばらつきを補正する処理である。あらかじめシステムメモリ133等に格納された感度分布情報に基づいて、RAWデータの画素値を補正する。センサ補正処理は、欠陥画素の補正処理を含んでもよい。欠陥画素の補正処理は、欠陥画素として登録されている画素の値を周辺の正常画素の値を用いて補間したり、所定のオフセット値を減算したりする処理であってよい。なお、欠陥画素の補正処理の一部又は全部は、現像処理の一部として実行されてもよい。
The decompression processing unit 303 (first compression unit) applies decompression (decoding) processing to the compressed RAW data generated by the compression processing unit 302 .
The sensor correction processing unit 304 executes a correction process (sensor correction process) based on the characteristics of the image sensor on the RAW data decoded by the decompression processing unit 303. The sensor correction process is, for example, a process of correcting the variation in the photoelectric conversion efficiency (sensitivity) of a plurality of photoelectric conversion units of the image sensor. The pixel values of the RAW data are corrected based on the sensitivity distribution information stored in advance in the system memory 133 or the like. The sensor correction process may include a correction process for defective pixels. The correction process for defective pixels may be a process of interpolating the value of a pixel registered as a defective pixel using the values of surrounding normal pixels or subtracting a predetermined offset value. Note that a part or all of the correction process for defective pixels may be executed as a part of the development process.

センサ補正処理が実行されたRAWデータは、縮小処理部305とRAWノイズ抑制処理部313に供給される。
縮小処理部305は、表示画像データの生成処理や検出処理を効率的に行うため、RAWデータを縮小(解像度を低減)し、縮小RAWデータを得る。縮小処理部305は、4Kや8K等の高解像度のRAWデータを、例えばHD解像度(200万画素相当)にリサイズする。HD解像度は例えば横1920画素×縦1080画素である。縮小処理部305は表示部101の表示解像度もしくはライブビュー画像の表示領域の解像度に合わせるようにRAWデータを縮小してもよい。
The raw data that has undergone the sensor correction process is supplied to a reduction processing unit 305 and a raw noise suppression processing unit 313 .
The reduction processing unit 305 reduces the RAW data (reduces the resolution) to obtain reduced RAW data in order to efficiently perform generation processing and detection processing of display image data. The reduction processing unit 305 resizes high-resolution RAW data such as 4K or 8K to, for example, HD resolution (equivalent to 2 million pixels). HD resolution is, for example, 1920 pixels horizontally by 1080 pixels vertically. The reduction processing unit 305 may reduce the RAW data to match the display resolution of the display unit 101 or the resolution of the display area of the live view image.

光学補正処理部306から表示処理部311により、縮小RAWデータから表示画像データを生成する。また、検出処理部312は、縮小RAWデータに基づいて、AF、AEなどに用いる評価値の算出、特徴量領域の検出および追跡、被写体やシーンの認識、ぶれの大きさの算出などを実行する。 The optical correction processing unit 306 and the display processing unit 311 generate display image data from the reduced RAW data. In addition, the detection processing unit 312 calculates evaluation values used for AF, AE, etc., detects and tracks feature regions, recognizes subjects and scenes, calculates the magnitude of blur, etc., based on the reduced RAW data.

まず、表示画像データ(ライブビュー画像データ)を生成する光学補正処理部306から表示処理部311の処理について説明する。
光学補正処理部306は、縮小RAWデータに対してレンズ151等の光学特性に関連する補正処理(光学補正処理)を適用する。光学補正処理は、例えば、レンズ151の収差による周辺領域の光量低下の影響を補正する処理である。
First, the processing from the optical correction processing unit 306 to the display processing unit 311 that generates display image data (live view image data) will be described.
The optical correction processing unit 306 applies correction processing (optical correction processing) related to the optical characteristics of the lens 151, etc., to the reduced RAW data. The optical correction processing is, for example, processing to correct the influence of a decrease in the amount of light in the peripheral area due to the aberration of the lens 151.

ノイズ抑制処理部307は、縮小RAWデータにノイズ低減処理を適用する。ノイズ低減処理は、一般にノイズ除去、ノイズリダクション(Noise Reduction、NR)と呼ばれる。ノイズ低減処理は、例えば移動平均フィルタ処理やメディアンフィルタ処理によって実現できる。 The noise suppression processing unit 307 applies noise reduction processing to the reduced RAW data. Noise reduction processing is generally called noise removal or noise reduction (NR). Noise reduction processing can be achieved, for example, by moving average filtering or median filtering.

LV現像処理部308は、縮小RAWデータに対して現像処理(LV現像処理)を実行する。LV現像処理は、メインエンジン140のRAW現像処理部322が適用する現像処理よりも、処理負荷およびリソース負荷(メモリ134との通信帯域など)が低い。現像処理はデモザイク処理または同時化処理を含み、各画素がすべての色成分(R,G,B)の情報を有する画像データを生成する。本実施形態では、縮小RAWデータに対してLV現像処理を適用して得られる画像データを表示画像データとして用いる。 The LV development processing unit 308 executes development processing (LV development processing) on the reduced RAW data. The LV development processing has a lower processing load and resource load (such as communication bandwidth with the memory 134) than the development processing applied by the RAW development processing unit 322 of the main engine 140. The development processing includes demosaic processing or synchronization processing, and generates image data in which each pixel has information on all color components (R, G, B). In this embodiment, the image data obtained by applying the LV development processing to the reduced RAW data is used as display image data.

LV補正処理部309は、表示画像データに対して、歪曲補正、拡大処理、縮小処理等の補正処理を実行する。LV補正処理部309は、表示画像データの解像度がライブビュー画像を表示する表示装置(表示部101およびEVF108)もしくは表示領域の解像度となるように拡大処理または縮小処理を実行する。なお、拡大処理または縮小処理は必要な場合のみ実施される。表示部101用とEVF108用とで異なる解像度としてもよい。 The LV correction processing unit 309 performs correction processing such as distortion correction, enlargement processing, and reduction processing on the display image data. The LV correction processing unit 309 performs enlargement processing or reduction processing so that the resolution of the display image data matches the resolution of the display device (display unit 101 and EVF 108) that displays the live view image or the display area. Note that enlargement processing or reduction processing is performed only when necessary. Different resolutions may be used for the display unit 101 and the EVF 108.

LV効果処理部310は、補正された表示画像データに対して、所定の表示効果を与えるエフェクト処理を適用する。エフェクト処理は、例えば、セピア調やモノクロへの色変換や、モザイク状や絵画風への加工などである。エフェクト処理が不要な場合、LV効果処理部310は入力された表示画像データをそのまま出力する。 The LV effect processor 310 applies effect processing to the corrected display image data to impart a specific display effect. Effect processing includes, for example, color conversion to sepia or monochrome, or processing to a mosaic or painting style. If effect processing is not required, the LV effect processor 310 outputs the input display image data as is.

表示処理部311は、LV効果処理部310が出力する表示画像データを表示部101およびEVF108に表示させる。表示処理部311は、表示画像データに対して入出力補正やガンマ補正、ホワイトバランス補正等を適用する。また、表示処理部311は、表示画像データに対してアシスト情報の画像データを合成する。アシスト情報の例は、現在の設定を示す数値、アイコンなどの画像や、検出された特徴領域や焦点検出領域(AF領域)を示す枠状の画像などであるが、これらに限定されない。 The display processing unit 311 displays the display image data output by the LV effect processing unit 310 on the display unit 101 and EVF 108. The display processing unit 311 applies input/output correction, gamma correction, white balance correction, etc. to the display image data. The display processing unit 311 also combines image data of assist information with the display image data. Examples of assist information include, but are not limited to, images such as numerical values and icons indicating the current settings, and frame-shaped images indicating detected feature areas and focus detection areas (AF areas).

現在の設定を示す数値は、例えば、ISO感度、色温度、シャッタスピード、絞り値などである。また、現在の設定を示すアイコンは、例えば、1枚撮影モード、連写モード、インターバル撮影モード等の撮影枚数を示すアイコン、フラッシュ使用可否を示すアイコン、設定された撮影モードを示すアイコンを含む。アシスト情報は、表示画像データに基づく画像の周辺領域に重畳するように合成されてもよいし、表示画像データに基づく画像の外周に沿って設けられたアイコン表示領域に表示されるように処理されてもよい。表示処理部311は、上述の処理を実行された表示画像データを表示部101またはEVF108に出力する。 The numerical values indicating the current settings are, for example, ISO sensitivity, color temperature, shutter speed, aperture value, etc. Furthermore, the icons indicating the current settings include, for example, an icon indicating the number of shots in single shooting mode, continuous shooting mode, interval shooting mode, etc., an icon indicating whether or not the flash can be used, and an icon indicating the set shooting mode. The assist information may be synthesized so as to be superimposed on the peripheral area of the image based on the display image data, or may be processed so as to be displayed in an icon display area provided along the outer periphery of the image based on the display image data. The display processing unit 311 outputs the display image data that has been subjected to the above-mentioned processing to the display unit 101 or EVF 108.

表示部101およびEVF108は、入力された表示画像データを表示する。上述の一連の処理により、表示部101およびEVF108にライブビュー画像の1フレームが表示される。同様の処理を所定のフレームレートで実行することにより、表示部101およびEVF108に対するライブビュー表示が実現される。 The display unit 101 and EVF 108 display the input display image data. Through the above-described series of processes, one frame of a live view image is displayed on the display unit 101 and EVF 108. By executing a similar process at a predetermined frame rate, a live view display on the display unit 101 and EVF 108 is realized.

検出処理部312は、縮小RAWデータから記録用の撮影時における撮影条件を決定したり自動焦点検出を実行したりするための評価値を算出したり、特徴領域の検出および追尾といった処理を実行する。具体的には、検出処理部312は、AFに用いるコントラスト評価値を算出したり、位相差検出用の像信号対を生成したりする。また、検出処理部312はAEに用いる輝度評価値を算出する。検出処理部312は算出した評価値をメモリ134に格納する。また、検出処理部312は、縮小RAWデータに対して人物や動物の顔領域といった特徴領域の検出処理を適用する。検出処理部312はさらに、検出された特徴領域について、被写体認識処理や追尾処理を適用してもよい。検出処理部312は、検出した特徴領域の位置や大きさ、認識した被写体の情報、特定被写体の動き方向および動き量といった検出結果をメモリ134に格納する。検出処理部312が行う評価値の生成や検出は、公知の方法で実施可能である。なお、ここで説明した評価値や検出処理は単なる例示であり、他の評価値を算出したり、他の対象を検出したりしてもよい。 The detection processing unit 312 calculates an evaluation value for determining the shooting conditions at the time of shooting for recording from the reduced RAW data and for performing automatic focus detection, and performs processes such as detection and tracking of characteristic areas. Specifically, the detection processing unit 312 calculates a contrast evaluation value used for AF and generates an image signal pair for phase difference detection. The detection processing unit 312 also calculates a brightness evaluation value used for AE. The detection processing unit 312 stores the calculated evaluation value in the memory 134. The detection processing unit 312 also applies detection processing of characteristic areas such as face areas of people and animals to the reduced RAW data. The detection processing unit 312 may further apply subject recognition processing and tracking processing to the detected characteristic areas. The detection processing unit 312 stores detection results such as the position and size of the detected characteristic areas, information on the recognized subjects, and the movement direction and movement amount of the specific subjects in the memory 134. The generation and detection of the evaluation value performed by the detection processing unit 312 can be performed by a known method. Note that the evaluation value and detection processing described here are merely examples, and other evaluation values may be calculated and other targets may be detected.

カメラ制御部132はメモリ134から読み出した評価値や検出結果に基づいて、露出条件を決定したり、レンズユニット150のフォーカシングレンズを駆動したりする。被写体の認識処理をカメラ制御部132が行ってもよい。また、カメラ制御部132は、検出処理部312によって得られた評価値や検出結果を、表示処理部311に供給してもよい。表示処理部311は評価値や検出結果に応じた指標やアイコンを表示用画像データに合成することができる。 The camera control unit 132 determines the exposure conditions and drives the focusing lens of the lens unit 150 based on the evaluation value and detection results read from the memory 134. The camera control unit 132 may perform subject recognition processing. The camera control unit 132 may also supply the evaluation value and detection results obtained by the detection processing unit 312 to the display processing unit 311. The display processing unit 311 can synthesize an indicator or icon according to the evaluation value and detection results into the display image data.

次に、画像処理部131のうち、記録画像データの生成に用いられる構成について説明する。
RAWノイズ抑制処理部313は、センサ補正処理部304で処理されたRAWデータのノイズを低減する。RAWノイズ抑制処理部313はノイズ抑制処理部307と同様のノイズ低減処理を実行することができる。
Next, the configuration of the image processing unit 131 that is used to generate image data to be recorded will be described.
The RAW noise suppression processing unit 313 reduces noise in the RAW data processed by the sensor correction processing unit 304. The RAW noise suppression processing unit 313 can execute noise reduction processing similar to that of the noise suppression processing unit 307.

圧縮処理部314は、RAWノイズ抑制処理部313で処理されたRAWデータに対し、公知のデータ圧縮(符号化)処理を適用する。圧縮処理部314は、例えばウエーブレット変換、量子化、エントロピー符号化(差分符号化等)を組み合わせたデータ圧縮処理を適用することができる。圧縮処理部314が適用する圧縮(符号化)処理は、非可逆な方法でも可逆な方法でもよい。ただし、不可逆な圧縮処理を適用する場合、圧縮処理によるRAWデータの品質低下が十分少ない方法もしくは設定を用いる。圧縮処理部314が生成する圧縮RAWデータは、メインエンジン140に送信される前に一旦メモリ134に格納されてもよい。 The compression processing unit 314 applies known data compression (encoding) processing to the RAW data processed by the RAW noise suppression processing unit 313. The compression processing unit 314 can apply data compression processing that combines, for example, wavelet transform, quantization, and entropy coding (differential coding, etc.). The compression (encoding) processing applied by the compression processing unit 314 may be a lossy method or a lossless method. However, when applying a lossy compression process, a method or setting that causes sufficiently little degradation in the quality of the RAW data due to the compression process is used. The compressed RAW data generated by the compression processing unit 314 may be temporarily stored in the memory 134 before being sent to the main engine 140.

送信処理部315は、圧縮RAWデータをメインエンジン140の受信処理部321に送信する。メモリ134を送信バッファとして用いることで、メインエンジン140に入力するデータレートを動的に調整することができる。例えば、メインエンジン140による処理の進行状況に応じて、送信処理部315と受信処理部321との間の伝送レート(伝送速度)を、センサ部106からの画像データの読み出しレートよりも遅くすることができる。 The transmission processing unit 315 transmits the compressed RAW data to the reception processing unit 321 of the main engine 140. By using the memory 134 as a transmission buffer, the data rate input to the main engine 140 can be dynamically adjusted. For example, depending on the progress of processing by the main engine 140, the transmission rate (transmission speed) between the transmission processing unit 315 and the reception processing unit 321 can be made slower than the readout rate of image data from the sensor unit 106.

メインエンジン140の画像処理部141は、フロントエンジン130から取得したRAWデータに対し、フロントエンジン130よりも高品質の現像処理を適用して記録用の画像データを生成する。また、記録再生部143は、画像処理部141が生成した記録用の画像データを記録媒体200に記録する。 The image processing unit 141 of the main engine 140 applies a higher quality development process to the RAW data acquired from the front engine 130 than the front engine 130 to generate image data for recording. In addition, the recording and playback unit 143 records the image data for recording generated by the image processing unit 141 on the recording medium 200.

受信処理部321は、圧縮RAWデータを送信処理部315から受信し、RAWデータを復号する。受信処理部321が適用する復号処理は、圧縮処理部314が適用する符号化処理に対応したものである。 The receiving processor 321 receives the compressed RAW data from the transmitting processor 315 and decodes the RAW data. The decoding process applied by the receiving processor 321 corresponds to the encoding process applied by the compression processor 314.

RAW現像処理部322は、復号されたRAWデータに対して現像処理を適用して記録用の画像データを生成する。RAW現像処理部322は、RAWデータに対して、デベイヤー処理(デモザイク処理)、すなわち色補間処理を施し、各画素がRGBの色成分を有するようにする。また、RGB成分を輝度成分と色差成分に変換してもよい。さらに、RAW現像処理部322は、ノイズの除去や光学的な歪みを補正する処理を適用する。RAW現像処理部322が実行する現像処理は、LV現像処理部308が実行する現像処理よりも品質が高い。具体的には、より高品質の画像が得られるアルゴリズムや演算を用いた現像処理を適用する。これは、記録される画像データは、大きな画面で表示されたり、印刷されたりするため、表示部101やEVF108で表示される動画よりも高い品質が要求されるためである。記録される画像データでも静止画データは動画データより高い品質が要求される。したがって、RAW現像処理部322はLV現像処理部308よりも多くの回路および演算リソースを必要とし、結果としてより多くの電力を必要とする。 The RAW development processing unit 322 applies development processing to the decoded RAW data to generate image data for recording. The RAW development processing unit 322 applies de-Bayer processing (demosaic processing), i.e., color interpolation processing, to the RAW data so that each pixel has RGB color components. The RGB components may also be converted into luminance components and color difference components. Furthermore, the RAW development processing unit 322 applies processing to remove noise and correct optical distortion. The development processing performed by the RAW development processing unit 322 is of higher quality than the development processing performed by the LV development processing unit 308. Specifically, development processing using algorithms and calculations that can obtain higher quality images is applied. This is because the image data to be recorded is displayed on a large screen or printed, and therefore requires higher quality than the moving image displayed on the display unit 101 or EVF 108. Even for image data to be recorded, still image data requires higher quality than moving image data. Therefore, the RAW development processing unit 322 requires more circuitry and calculation resources than the LV development processing unit 308, and as a result, requires more power.

補正処理部323は、現像処理が実行された画像データに対して、歪曲補正、拡大処理、縮小処理、ノイズ抑制処理等の補正処理を実行する。補正処理部323は、撮影および記録処理を実行する場合、現像処理が実行された記録画像データに対して、歪曲補正、およびノイズ抑制処理を実行する。また、通信部109を介してライブビュー画像として外部装置に画像データを出力するライブビュー出力処理を実行する場合、歪曲補正およびノイズ抑制処理に加えて、表示装置に出力するための拡大処理、または縮小処理を実行する。 The correction processing unit 323 performs correction processing such as distortion correction, enlargement processing, reduction processing, and noise suppression processing on the image data that has been developed. When performing shooting and recording processing, the correction processing unit 323 performs distortion correction and noise suppression processing on the recorded image data that has been developed. When performing live view output processing to output image data to an external device as a live view image via the communication unit 109, in addition to distortion correction and noise suppression processing, the correction processing unit 323 performs enlargement processing or reduction processing for output to a display device.

効果処理部324は、外部装置にライブビュー表示を行う場合、画像データに対して、所定の表示効果を得るためのエフェクト処理を適用して出力処理部327に出力する。圧縮処理部325に出力する画像データに対しては処理を適用しない。 When performing live view display on an external device, the effect processing unit 324 applies effect processing to the image data to obtain a specified display effect, and outputs the image data to the output processing unit 327. No processing is applied to the image data output to the compression processing unit 325.

出力処理部327は、効果処理部324から出力された画像データを、通信部109を介して外部装置に出力する。外部装置でライブビュー表示を行う場合、出力処理部327は、効果処理部324から出力された表示用画像データ(LV画像データ)に対して入出力補正やガンマ補正、ホワイトバランス補正等を行う。また、出力処理部327は、LV画像データとともに表示するアシスト情報を示す画像を、LV画像データと合成する。アシスト情報は、表示処理部311で説明した情報と同様であるので説明を省略する。出力処理部327は、合成処理後のLV画像データを、通信部109を介して外部装置に出力する。なお、外部装置で再生処理を行う場合、出力処理部327は、アシスト情報が異なる他は同様の処理を実行する。 The output processing unit 327 outputs the image data output from the effect processing unit 324 to an external device via the communication unit 109. When performing live view display on the external device, the output processing unit 327 performs input/output correction, gamma correction, white balance correction, etc. on the display image data (LV image data) output from the effect processing unit 324. The output processing unit 327 also combines the LV image data with an image indicating assist information to be displayed together with the LV image data. The assist information is similar to the information described for the display processing unit 311, so a description of the assist information is omitted. The output processing unit 327 outputs the LV image data after the combination process to the external device via the communication unit 109. Note that when performing playback processing on the external device, the output processing unit 327 executes similar processing except for the assist information, which is different.

圧縮処理部325は、画像データに対してデータ量の圧縮処理を適用する。圧縮処理部325が適用する圧縮処理は、公知の規格に準拠した符号化処理であってよい。圧縮処理部325は、例えば、静止画データに対してはJPEGやHEIF形式の符号化処理を適用し、動画データに対してはMPEG2、H264、H265形式の符号化処理を適用することができる。 The compression processing unit 325 applies a data volume compression process to the image data. The compression process applied by the compression processing unit 325 may be an encoding process that complies with a known standard. For example, the compression processing unit 325 can apply JPEG or HEIF format encoding process to still image data, and MPEG2, H264, or H265 format encoding process to video data.

記録再生部143の記録処理部326は、圧縮処理部325が生成した符号化画像データを格納したデータファイルを記録媒体200に例えばDCF(Design rule for Camera File system)に準拠した方法で記録する。 The recording processing unit 326 of the recording and playback unit 143 records a data file that stores the encoded image data generated by the compression processing unit 325 on the recording medium 200, for example, in a manner that complies with the DCF (Design rule for Camera File system).

このように、本実施形態のデジタルカメラ100では、表示部101およびEVF108へのライブビュー表示に関する画像処理はフロントエンジン130のみで可能であり、メインエンジン140を使用する必要はない。一方、画像データを記録する場合にはフロントエンジン130に加えてメインエンジン140も使用する。 As described above, in the digital camera 100 of this embodiment, image processing related to live view display on the display unit 101 and EVF 108 can be performed by the front engine 130 alone, and there is no need to use the main engine 140. On the other hand, when recording image data, the main engine 140 is used in addition to the front engine 130.

図5は、デジタルカメラ100が再生モードで動作する際のフロントエンジン130およびメインエンジン140の機能構成例を示すブロック図である。図5において、静止画撮影モードにおいて説明した機能ブロックについては図3と同じ参照数字を付してある。
デジタルカメラ100が再生モードで動作しているときは、フロントエンジン130およびメインエンジン140の両方が通常状態で動作する。通常状態は画像処理を実行可能な状態である。通常状態に対して制限状態は、少なくとも消費電力が通常状態よりも低く制限されている状態であり、例えば通常状態で実行可能な画像処理の一部もしくはすべてを実行することができない。なお、制限状態であっても、各エンジンは外部からエンジンの起動に関する指示を受信し、起動制御を実行可能である。すなわち、制限状態は待機状態であるともいえる。
5 is a block diagram showing an example of the functional configuration of the front engine 130 and the main engine 140 when the digital camera 100 operates in the playback mode. In Fig. 5, the same reference numerals as in Fig. 3 are used for the functional blocks described in the still image shooting mode.
When the digital camera 100 is operating in the playback mode, both the front engine 130 and the main engine 140 operate in a normal state. The normal state is a state in which image processing can be executed. In contrast to the normal state, the restricted state is a state in which at least power consumption is restricted to a level lower than that of the normal state, and for example, some or all of the image processing that can be executed in the normal state cannot be executed. Note that even in the restricted state, each engine can receive an instruction regarding engine startup from the outside and execute startup control. In other words, the restricted state can also be said to be a standby state.

例えば、フロントエンジン130は、通常状態において、センサ部106から入力されたRAWデータから表示部101および/またはEVF108に表示する表示用画像データを生成する画像処理を実行可能である。また、フロントエンジン130は、通常状態において、センサ部106から入力されたRAWデータを圧縮して、メインエンジン140に出力する処理を実行可能である。さらに、フロントエンジン130は、メインエンジン140から供給される画像データから表示用画像データを生成して表示部101に表示する画像処理を実行可能である。フロントエンジン130は、デジタルカメラ100の動作を制御するカメラ制御部132を含む。したがって、デジタルカメラ100の電源がオンの状態では基本的にフロントエンジン130が制限状態で動作することはない。例外は、所定時間以上操作がない場合にスリープモードに移行する場合などである。 For example, in a normal state, the front engine 130 can execute image processing to generate display image data to be displayed on the display unit 101 and/or EVF 108 from the RAW data input from the sensor unit 106. In addition, in a normal state, the front engine 130 can execute processing to compress the RAW data input from the sensor unit 106 and output it to the main engine 140. Furthermore, the front engine 130 can execute image processing to generate display image data from image data supplied from the main engine 140 and display it on the display unit 101. The front engine 130 includes a camera control unit 132 that controls the operation of the digital camera 100. Therefore, when the power supply of the digital camera 100 is on, the front engine 130 does not generally operate in a restricted state. An exception is when the digital camera 100 goes into sleep mode after a predetermined period of inactivity.

メインエンジン140は、通常状態において、フロントエンジン130から入力される圧縮RAWデータから記録用の画像データを生成し、記録媒体200へ記録する記録制御処理を実行可能である。また、メインエンジン140は、通常状態において、記録媒体200に格納された画像データを読み出して、フロントエンジン130に出力する再生表示制御処理を実行可能である。さらに、メインエンジン140は、通常状態において、フロントエンジン130から入力された表示用画像データを通信部109を介して外部装置に出力する出力制御処理を実行可能である。一方で、メインエンジン140は、制限状態において、上述の記録制御処理、再生表示制御処理、および出力制御処理の1つ以上を実行することができない。 In the normal state, the main engine 140 can execute a recording control process to generate image data for recording from the compressed RAW data input from the front engine 130 and record the image data on the recording medium 200. In the normal state, the main engine 140 can execute a playback display control process to read image data stored on the recording medium 200 and output the image data to the front engine 130. In the normal state, the main engine 140 can execute an output control process to output image data for display input from the front engine 130 to an external device via the communication unit 109. On the other hand, in the restricted state, the main engine 140 cannot execute one or more of the above-mentioned recording control process, playback display control process, and output control process.

再生モードでの動作を開始すると、カメラ制御部132は記録再生部143の読出処理部401を制御して、記録媒体200に記録された画像ファイルを読み出す。読出処理部401は読み出した画像ファイルを画像処理部141に出力する。 When operation in the playback mode begins, the camera control unit 132 controls the read processing unit 401 of the recording and playback unit 143 to read the image file recorded on the recording medium 200. The read processing unit 401 outputs the read image file to the image processing unit 141.

画像処理部141において伸長処理部402は、入力された画像ファイルに格納されている符号化画像データを復号する。伸長処理部402は復号した画像データを送信処理部403と出力処理部327に出力する。送信処理部403は、画像データをフロントエンジン130に送信する。なお、伸長処理部402は圧縮処理部325と、送信処理部403は受信処理部321と、それぞれ同じ機能ブロックであってよい。 In the image processing unit 141, the decompression processing unit 402 decodes the encoded image data stored in the input image file. The decompression processing unit 402 outputs the decoded image data to the transmission processing unit 403 and the output processing unit 327. The transmission processing unit 403 transmits the image data to the front engine 130. Note that the decompression processing unit 402 may be the same functional block as the compression processing unit 325, and the transmission processing unit 403 may be the same functional block as the reception processing unit 321.

伸長処理部402が出力する画像データは、必要に応じて効果処理部324を介して出力処理部327へ供給されてもよい。出力処理部327は、受信した画像データから表示用画像データを生成し、通信部109を介して外部装置に出力する。出力処理部327は、伸長処理部402から出力された画像データに対してスケーリング、入出力補正やガンマ補正、ホワイトバランス補正等を行う。また、出力処理部327は、表示用画像データとともに表示する、アシスト情報の画像(アイコンなどのGUI)を、画像データと組み合わせる処理を行う。出力処理部327は、サムネイル表示のためのサムネイル画像を生成することも可能である。出力処理部327は、表示用画像データを通信部109を介して外部装置に出力する。 The image data output by the decompression processing unit 402 may be supplied to the output processing unit 327 via the effect processing unit 324 as necessary. The output processing unit 327 generates display image data from the received image data and outputs it to an external device via the communication unit 109. The output processing unit 327 performs scaling, input/output correction, gamma correction, white balance correction, etc. on the image data output from the decompression processing unit 402. The output processing unit 327 also performs processing to combine an image of assist information (GUI such as an icon) that is displayed together with the display image data with the image data. The output processing unit 327 is also capable of generating thumbnail images for thumbnail display. The output processing unit 327 outputs the display image data to an external device via the communication unit 109.

フロントエンジン130の受信処理部411は、メインエンジン140から出力された画像データを受信し、表示処理部311に出力する。受信処理部411は送信処理部315と同じ機能ブロックであってもよい。
表示処理部311は、画像データに基づいて表示用画像データを生成し、表示部101もしくはEVF108に表示用画像データを表示する。
A reception processing unit 411 of the front engine 130 receives the image data output from the main engine 140, and outputs the image data to the display processing unit 311. The reception processing unit 411 may be the same functional block as the transmission processing unit 315.
The display processing unit 311 generates display image data based on the image data, and displays the display image data on the display unit 101 or the EVF 108 .

なお、ユーザが操作部110を操作して、サムネイル表示を指示した場合、カメラ制御部132は、サムネイル表示に用いる複数の画像ファイルを記録媒体200から読み出すようにメインエンジン140を制御する。メインエンジン140は複数の画像データをフロントエンジン130に出力する。そして、カメラ制御部132は、複数の画像データのそれぞれに対してサムネイル画像を生成し、一覧表示画面を生成するように表示処理部311を制御する。表示処理部311は、サムネイル画像の生成にLV補正処理部307の縮小処理機能を用いてもよい。 When the user operates the operation unit 110 to instruct thumbnail display, the camera control unit 132 controls the main engine 140 to read multiple image files to be used for thumbnail display from the recording medium 200. The main engine 140 outputs multiple image data to the front engine 130. The camera control unit 132 then generates thumbnail images for each of the multiple image data, and controls the display processing unit 311 to generate a list display screen. The display processing unit 311 may use the reduction processing function of the LV correction processing unit 307 to generate the thumbnail images.

次に、図6のフローチャートを用いて、デジタルカメラ100の全体動作について説明する。図6のフローチャートに示す動作は、デジタルカメラ100の電源スイッチ103により、電源ONが指示されたことに応じて開始する。 Next, the overall operation of the digital camera 100 will be described using the flowchart in FIG. 6. The operation shown in the flowchart in FIG. 6 begins when the power switch 103 of the digital camera 100 is instructed to turn the power on.

S501でフロントエンジン130の起動処理が実行される。電源制御部107は、電源スイッチ103から電源ONが指示されたことに応じて、フロントエンジン130が通常状態で動作するための電力を供給する。フロントエンジン130のカメラ制御部132は、システムメモリ133から起動用のプログラムおよびパラメーターを読み出して、起動動作を実行する。なお、電源制御部107は、フロントエンジン130以外の機能ブロックに対しても電源の供給を開始するが、メインエンジン140に対しては、制限状態で動作するための電力を供給する。 In S501, the startup process of the front engine 130 is executed. In response to a power ON command from the power switch 103, the power supply control unit 107 supplies power for the front engine 130 to operate in a normal state. The camera control unit 132 of the front engine 130 reads out a startup program and parameters from the system memory 133 and executes the startup operation. Note that the power supply control unit 107 also starts supplying power to functional blocks other than the front engine 130, but supplies power to the main engine 140 to operate in a restricted state.

S502で、カメラ制御部132は、デジタルカメラ100の動作モードが撮影モードであるか、再生モードであるか判定する。カメラ制御部132は、システムメモリ133に格納された設定データを読み出して、デジタルカメラ100の動作モードを確認する。もしくは、カメラ制御部132は、モード切替スイッチ121が示す動作モードに基づいて、デジタルカメラ100の動作モードを確認する。撮影モードが設定されていると判定された場合、カメラ制御部132はS503を実行する。一方、再生モードが設定されていると判定された場合、カメラ制御部132はS514を実行する。なお、本フローチャートの説明においては、撮影モードが静止画撮影モードである場合について説明するが、動画像の撮影モードであってもよい。 In S502, the camera control unit 132 determines whether the operation mode of the digital camera 100 is the shooting mode or the playback mode. The camera control unit 132 reads out the setting data stored in the system memory 133 to check the operation mode of the digital camera 100. Alternatively, the camera control unit 132 checks the operation mode of the digital camera 100 based on the operation mode indicated by the mode changeover switch 121. If it is determined that the shooting mode is set, the camera control unit 132 executes S503. On the other hand, if it is determined that the playback mode is set, the camera control unit 132 executes S514. Note that in the explanation of this flowchart, the case where the shooting mode is the still image shooting mode will be explained, but the shooting mode may also be the moving image shooting mode.

また、S502で、カメラ制御部132は、メインエンジン140が通常状態で動作しているか否かを判定し、通常状態で動作していると判定された場合にはメインエンジン140を制限状態で動作するように変更する。これは、外部出力機能が有効から無効に変更された場合等に、メインエンジン140の状態を制限状態とするためである。この処理の詳細は、後述する。 Also, in S502, the camera control unit 132 determines whether the main engine 140 is operating in a normal state, and if it is determined that the main engine 140 is operating in a normal state, changes the main engine 140 to operate in a restricted state. This is to set the state of the main engine 140 to a restricted state when, for example, the external output function is changed from enabled to disabled. Details of this process will be described later.

S503で、カメラ制御部132は、ライブビュー処理の実行を開始する。ライブビュー処理は、センサ部106による動画像の撮影と、得られた動画像データから表示用画像データを生成して表示部101(EVF108)に表示する動作を継続的に実行する処理である。ライブビュー処理が実行されると、表示部101もしくはEVF108に、現在の撮影条件および撮影範囲に対応する画像が継続的に表示される。ユーザは、表示されるライブビュー画像を確認して、撮影範囲や撮影条件を調整する。ライブビュー処理が実行されており、かつ静止画撮影の準備や実行に関する指示が入力されていない間、デジタルカメラ100は撮影待機状態にあるといえる。 At S503, the camera control unit 132 starts executing live view processing. Live view processing is processing that continuously executes operations of capturing moving images using the sensor unit 106, generating display image data from the obtained moving image data, and displaying the data on the display unit 101 (EVF 108). When live view processing is executed, an image corresponding to the current shooting conditions and shooting range is continuously displayed on the display unit 101 or EVF 108. The user checks the displayed live view image and adjusts the shooting range and shooting conditions. While live view processing is being executed and no instructions have been input regarding preparation or execution of still image shooting, the digital camera 100 can be said to be in a shooting standby state.

図7は、S503におけるライブビュー処理の詳細について示すフローチャートである。図7はライブビュー画像(動画像)の1フレーム分の処理を示しており、実際には所定の表示フレームレート(例えば30フレーム/秒)を実現するよう、図7に示す処理が繰り返し、かつ継続して実行される。ライブビュー処理はデジタルカメラ100が撮影モードで動作している間は、ライブビュー表示の中止がユーザから指示されない限り、画像を記録しているか否かにかかわらず継続して実行される。 Figure 7 is a flowchart showing the details of the live view processing in S503. Figure 7 shows the processing of one frame of a live view image (moving image), and in reality, the processing shown in Figure 7 is repeated and executed continuously to achieve a predetermined display frame rate (e.g., 30 frames/second). While the digital camera 100 is operating in shooting mode, the live view processing continues to be executed regardless of whether images are being recorded or not, unless the user instructs the camera 100 to stop the live view display.

S601で、カメラ制御部132は、レンズ151やセンサ部106の動作を制御し、光学像を取得(撮影)して1フレーム分の画像データを出力する。例えば、カメラ制御部132は、ユーザ指示に従ってレンズ151の画角を変更したり、所定の焦点検出領域に合焦するようにレンズ151の合焦距離を変更したりするために、制御端子群104を介して、レンズ制御部154に指示を出力する。なお、カメラ制御部132は、ライブビュー画像の撮影中、シャッタ105は全開とし、所謂電子シャッタによる撮影を行うようにセンサ部106を制御する。なお、カメラ制御部132は、検出処理によって得られる評価値や特徴領域の検出結果を考慮して、動画撮影時に用いる撮影条件や焦点検出領域を決定してもよい。 In S601, the camera control unit 132 controls the operation of the lens 151 and the sensor unit 106, acquires (takes) an optical image, and outputs one frame of image data. For example, the camera control unit 132 outputs an instruction to the lens control unit 154 via the control terminal group 104 to change the angle of view of the lens 151 according to a user instruction, or to change the focal distance of the lens 151 so as to focus on a specified focus detection area. Note that the camera control unit 132 controls the sensor unit 106 to fully open the shutter 105 during shooting of a live view image, and to perform shooting using a so-called electronic shutter. Note that the camera control unit 132 may determine the shooting conditions and focus detection area to be used when shooting a video, taking into account the evaluation value obtained by the detection process and the detection result of the characteristic area.

S602で、カメラ制御部132は、画像処理部131に画像データの読出処理を実行させる。例えば、読出し速度は1000MP/秒であるとする。MPは100万画素を表す。
S603で、画像処理部132の画素並替処理部301は、ラスタスキャン順に入力される画像データを2次元マトリクス状に並べ替えて1フレームのRAWデータを生成する。
In S602, the camera control unit 132 causes the image processing unit 131 to execute a process of reading out the image data. For example, it is assumed that the readout speed is 1000 MP/sec. MP stands for 1 million pixels.
In S603, the pixel rearrangement processing unit 301 of the image processing unit 132 rearranges the image data input in raster scan order into a two-dimensional matrix to generate one frame of RAW data.

S604で、圧縮処理部302は、画素並替処理部301で生成したRAWデータを所定の2次元画素ブロック単位で符号化して、圧縮RAWデータを出力する。符号化によるデータ量の圧縮率は、カメラ制御部132から設定されるパラメータに基づく。 In S604, the compression processing unit 302 encodes the raw data generated by the pixel rearrangement processing unit 301 in units of a predetermined two-dimensional pixel block, and outputs compressed raw data. The compression ratio of the data volume by encoding is based on parameters set by the camera control unit 132.

S605で、伸長処理部303は、圧縮RAWデータを復号する。
S606で、センサ補正処理部304は、復号RAWデータに対して、あらかじめ取得されたセンサの特性に基づく補正処理(センサ補正処理)を実行する。
S607で、縮小処理部305は、センサ補正処理部304が出力するRAWデータに縮小処理を適用して、縮小RAWデータを生成する。
In S605, the decompression processing unit 303 decodes the compressed RAW data.
In S606, the sensor correction processing unit 304 executes a correction process (sensor correction process) on the decoded raw data based on the characteristics of the sensor acquired in advance.
In S607, the reduction processing unit 305 applies reduction processing to the RAW data output by the sensor correction processing unit 304 to generate reduced RAW data.

S608で、検出処理部312は、縮小RAWデータに対して予め定められた評価値の算出処理や特徴領域の検出処理などを適用する。なお、検出処理部312の処理は、LV処理に含まれる他の処理と並行して実行されていてもよい。 In S608, the detection processing unit 312 applies a process for calculating a predetermined evaluation value and a process for detecting a characteristic region to the reduced RAW data. Note that the process of the detection processing unit 312 may be executed in parallel with other processes included in the LV process.

S609で、光学補正処理部306は、縮小RAWデータに対してレンズ151等の光学特性に関連する補正処理(光学補正処理)を適用する。
S610で、ノイズ抑制処理部307は、光学補正処理が適用された縮小RAWデータに対して、ノイズを低減する処理を適用する。
S611で、LV現像処理部308は、ノイズ抑制処理が実行された縮小RAWデータに対して現像処理(LV現像処理)を適用して、表示画像データを生成する。
In S609, the optical correction processing unit 306 applies correction processing (optical correction processing) related to the optical characteristics of the lens 151 and the like to the reduced RAW data.
In S610, the noise suppression processing unit 307 applies processing for reducing noise to the reduced RAW data to which the optical correction processing has been applied.
In S611, the LV development processing unit 308 applies development processing (LV development processing) to the reduced RAW data on which noise suppression processing has been performed, and generates display image data.

S612で、LV補正処理部309は、表示画像データに対して、歪曲補正、拡大処理、縮小処理等の補正処理を適用する。
S613で、LV効果処理部310は、表示画像データに対して、所定の表示効果をえるためのエフェクト処理を適用する。
S614で、表示処理部311は、表示画像データを表示部101およびEVF108に表示させる。
以上で、ライブビュー画像1フレーム分の処理が終了する。
In S612, the LV correction processing unit 309 applies correction processing such as distortion correction, enlargement processing, and reduction processing to the display image data.
In S613, the LV effect processing unit 310 applies effect processing to the display image data in order to obtain a predetermined display effect.
In S614, the display processing unit 311 causes the display unit 101 and the EVF 108 to display the display image data.
This completes the processing for one frame of the live view image.

図6のフローチャートの説明に戻り、S504で、カメラ制御部132は、SW1信号が入力されたか否か、すなわち、シャッタボタンの半押し動作もしくは撮影準備指示が検出されたか否かを判定する。カメラ制御部132は、SW1信号が入力されたと判定された場合にはS505を、SW1信号が入力されたと判定されない場合にはS511を実行する。 Returning to the explanation of the flowchart in FIG. 6, in S504, the camera control unit 132 determines whether or not the SW1 signal has been input, i.e., whether or not a half-press of the shutter button or an instruction to prepare for shooting has been detected. If it is determined that the SW1 signal has been input, the camera control unit 132 executes S505, and if it is not determined that the SW1 signal has been input, the camera control unit 132 executes S511.

S505で、カメラ制御部132は、圧縮処理部302に対して圧縮率の変更を指示する。圧縮処理部302は、デジタルカメラ100が撮影モード状態で動作している間、センサ部106から読み出されるRAWデータを所定の圧縮率で符号化して、フロントエンジン131のバス帯域削減を行うものとする。 In S505, the camera control unit 132 instructs the compression processing unit 302 to change the compression rate. While the digital camera 100 is operating in the shooting mode, the compression processing unit 302 encodes the RAW data read from the sensor unit 106 at a predetermined compression rate to reduce the bus bandwidth of the front engine 131.

S505でカメラ制御部132は、撮影準備指示が入力される前よりも圧縮率を低くする。圧縮率が低くなるということは、削減されるデータ量が少なくなることであり、圧縮による画質低下がより少なくなるということである。これにより、検出処理部312における評価値の算出や特徴領域の検出といった、画像データに基づく検出処理の精度を、圧縮率の低減前よりも高めることが可能になる。 In S505, the camera control unit 132 reduces the compression rate compared to before the shooting preparation instruction was input. A lower compression rate means that the amount of data that is reduced is smaller, and the degradation of image quality due to compression is smaller. This makes it possible to improve the accuracy of detection processing based on image data, such as the calculation of evaluation values and detection of characteristic areas in the detection processing unit 312, compared to before the compression rate was reduced.

S506でカメラ制御部132は、画像処理部131を用いて撮影準備動作を実行する。具体的には、カメラ制御部132は、検出処理部312で得られた評価値や特徴領域の検出結果に基づいて、露出条件を決定するAE処理や、焦点検出領域が合焦する様にレンズ151の合焦距離(フォーカシングレンズの位置)を調整するAF処理を実行する。 In S506, the camera control unit 132 executes a shooting preparation operation using the image processing unit 131. Specifically, the camera control unit 132 executes an AE process that determines exposure conditions based on the evaluation value and the characteristic area detection result obtained by the detection processing unit 312, and an AF process that adjusts the focal distance (position of the focusing lens) of the lens 151 so that the focus detection area is in focus.

S507で、カメラ制御部132は、SW2信号が入力されたか否か、すなわち、シャッタボタンの全押し動作もしくは撮影指示が検出されたか否かを判定する。カメラ制御部132は、SW2信号が入力されたと判定された場合にはS508を、SW2信号が入力されたと判定されない場合にはS511を実行する。 In S507, the camera control unit 132 determines whether or not the SW2 signal has been input, i.e., whether or not a full press of the shutter button or a shooting instruction has been detected. If it is determined that the SW2 signal has been input, the camera control unit 132 executes S508, and if it is not determined that the SW2 signal has been input, the camera control unit 132 executes S511.

S508で、カメラ制御部132は、メインエンジン140の起動処理を実行する。図8(a)に示すフローチャートを用いてメインエンジン140の起動処理の詳細を説明する。
S901で、カメラ制御部132は、電源制御部107に対して、メインエンジン140への電力供給の制限を解除する指示を出力する。
S902で、電源制御部107は、メインエンジン140への電力供給の制御を解除し、メインエンジン140が通常状態で動作するために必要な電力の供給を開始する。
S903で、メインエンジン140の制御部143は、システムメモリ144からメインエンジン140が起動するために用いるプログラムおよびパラメーターを読み出す処理を実行する。
S904で、制御部143は、メインエンジン140の起動制御を実行する。これにより、メインエンジン140の動作が制限状態から通常状態に遷移する。
In S508, the camera control unit 132 executes a startup process for the main engine 140. The startup process for the main engine 140 will be described in detail with reference to the flowchart shown in FIG.
In S<b>901 , the camera control unit 132 outputs an instruction to the power supply control unit 107 to release the restriction on the power supply to the main engine 140 .
In S902, the power supply control unit 107 releases control of the power supply to the main engine 140, and starts supplying the power necessary for the main engine 140 to operate in a normal state.
In S903, the control unit 143 of the main engine 140 executes a process of reading, from the system memory 144, a program and parameters used for starting up the main engine 140.
In S904, the control unit 143 executes startup control of the main engine 140. As a result, the operation of the main engine 140 transitions from the restricted state to the normal state.

図6に戻り、S509でカメラ制御部132および制御部143は撮影および記録処理を実行する。撮影および記録処理は、センサ部106における静止画撮影、メインエンジン140におけるRAWデータの現像処理、現像処理で得られた画像データの記録媒体200への記録までの一連の処理である。 Returning to FIG. 6, in S509, the camera control unit 132 and the control unit 143 execute the shooting and recording process. The shooting and recording process is a series of processes from still image shooting in the sensor unit 106, development processing of the RAW data in the main engine 140, and recording of the image data obtained by the development processing on the recording medium 200.

図9に示すフローチャートを用いて、撮影および記録処理の詳細について説明する。
S701で、カメラ制御部132は、S506の撮影準備処理において決定した露出条件に基づいて絞り152とシャッタ105の動作を制御し、センサ部106の撮像素子を露光する。
The photographing and recording process will be described in detail with reference to the flowchart shown in FIG.
In S701, the camera control unit 132 controls the operations of the diaphragm 152 and the shutter 105 based on the exposure conditions determined in the image capture preparation process in S506, and exposes the image pickup element of the sensor unit 106 to light.

S702で、画像処理部131は、センサ部106から画像データを読み出す。画像処理部131は、センサ部106から1フレームの画像データを5msで読み出すとすると、読出し速度は1500MP/秒である。
S703で、画素並替処理部301は、ラスタスキャン順に入力される画像データを2次元マトリクス状に並べ替えて1フレーム分のRAWデータを生成する。
In S702, the image processing unit 131 reads out image data from the sensor unit 106. If the image processing unit 131 reads out one frame of image data from the sensor unit 106 in 5 ms, the readout speed is 1500 MP/sec.
In S703, the pixel rearrangement processing unit 301 rearranges the image data input in raster scan order into a two-dimensional matrix to generate one frame's worth of RAW data.

S704で、圧縮処理部302は、画素並替処理部301で生成したRAWデータを所定の2次元画素ブロック単位で符号化して、データ量を削減した圧縮RAWデータを生成する。符号化によるデータ量の圧縮率は、カメラ制御部132から設定されるパラメータに基づく。
S705で、伸長処理部303は、圧縮RAWデータを復号する。
S706で、センサ補正処理部304は、復号RAWデータに対して、あらかじめ取得されたセンサの特性に基づく補正処理(センサ補正処理)を適用する。
In S704, the compression processing unit 302 encodes the RAW data generated by the pixel rearrangement processing unit 301 in units of a predetermined two-dimensional pixel block to generate compressed RAW data with a reduced data volume. The compression ratio of the data volume by encoding is based on parameters set by the camera control unit 132.
In S705, the decompression processing unit 303 decodes the compressed RAW data.
In S706, the sensor correction processing unit 304 applies correction processing (sensor correction processing) based on the characteristics of the sensor acquired in advance to the decoded RAW data.

S707で、RAWノイズ抑制処理部313は、センサ補正処理部304が出力するRAWデータにノイズ低減処理を適応する。
S708で、圧縮処理部314は、RAWノイズ抑制処理部313が出力するRAWデータに対して圧縮処理を適用し、圧縮RAWデータを生成する。圧縮処理部314は、圧縮RAWデータを一時的にメモリ134に格納してバッファリングする。
In S<b>707 , the RAW noise suppression processing unit 313 applies noise reduction processing to the RAW data output by the sensor correction processing unit 304 .
In S708, the compression processing unit 314 generates compressed RAW data by applying compression processing to the RAW data output by the RAW noise suppression processing unit 313. The compression processing unit 314 temporarily stores the compressed RAW data in the memory 134 for buffering.

S709で、送信処理部315は、圧縮RAWデータをメインエンジン140の受信処理部321に送信する。例えば送信処理部315は1フレーム当たり15msで受信処理部321へ送信するものとする。つまり、フロントエンジン130がセンサ部106から1フレーム分の画像データを読み出す速度(5ms)よりも遅いデータレートで、フロントエンジン130からメインエンジン140に圧縮RAWデータを送信する。 In S709, the transmission processing unit 315 transmits the compressed RAW data to the reception processing unit 321 of the main engine 140. For example, the transmission processing unit 315 transmits one frame to the reception processing unit 321 at 15 ms. In other words, the front engine 130 transmits the compressed RAW data to the main engine 140 at a data rate slower than the speed (5 ms) at which the front engine 130 reads one frame of image data from the sensor unit 106.

メインエンジン140の画像処理部141が画像処理(現像処理)を適用するRAWデータは縮小されてないため、フロントエンジン130の画像処理部131が画像処理(現像処理)を適用するRAWデータよりも解像度が高い。さらに、画像処理部141が適用する現像処理は、画像処理部131が適用する現像処理が処理速度を重視しているのに対して、得られる画質が良好であることを重視している。そのため、画像処理部141が適用する現像処理は画像処理部131が適用する現像処理よりも演算負荷が高い。したがって、画像処理部141の処理レートは画像処理部131の処理レートよりも低い(遅い)。 The RAW data to which the image processing unit 141 of the main engine 140 applies image processing (development processing) is not reduced, and therefore has a higher resolution than the RAW data to which the image processing unit 131 of the front engine 130 applies image processing (development processing). Furthermore, the development processing applied by the image processing unit 141 places emphasis on good image quality obtained, whereas the development processing applied by the image processing unit 131 places emphasis on processing speed. Therefore, the development processing applied by the image processing unit 141 has a higher computational load than the development processing applied by the image processing unit 131. Therefore, the processing rate of the image processing unit 141 is lower (slower) than the processing rate of the image processing unit 131.

フロントエンジン131内で圧縮RAWデータをバッファリングすることにより、フロントエンジン130からメインエンジン140へのRAWデータの転送速度を、センサ部106の読み出し速度よりも遅くすることが可能となる。つまり、メインエンジン140の処理レートに合わせたデータ転送が可能となる。これにより、メインエンジン140の処理レートをセンサ部の読み出し速度よりも低く抑えることができ、消費電力や回路規模の増大を抑制しつつ、高精度の画像処理を実行することを実現している。なお、画像処理部141が適用する現像処理は、例えば色再現性や補正の精度において画像処理部131が適用する現像処理よりも精度および/または品位が高い。 By buffering the compressed RAW data within the front engine 131, it is possible to make the transfer speed of the RAW data from the front engine 130 to the main engine 140 slower than the read speed of the sensor unit 106. In other words, data transfer can be matched to the processing rate of the main engine 140. This makes it possible to keep the processing rate of the main engine 140 lower than the read speed of the sensor unit, thereby realizing the execution of highly accurate image processing while suppressing increases in power consumption and circuit size. Note that the development process applied by the image processing unit 141 has higher accuracy and/or quality than the development process applied by the image processing unit 131, for example, in terms of color reproducibility and correction accuracy.

S710で、受信処理部321は、送信処理部315から送信された圧縮RAWデータを受信する。
S711で、受信処理部321は、圧縮RAWデータに対して伸長処理を適用して、圧縮状態を解除する。受信処理部321が適用する伸張処理は圧縮処理部341が適用する圧縮処理の逆処理に相当する。
In S710, the reception processing unit 321 receives the compressed RAW data transmitted from the transmission processing unit 315.
In step S711, the reception processing unit 321 applies decompression processing to the compressed RAW data to release the compressed state. The decompression processing applied by the reception processing unit 321 corresponds to the inverse process of the compression processing applied by the compression processing unit 341.

S712で、RAW現像処理部322は、RAWデータに対して現像処理を適用し、記録用の画像データを生成する。
S713で、補正処理部323は、記録用の画像データに対して歪曲補正およびノイズ抑制処理を適用する。
S714で、効果処理部324は、記録用の画像データに対して、効果処理を適用する。効果処理の内容は、あらかじめ定められた効果を記録画像データに対して付与する処理である。効果処理は、例えば、モノクロ変換処理や各種のフィルタを適用する処理である。
In S712, the RAW development processing unit 322 applies development processing to the RAW data and generates image data for recording.
In S713, the correction processing unit 323 applies distortion correction and noise suppression processing to the image data for recording.
In S714, the effect processor 324 applies effect processing to the image data for recording. The content of the effect processing is processing for imparting a predetermined effect to the recording image data. The effect processing is, for example, monochrome conversion processing or processing for applying various filters.

S715で、圧縮処理部325は、記録用の画像データに対して圧縮処理を適用し、画像データファイルを生成する。圧縮処理の方法は予め定められた符号化方式に基づくものであってよい。
S716で、記録再生部143の記録処理部326は、画像データファイルを記録媒体200に格納する。
In S715, the compression processing unit 325 applies compression processing to the image data for recording to generate an image data file. The compression processing method may be based on a predetermined encoding method.
In S 716 , the recording processing unit 326 of the recording and reproducing unit 143 stores the image data file on the recording medium 200 .

S717で、カメラ制御部132は、連写機能が有効であるか否かを判定する。連写機能は、例えばメニュー画面を通じてユーザが有効もしくは無効を設定可能である。カメラ制御部132は、連写機能が有効であると判定された場合はS718を、連写機能が有効であると判定されない場合は、撮影および記録処理を終了してS510を実行する。 In S717, the camera control unit 132 determines whether the continuous shooting function is enabled. The continuous shooting function can be set to enabled or disabled by the user, for example, via a menu screen. If it is determined that the continuous shooting function is enabled, the camera control unit 132 proceeds to S718, and if it is not determined that the continuous shooting function is enabled, the camera control unit 132 ends the shooting and recording process and executes S510.

S718で、カメラ制御部132は、SW2信号が入力されているか否か、すなわち、シャッタボタン102の全押し状態が継続しているか否かを判定する。カメラ制御部132は、SW2信号が入力されていると判定された場合はS701から再度実行し、SW2信号が入力されていると判定されない場合には、撮影および記録処理を終了してS510を実行する。 In S718, the camera control unit 132 determines whether or not the SW2 signal has been input, i.e., whether or not the shutter button 102 is still fully pressed. If it is determined that the SW2 signal has been input, the camera control unit 132 executes again from S701, and if it is not determined that the SW2 signal has been input, it ends the shooting and recording process and executes S510.

上述のフローチャートでは、メインエンジン140は、フロントエンジン130から出力された圧縮されたRAWデータに伸長処理と現像処理を適用した画像データを記録媒体200に記録した。メインエンジン140は、フロントエンジン130から出力された圧縮されたRAWデータを記録媒体200に記録することも可能である。この場合、S711からS715の一連の処理は実行されない。受信処理部321が受信した圧縮されたRAWデータを、記録再生部143が記録媒体200に記録する。 In the above-mentioned flowchart, the main engine 140 records image data obtained by applying decompression processing and development processing to the compressed RAW data output from the front engine 130 on the recording medium 200. The main engine 140 can also record the compressed RAW data output from the front engine 130 on the recording medium 200. In this case, the series of processes from S711 to S715 is not executed. The recording and playback unit 143 records the compressed RAW data received by the reception processing unit 321 on the recording medium 200.

図6に戻り、S510で、カメラ制御部132は、メインエンジン140の動作状態を通常状態から制限状態にする停止処理を実行する。図8(b)に示すフローチャートを用いてメインエンジン140の停止処理の詳細を説明する。
S911で、カメラ制御部132は、メインエンジン140の制御部143に対して、動作停止指示を出力する。
S912で、制御部143は、次回のメインエンジン140の起動のために必要なパラメーター等のデータ(起動データ)をシステムメモリ144に格納する。なお、データの格納先は、メモリ145であってもよい。
S913で、制御部143は、メインエンジン140の動作を停止する処理を実行する。
S914で、カメラ制御部132は、電源制御部107に対して、メインエンジン140へ供給する電力を、制限状態で動作するための電力に変更する指示を出力する。
S915で、電源制御部107は、メインエンジン140への電力供給量を、予め定められた制限状態用の電力に低減する。これにより、メインエンジン140の動作が通常状態から制限状態に遷移する。
メインエンジン140の動作状態が制限状態に遷移することによって、デジタルカメラ100の消費電力を抑制することが可能となる。
6, in S510, the camera control unit 132 executes a stop process for changing the operation state of the main engine 140 from the normal state to the restricted state. The stop process of the main engine 140 will be described in detail with reference to the flowchart shown in FIG.
In S911, the camera control unit 132 outputs an operation stop instruction to the control unit 143 of the main engine 140.
In S912, the control unit 143 stores data (start-up data) such as parameters required for the next startup of the main engine 140 in the system memory 144. Note that the data may be stored in the memory 145.
In S<b>913 , the control unit 143 executes a process of stopping the operation of the main engine 140 .
In S914, the camera control unit 132 outputs, to the power supply control unit 107, an instruction to change the power supplied to the main engine 140 to power for operating in a restricted state.
In S915, the power supply control unit 107 reduces the amount of power supplied to the main engine 140 to a predetermined power level for a limited state. This causes the operation of the main engine 140 to transition from the normal state to the limited state.
By transitioning the operation state of the main engine 140 to the restricted state, it becomes possible to reduce the power consumption of the digital camera 100 .

S504でSW1信号が入力されていると判定されない場合、S511でカメラ制御部132は、圧縮処理部302が適用する圧縮処理の圧縮率を初期値に戻す。なお、S505が実行されておらず、圧縮率が初期値のままであればS511を実行しなくてもよい。 If it is not determined in S504 that the SW1 signal has been input, in S511 the camera control unit 132 resets the compression rate of the compression process applied by the compression processing unit 302 to the initial value. Note that if S505 has not been executed and the compression rate remains at the initial value, it is not necessary to execute S511.

S512で、カメラ制御部132は、デジタルカメラ100の動作の終了指示が入力されたか否かを判定する。具体的には、カメラ制御部132は、電源スイッチ103がオンからオフに操作されたか否かを判定する。また、所定時間操作がなかった場合に、終了指示が入力されたと判定してもよい(いわゆる、スリープ動作)。終了指示が入力されたと判定された場合、カメラ制御部132はS513を実行する。終了指示が入力されたと判定されない場合、カメラ制御部132はS502を実行する。 In S512, the camera control unit 132 determines whether an instruction to end the operation of the digital camera 100 has been input. Specifically, the camera control unit 132 determines whether the power switch 103 has been operated from on to off. Alternatively, if there is no operation for a predetermined period of time, it may be determined that an instruction to end has been input (so-called sleep operation). If it is determined that an instruction to end has been input, the camera control unit 132 executes S513. If it is not determined that an instruction to end has been input, the camera control unit 132 executes S502.

S513で、カメラ制御部132は、フロントエンジン130の停止処理を実行する。これにより、カメラ制御部132自身の動作も停止する。また、カメラ制御部132は、デジタルカメラ100の他の各部に対する停止処理も実行する。これにより、デジタルカメラ100の全体の動作は停止する。 At S513, the camera control unit 132 executes a process to stop the front engine 130. This causes the operation of the camera control unit 132 itself to stop. The camera control unit 132 also executes a process to stop the other units of the digital camera 100. This causes the operation of the entire digital camera 100 to stop.

S502でデジタルカメラ100の動作モードが撮影モードでない(再生モードである)と判定された場合、カメラ制御部132はS514を実行する。
S514で、カメラ制御部132は、S508と同様にメインエンジン140の起動処理を実行する。
If it is determined in S502 that the operation mode of the digital camera 100 is not the shooting mode (it is the playback mode), the camera control unit 132 executes S514.
In S514, the camera control unit 132 executes the startup process of the main engine 140, similar to S508.

その後、S515で、カメラ制御部132は、再生処理を実行する。再生処理は、記録媒体200に格納された画像データを読み出して、表示部100に表示する処理である。図9に示すフローチャートを用いて、再生処理の詳細について説明する。 Then, in S515, the camera control unit 132 executes a playback process. The playback process is a process in which image data stored in the recording medium 200 is read and displayed on the display unit 100. The playback process will be described in detail using the flowchart shown in FIG. 9.

S801で、メインエンジン140の記録再生部143は、カメラ制御部132から指定された画像データファイルを記録媒体200から読み出す。カメラ制御部132は例えば最後に格納された画像データファイルを読み出すように指示することができる。記録媒体200には、JPEGなど予め定められた形式の画像データファイルが格納されている。記録再生部143は、読み出した画像データファイルを画像処理部141に出力する。 In S801, the recording and playback unit 143 of the main engine 140 reads out the image data file specified by the camera control unit 132 from the recording medium 200. The camera control unit 132 can instruct, for example, to read out the last stored image data file. The recording medium 200 stores image data files in a predetermined format, such as JPEG. The recording and playback unit 143 outputs the read image data file to the image processing unit 141.

S802で、画像処理部141は、画像データファイルに格納されている符号化画像データを復号(伸長)する。具体的には、画像処理部141は、符号化画像データの符号化方式に対応した復号処理を、符号化画像データに適用する。 In S802, the image processing unit 141 decodes (decompresses) the encoded image data stored in the image data file. Specifically, the image processing unit 141 applies a decoding process corresponding to the encoding method of the encoded image data to the encoded image data.

S803で、画像処理部141は、復号した画像データをフロントエンジン130の画像処理部131に送信する。
S804で、画像処理部131は、メインエンジン140から送信された画像データを受信する。
S805で、画像処理部131は、受信した画像データに基づいて表示用画像データを生成し、表示部101もしくはEVF108に表示する。この処理は図5の表示処理部311の処理として説明したものである。
In S803, the image processing unit 141 transmits the decoded image data to the image processing unit 131 of the front engine 130.
In S<b>804 , the image processing unit 131 receives the image data transmitted from the main engine 140 .
In S805, the image processing unit 131 generates display image data based on the received image data, and displays the data on the display unit 101 or the EVF 108. This processing has been described as the processing of the display processing unit 311 in FIG.

S806で、カメラ制御部132は、表示画像の変更指示が操作部110を介して入力されたか否かを判定する。例えば、表示画像の変更は、十字キー114の操作による画像送りや、拡大ボタン118の操作によるサムネイル表示への変更であってよい。表示画像の変更指示が入力されたと判定される場合、カメラ制御部132は、指示に応じた画像データファイルを指定し、記録再生部143にS801を実行させる。 In S806, the camera control unit 132 determines whether an instruction to change the display image has been input via the operation unit 110. For example, the change in the display image may be image forwarding by operating the cross key 114, or changing to thumbnail display by operating the enlargement button 118. If it is determined that an instruction to change the display image has been input, the camera control unit 132 specifies an image data file according to the instruction, and causes the recording and playback unit 143 to execute S801.

一方、表示画像の変更指示が入力されたと判定されない場合、カメラ制御部132はS807を実行する。S807で、カメラ制御部132は、デジタルカメラ100の動作モード変更の指示が入力されたか否かを判定する。モード変更の指示は、モード切替スイッチ121やシャッタボタン102の操作であってもよいし、他の操作であってもよい。モード変更の指示が入力されたと判定されない場合、カメラ制御部132は、S806を繰り返し実行する。モード変更の指示が入力されたと判定された場合、カメラ制御部132は、再生処理を終了し、S510を実行する。 On the other hand, if it is determined that an instruction to change the display image has not been input, the camera control unit 132 executes S807. In S807, the camera control unit 132 determines whether or not an instruction to change the operating mode of the digital camera 100 has been input. The instruction to change the mode may be an operation of the mode selector switch 121 or the shutter button 102, or may be some other operation. If it is not determined that an instruction to change the mode has been input, the camera control unit 132 repeatedly executes S806. If it is determined that an instruction to change the mode has been input, the camera control unit 132 ends the playback process and executes S510.

本実施形態においてカメラ制御部132は、撮影待機状態においてメインエンジン140への電力供給を制限し、画像データを記録媒体に記録するための撮影指示の入力に応じて、メインエンジン140への電力供給の制限を解除する。しかし、メインエンジン140への電力供給の制限を解除するトリガーは、記録用の静止画撮影指示の入力に限定されない。例えば、撮影前の予備動作である撮影準備指示の入力に応じて、メインエンジン140への電力供給の制限を解除してもよい。この場合、撮影指示が入力される時点までにメインエンジン140の起動を完了できるため、所謂シャッタタイムラグを削減することができる。 In this embodiment, the camera control unit 132 limits the power supply to the main engine 140 in a shooting standby state, and releases the restriction on the power supply to the main engine 140 in response to input of a shooting instruction to record image data on a recording medium. However, the trigger for releasing the restriction on the power supply to the main engine 140 is not limited to the input of an instruction to shoot a still image for recording. For example, the restriction on the power supply to the main engine 140 may be released in response to input of a shooting preparation instruction, which is a preparatory operation before shooting. In this case, the main engine 140 can be started up completely by the time the shooting instruction is input, so that the so-called shutter time lag can be reduced.

バスの帯域削減のために符号化処理を適用したRAWデータを、表示用画像データの生成と撮影制御用の情報(評価値や特徴領域の検出結果など)の取得に用いる場合に、撮影準備指示の入力に応じて符号化処理の圧縮率を低減するようにした。そのため、本実施形態によれば、撮影準備指示が入力されるまでの間はバスの帯域削減による消費電力の低減を行いながらライブビュー表示を実行し、撮影準備指示が入力された後は、撮影制御用の情報の検出を良好な精度で実施できる。また、撮影準備指示の入力前後で画像データの解像度に変更はないため、従来技術のように撮影準備指示の入力前後で表示画像の画質が大きく変化することもない。 When RAW data to which encoding processing has been applied to reduce bus bandwidth is used to generate image data for display and to obtain information for shooting control (such as evaluation values and feature area detection results), the compression rate of the encoding processing is reduced in response to the input of a shooting preparation instruction. Therefore, according to this embodiment, until the shooting preparation instruction is input, live view display is performed while reducing power consumption by reducing bus bandwidth, and after the shooting preparation instruction is input, the shooting control information can be detected with good accuracy. Furthermore, since there is no change in the resolution of the image data before and after the shooting preparation instruction is input, there is no significant change in the image quality of the displayed image before and after the shooting preparation instruction is input, as in conventional technology.

なお、本実施形態では、撮影準備指示をシャッタボタンの半押し操作の検出としたが、他の操作の検出であってもよい。例えば、タッチディスプレイ上のタッチ位置を焦点検出領域としたオートフォーカスを実行する撮像装置の場合、タッチディスプレイ上のタッチ操作を撮影準備指示の入力と見なしてもよい。 In this embodiment, the shooting preparation instruction is detected as a half-press of the shutter button, but other operations may be detected. For example, in the case of an imaging device that performs autofocus using the touch position on a touch display as the focus detection area, a touch operation on the touch display may be considered as input of a shooting preparation instruction.

また、シャッタボタンとは別に、撮影準備指示を入力する機能が割り当てられた操作部材が設けられてもよい。この場合、そのような操作部材の操作を、撮影準備指示の入力と見なすことができる。さらに、視線入力や音声入力など、操作部材の操作を必要としない方法によって撮影準備指示が入力される構成であってもよい。 Also, in addition to the shutter button, an operating member may be provided to which the function of inputting a shooting preparation command is assigned. In this case, the operation of such an operating member can be considered as inputting a shooting preparation command. Furthermore, the shooting preparation command may be inputted by a method that does not require the operation of an operating member, such as eye-gaze input or voice input.

●(第2実施形態)
次に、本発明の第2実施形態について説明する。第1実施形態では、RAWデータに符号化を適用することで画像処理部内のバスの帯域削減を行う構成において、撮影準備指示の入力に応じて符号化の圧縮率を低減するようにした。第2実施形態では、第1実施形態におけるRAWデータの符号化に加え、色補間(デベイヤー、デモザイク、同時化などともいう)処理後の表示用画像データを符号化する構成を備えた撮像装置について説明する。
● (Second embodiment)
Next, a second embodiment of the present invention will be described. In the first embodiment, in a configuration in which the bandwidth of the bus in the image processing unit is reduced by applying encoding to RAW data, the compression ratio of the encoding is reduced in response to an input of a shooting preparation instruction. In the second embodiment, an imaging device will be described that is equipped with a configuration in which, in addition to encoding RAW data as in the first embodiment, image data for display after color interpolation (also called de-Bayer, demosaic, synchronization, etc.) processing is encoded.

なお、本実施形態の説明において、第1実施形態と共通する内容については説明を省略する。図11は、本実施形態に係るデジタルカメラ100のフロントエンジン130およびメインエンジン140の機能構成例を示すブロック図であり、第1実施形態と同様の構成については図4と同じ参照数字を付してある。以下では、第1実施形態と異なる構成について重点的に説明する。 In the description of this embodiment, the contents common to the first embodiment will not be described. Figure 11 is a block diagram showing an example of the functional configuration of the front engine 130 and main engine 140 of the digital camera 100 according to this embodiment, and the same reference numerals as in Figure 4 are used for the same configuration as in the first embodiment. The following description will focus on the configuration that differs from the first embodiment.

本実施形態の画像処理部131は、第1実施形態の構成に加え、LV補正処理部309とLV効果処理部310との間に、圧縮処理部1101(第2の圧縮手段)および伸長処理部1102(第2の伸長手段)を有している。圧縮処理部1101および伸長処理部1102はカメラ制御部132の制御により選択的に用いられる。圧縮処理部1101および伸長処理部1102が用いられない場合、画像処理部131は第1実施形態と同一の処理を実行する。 In addition to the configuration of the first embodiment, the image processing unit 131 of this embodiment has a compression processing unit 1101 (second compression means) and an expansion processing unit 1102 (second expansion means) between the LV correction processing unit 309 and the LV effect processing unit 310. The compression processing unit 1101 and the expansion processing unit 1102 are selectively used under the control of the camera control unit 132. When the compression processing unit 1101 and the expansion processing unit 1102 are not used, the image processing unit 131 executes the same processing as in the first embodiment.

圧縮処理部1101は、LV補正処理部309が出力する光学補正処理後の画像データに対して圧縮処理を適用する。圧縮処理部1101に入力される画像データには、LV現像処理部308において色補間処理を含む現像処理が適用されている。したがって、画像データを構成する画素データのそれぞれは、RGBまたはYCbCrといった複数の成分を有する。 The compression processing unit 1101 applies compression processing to the image data after optical correction processing output by the LV correction processing unit 309. The image data input to the compression processing unit 1101 has been subjected to development processing including color interpolation processing in the LV development processing unit 308. Therefore, each pixel data constituting the image data has multiple components such as RGB or YCbCr.

圧縮処理部1101は圧縮処理部302(第1の圧縮手段)と同様に、フロントエンジン130内のバス帯域を削減する目的で、低消費電力かつ低遅延を実現可能な方法で画像データを符号化することにより画像データ量を圧縮(削減)する。例えば量子化、DPCMなどの差分符号化、エントロピー符号化といった単純な回路構成で実現可能な符号化方法を用いることができる。圧縮処理部1101が適用する符号化は、非可逆符号化でも可逆符号化でも良い。 Similar to the compression processing unit 302 (first compression means), the compression processing unit 1101 compresses (reduces) the amount of image data by encoding the image data in a manner that can achieve low power consumption and low delay, with the aim of reducing the bus bandwidth within the front engine 130. For example, encoding methods that can be achieved with a simple circuit configuration, such as quantization, differential encoding such as DPCM, and entropy encoding, can be used. The encoding applied by the compression processing unit 1101 may be lossy encoding or lossless encoding.

符号化は、LV補正処理部309から受信した画像データを水平方向および垂直方向に分割した2次元の画素ブロック(符号化ブロック)単位で行う。圧縮処理部1101における符号化ブロックの大きさは、圧縮処理部302が符号化を適用する符号化ブロックの大きさと異なってもよい。圧縮処理部1101の符号化処理によるデータ量の圧縮率は、カメラ制御部132からの設定に基づいて符号化ブロック単位で変更可能であるものとする。圧縮処理部1101は、圧縮した画像データを一時的にメモリ134に格納してバッファリングしてもよい。 The encoding is performed in units of two-dimensional pixel blocks (encoding blocks) obtained by dividing the image data received from the LV correction processing unit 309 in the horizontal and vertical directions. The size of the encoding block in the compression processing unit 1101 may be different from the size of the encoding block to which the compression processing unit 302 applies encoding. The compression ratio of the data amount by the encoding process of the compression processing unit 1101 can be changed in units of encoding blocks based on settings from the camera control unit 132. The compression processing unit 1101 may temporarily store and buffer the compressed image data in the memory 134.

伸長処理部1102は、圧縮処理部1101から直接受信する、あるいはメモリ134から読み出した、符号化された画像データを復号する。これにより画像データの圧縮が解除される。
画像処理部131が有する他の機能ブロックは第1の実施形態と同様であるため、説明を省略する。
The decompression processing unit 1102 decodes the encoded image data that is directly received from the compression processing unit 1101 or that is read from the memory 134. This decompresses the image data.
Other functional blocks of the image processing unit 131 are similar to those in the first embodiment, and therefore description thereof will be omitted.

次に、本実施形態におけるライブビュー処理の詳細について、図12に示すフローチャートを用いて説明する。なお、図12において、第1実施形態と同様の処理ステップについては図7と同じ参照数字を付して説明を省略する。図12に示すライブビュー処理は、第1実施形態で説明した図6のS503で実行することができる。 Next, the details of the live view processing in this embodiment will be described with reference to the flowchart shown in FIG. 12. Note that in FIG. 12, the same processing steps as in the first embodiment are given the same reference numerals as in FIG. 7 and will not be described. The live view processing shown in FIG. 12 can be executed in S503 in FIG. 6 described in the first embodiment.

S601からS612までの処理ステップは第1実施形態と同様である。
S1201で、カメラ制御部132は、圧縮処理部302における符号化の圧縮率が(S511の実行により)低減されているか否かを判定する。これは、ライブビュー表示処理が、SW1信号(撮影準備指示)の入力を検出した後に実行されているのか否かの判定とも言える。
The processing steps from S601 to S612 are similar to those in the first embodiment.
In S1201, the camera control unit 132 determines whether or not the compression rate of the encoding in the compression processing unit 302 has been reduced (by execution of S511). This can also be said to be a determination as to whether or not the live view display process is being executed after detecting the input of the SW1 signal (shooting preparation instruction).

カメラ制御部132は例えば、圧縮処理部302に問い合わせたり、システムメモリ133を参照することにより、現在の圧縮率の設定が初期値なのか低減後の値なのかを確認することによってこの判定を行うことができる。カメラ制御部132は、圧縮率が低減されていると判定されない場合には圧縮処理部1101および伸長伸長処理部1102を無効とし、S613を実行する。一方、圧縮率が低減されていると判定された場合、カメラ制御部132は、カメラ制御部132は、圧縮処理部1101および伸長伸長処理部1102を有効とし、S1202を実行する。 The camera control unit 132 can make this determination, for example, by inquiring of the compression processing unit 302 or by referring to the system memory 133 to check whether the current compression rate setting is the initial value or the reduced value. If the camera control unit 132 does not determine that the compression rate has been reduced, it disables the compression processing unit 1101 and the decompression/extension processing unit 1102 and executes S613. On the other hand, if it is determined that the compression rate has been reduced, the camera control unit 132 enables the compression processing unit 1101 and the decompression/extension processing unit 1102 and executes S1202.

圧縮処理部1101および伸長伸長処理部1102が無効であるとは、LV補正処理部309の出力する画像データに圧縮処理および伸長処理が適用されないことを意味する。したがって、カメラ制御部132は、LV補正処理部309の出力する画像データを圧縮処理部1101ではなくLV効果処理部310に供給するようにデータ経路を変更して、圧縮処理部1101および伸長伸長処理部1102を無効にすることができる。あるいは、カメラ制御部132は、入力画像データをそのまま出力するように圧縮処理部1101および伸長伸長処理部1102を設定することにより、圧縮処理部1101および伸長伸長処理部1102を無効にしてもよい。 When the compression processing unit 1101 and the decompression/extension processing unit 1102 are disabled, it means that compression processing and decompression processing are not applied to the image data output by the LV correction processing unit 309. Therefore, the camera control unit 132 can disable the compression processing unit 1101 and the decompression/extension processing unit 1102 by changing the data path so that the image data output by the LV correction processing unit 309 is supplied to the LV effect processing unit 310 instead of the compression processing unit 1101. Alternatively, the camera control unit 132 may disable the compression processing unit 1101 and the decompression/extension processing unit 1102 by setting the compression processing unit 1101 and the decompression/extension processing unit 1102 to output the input image data as is.

S1202で、圧縮処理部1101は、LV補正処理309で補正された画像データを符号化して符号化画像データを出力する。符号化によるデータ量の圧縮率はカメラ制御部132より予め定められているものとする。
S1203で、伸長処理部1102は、圧縮処理部1101が出力する符号化画像データを復号して画像データを出力する。
S613およびS614は第1実施形態と同一であるため説明を省略する。
In S1202, the compression processing unit 1101 encodes the image data corrected by the LV correction processing unit 309 and outputs encoded image data. It is assumed that the compression rate of the data amount by encoding is determined in advance by the camera control unit 132.
In S1203, the decompression processing unit 1102 decodes the encoded image data output by the compression processing unit 1101 and outputs the image data.
Since steps S613 and S614 are the same as those in the first embodiment, the description thereof will be omitted.

本実施形態は、RAWデータに対する圧縮率が初期値より低減されている状態で、現像処理後の画像データに対して圧縮処理および復号処理を適用するようにした。RAWデータの圧縮率が低減されていることによるバス帯域の使用率上昇を、現像後の画像データに対する圧縮処理および復号処理によって抑制することができる。 In this embodiment, compression and decoding processes are applied to image data after development processing when the compression rate for RAW data is reduced from the initial value. The increase in bus bandwidth usage caused by the reduced compression rate of RAW data can be suppressed by the compression and decoding processes applied to the image data after development.

なお、上述の説明ではRAWデータの圧縮率が初期値より低減されていることを条件として現像後の画像データに圧縮および伸長処理を適用するものとして説明した。しかしながら、RAWデータの圧縮率が初期値より低減されているか否かにかかわらず、現像後の画像データに圧縮および伸長処理を適用してもよい。この場合、RAWデータの圧縮率が初期値より低減されていると判定されると、現像後の画像データの圧縮率をさらに増加させるようにして、バス帯域の使用率情報を抑制するようにすることができる。 In the above description, the compression and decompression processes are applied to the developed image data on the condition that the compression rate of the RAW data is reduced from the initial value. However, the compression and decompression processes may be applied to the developed image data regardless of whether the compression rate of the RAW data is reduced from the initial value. In this case, if it is determined that the compression rate of the RAW data is reduced from the initial value, the compression rate of the developed image data can be further increased, thereby suppressing the bus bandwidth usage information.

●(第3実施形態)
次に、本発明の第3実施形態について説明する。第2実施形態では、現像処理後の表示用画像データに圧縮処理を適用することで、RAWデータの圧縮率が低減された際のバス帯域の使用率向上を抑制した。第3実施形態では、表示画像データとともに表示するアシスト情報のアイコンデータの表示サイズまたは面積に応じて、RAWデータもしくは現像処理後の表示用画像データの圧縮率を制御する。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In the second embodiment, a compression process is applied to the display image data after development processing, thereby suppressing an increase in the bus bandwidth usage rate when the compression rate of the RAW data is reduced. In the third embodiment, the compression rate of the RAW data or the display image data after development processing is controlled according to the display size or area of the icon data of the assist information displayed together with the display image data.

これは、アシスト情報の表示サイズまたは面積が多い場合、ライブビュー画像への注目度が低いと考えられることによる。したがって、アシスト情報の表示サイズまたは面積が多い場合に、ライブビュー画像の圧縮率を増加させることによって画質が多少低下しても、ユーザの使い勝手に与える影響は小さい。 This is because it is believed that when the display size or area of the assist information is large, attention to the live view image is low. Therefore, when the display size or area of the assist information is large, even if the image quality is somewhat reduced by increasing the compression rate of the live view image, the impact on user usability is small.

一般に、ライブビュー画像とともに表示されるアシスト情報の種類や数は、ユーザ設定に応じて動的に変更可能である。例えばデジタルカメラ100が操作部110にアシスト情報の表示パターンを変更するためのdispボタンを有する場合、dispボタンが押下されるごとに表示されるアシスト情報の数や種類が変化する。表示するアシスト情報の種類の数はユーザがカスタマイズ可能な場合もある。アシスト情報を全く表示しない設定も存在しうる。 In general, the type and number of assist information displayed together with a live view image can be dynamically changed according to user settings. For example, if the digital camera 100 has a disp button on the operation unit 110 for changing the display pattern of the assist information, the number and type of assist information displayed changes each time the disp button is pressed. In some cases, the number of types of assist information to be displayed can be customized by the user. There may also be a setting that does not display any assist information at all.

本実施形態は第2実施形態で図11を用いて説明した画像処理部131の構成によって実現可能である。そのため、以下では図11に示す画像処理部131で本実施形態に係るライブビュー処理を実行するものとして説明する。 This embodiment can be realized by the configuration of the image processing unit 131 described in the second embodiment using FIG. 11. Therefore, in the following, the live view processing according to this embodiment will be described as being performed by the image processing unit 131 shown in FIG. 11.

次に、本実施形態におけるライブビュー処理の詳細について、図13に示すフローチャートを用いて説明する。なお、図13において、第1実施形態と同様の処理ステップについては図7と、第2実施形態と同様の処理ステップについては図12と、それぞれ同じ参照数字を付して説明を省略する。図13に示すライブビュー処理は、第1実施形態で説明した図6のS503で実行することができる。 Next, the details of the live view processing in this embodiment will be described using the flowchart shown in FIG. 13. Note that in FIG. 13, the same processing steps as in the first embodiment will be denoted by the same reference numerals as in FIG. 7, and the same processing steps as in FIG. 12 will be denoted by the same reference numerals as in FIG. 12, and their description will be omitted. The live view processing shown in FIG. 13 can be executed in S503 in FIG. 6 described in the first embodiment.

S601からS614までの処理ステップは第1実施形態と、S1201からS1203までの処理ステップは第2実施形態と、それぞれ同様である。 The processing steps from S601 to S614 are the same as those in the first embodiment, and the processing steps from S1201 to S1203 are the same as those in the second embodiment.

S614における表示処理が行われた後、カメラ制御部132はS1301を実行する。S1301で、カメラ制御部132は、S614で表示したアシスト情報の画像(GUI)の描画サイズの合計が、表示部101(またはEVF108)の表示領域全体のサイズに占める割合が、所定の閾値(例えば50%)以上であるか否かを判断する。カメラ制御部132は、アシスト情報の画像の描画サイズの割合が閾値以上と判定されない場合はS1303を、閾値以上と判定されば場合はS1302を、それぞれ実行する。 After the display process in S614 is performed, the camera control unit 132 executes S1301. In S1301, the camera control unit 132 determines whether the ratio of the total drawing size of the assist information image (GUI) displayed in S614 to the total size of the display area of the display unit 101 (or EVF 108) is equal to or greater than a predetermined threshold (e.g., 50%). If the camera control unit 132 determines that the ratio of the drawing size of the assist information image is not equal to or greater than the threshold, it executes S1303, and if it determines that the ratio is equal to or greater than the threshold, it executes S1302.

S1302で、カメラ制御部132は、圧縮処理部1101に対し、画像データの圧縮率をさらに増加させるよう指示する。また、カメラ制御部132は、画像処理部131内のバス帯域の使用率を監視しており、使用率が許容範囲に収まると判定される場合には、圧縮処理部302に対してRAWデータの圧縮率を下げるように指示してもよい。例えば、圧縮処理部302における圧縮率とバス帯域の使用率との関係を予めシステムメモリに記憶しておくことにより、カメラ制御部132は、バス帯域の使用率を許容範囲に収めつつ、RAWデータの圧縮率をできるだけ下げるように制御することができる。 In S1302, the camera control unit 132 instructs the compression processing unit 1101 to further increase the compression rate of the image data. The camera control unit 132 also monitors the bus bandwidth usage rate in the image processing unit 131, and may instruct the compression processing unit 302 to lower the compression rate of the RAW data if it is determined that the usage rate is within an acceptable range. For example, by storing in advance in the system memory the relationship between the compression rate and the bus bandwidth usage rate in the compression processing unit 302, the camera control unit 132 can control the compression rate of the RAW data to be lowered as much as possible while keeping the bus bandwidth usage rate within an acceptable range.

S1303で、カメラ制御部132は、S1302の実行によって変更された圧縮処理部1101または圧縮処理部302に対する圧縮率の設定を変更前の設定に戻す。 In S1303, the camera control unit 132 restores the compression ratio setting for the compression processing unit 1101 or compression processing unit 302 that was changed by executing S1302 to the setting before it was changed.

なお、S1301の判定において、アシスト情報のGUIの総表示面積が表示領域に占める割合を用いるものとして説明した。しかし、表示されるアシスト情報の組み合わせとして予め複数の選択肢(表示パターン)が存在する場合、選択肢ごとのGUIの総表示面積は予め想定することができる。したがって、カメラ制御部132は、アシスト情報の表示設定を参照し、現在設定されている表示パターンに応じてS1301の判定を行ってもよい。 In the above description, the determination in S1301 is based on the ratio of the total display area of the GUI for the assist information to the display area. However, if there are multiple options (display patterns) for the combination of assist information to be displayed, the total display area of the GUI for each option can be estimated in advance. Therefore, the camera control unit 132 may refer to the display setting for the assist information and make the determination in S1301 according to the currently set display pattern.

本実施形態によれば、第1および第2実施形態の効果に加え、ユーザの使い勝手を考慮しつつ、さらなるバス帯域の削減や、撮影制御用の検出処理の精度向上を実現することができる。 In addition to the effects of the first and second embodiments, this embodiment can achieve further reduction in bus bandwidth and improved accuracy of detection processing for shooting control while taking into consideration user convenience.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other embodiments
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.

100…デジタルカメラ(本体)、101…表示部、106…センサ部、107…電力制御部、108…EVF、130…フロントエンジン、140…メインエンジン、150…レンズユニット、200…記録媒体 100... Digital camera (main body), 101... Display unit, 106... Sensor unit, 107... Power control unit, 108... EVF, 130... Front engine, 140... Main engine, 150... Lens unit, 200... Recording medium

Claims (14)

RAWデータに圧縮処理を適用する第1の圧縮手段と、
前記第1の圧縮手段で圧縮処理されたRAWデータを伸長する第1の伸長手段と、
前記第1の伸長手段が出力するRAWデータに基づいて表示用画像データを生成する生成手段と、
前記第1の伸長手段が出力するRAWデータに基づいて撮影制御に用いる情報を取得する検出手段と、を備えた画像処理手段と、
前記画像処理手段の動作を制御する制御手段と、を有し、
前記制御手段は、前記表示用画像データを継続的に生成、表示するライブビュー表示の実行中、前記検出手段が取得する情報を用いる撮影準備動作を開始する際に、前記第1の圧縮手段が適用する前記圧縮処理の圧縮率を低減させることを特徴とする撮像装置。
a first compression means for applying a compression process to the RAW data;
a first decompression means for decompressing the raw data compressed by the first compression means;
a generating means for generating display image data based on the RAW data output by the first decompression means;
an image processing means including a detection means for acquiring information used for photographing control based on the RAW data output by the first decompression means;
A control means for controlling the operation of the image processing means,
an image capturing device characterized in that the control means reduces the compression ratio of the compression process applied by the first compression means when starting a shooting preparation operation using information acquired by the detection means while a live view display is being executed in which the display image data is continuously generated and displayed.
前記制御手段は、前記ライブビュー表示の実行中、前記撮像装置に対する所定の操作を検出すると、前記第1の圧縮手段が適用する前記圧縮処理の圧縮率を低減させることを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, characterized in that the control means reduces the compression ratio of the compression process applied by the first compression means when a predetermined operation on the imaging device is detected during execution of the live view display. 前記所定の操作が、シャッタボタンの操作であることを特徴とする請求項2に記載の撮像装置。 The imaging device according to claim 2, characterized in that the predetermined operation is the operation of a shutter button. 前記所定の操作が、タッチディスプレイ上のタッチ操作であることを特徴とする請求項2に記載の撮像装置。 The imaging device according to claim 2, characterized in that the predetermined operation is a touch operation on a touch display. 前記検出手段が取得する情報が、撮影条件の決定および、前記撮像装置の撮像素子に光学像を形成するレンズユニットの自動焦点検出に用いられる情報であることを特徴とする請求項1から4のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 4, characterized in that the information acquired by the detection means is information used for determining shooting conditions and for automatic focus detection of a lens unit that forms an optical image on an imaging element of the imaging device. 前記画像処理手段が、
前記表示用画像データに圧縮処理を適用する第2の圧縮手段と、
前記第2の圧縮手段で圧縮処理された前記表示用画像データを伸長する第2の伸長手段と、をさらに有し、
前記制御手段は、前記ライブビュー表示の実行中、前記撮影準備動作を開始する際に、前記第2の圧縮手段が適用する前記圧縮処理の圧縮率を増加させることを特徴とする請求項1から5のいずれか1項に記載の撮像装置。
The image processing means
a second compression means for applying a compression process to the display image data;
a second decompression means for decompressing the display image data compressed by the second compression means,
6. The imaging device according to claim 1, wherein the control means increases a compression ratio of the compression process applied by the second compression means when the shooting preparation operation is started while the live view display is being executed.
前記制御手段は、前記第2の圧縮手段が適用する前記圧縮処理の圧縮率を増加させるまでは、前記第2の圧縮手段および前記第2の伸長手段を無効とするとを特徴とする請求項6に記載の撮像装置。 The imaging device according to claim 6, characterized in that the control means disables the second compression means and the second decompression means until the compression ratio of the compression process applied by the second compression means is increased. 前記表示用画像データは、アシスト情報の画像とともに表示され、
前記制御手段は、
前記アシスト情報の画像のサイズまたは面積が表示領域に示す割合が閾値以上の場合には、閾値以上でない場合よりも前記第2の圧縮手段が適用する前記圧縮処理の圧縮率を増加させることを特徴とする請求項6または7に記載の撮像装置。
The display image data is displayed together with an image of assist information,
The control means
The imaging device according to claim 6 or 7, characterized in that when the ratio of the size or area of the image of the assist information to the display area is equal to or greater than a threshold, the compression rate of the compression process applied by the second compression means is increased more than when the ratio is not equal to or greater than the threshold.
前記表示用画像データは、アシスト情報の画像とともに表示され、
前記制御手段は、
前記アシスト情報の表示パターンが第1のパターンである場合よりも、表示されるアシスト情報が多い第2のパターンである場合には、前記第2の圧縮手段が適用する前記圧縮処理の圧縮率を増加させることを特徴とする請求項6または7に記載の撮像装置。
The display image data is displayed together with an image of assist information,
The control means
The imaging device according to claim 6 or 7, characterized in that when the display pattern of the assist information is a second pattern in which more assist information is displayed than when the display pattern is a first pattern, the compression rate of the compression process applied by the second compression means is increased.
前記制御手段は、前記第2の圧縮手段が適用する前記圧縮処理の圧縮率を増加させた場合、前記第1の圧縮手段が適用する前記圧縮処理の圧縮率をさらに低減させることを特徴とする請求項8または9に記載の撮像装置。 The imaging device according to claim 8 or 9, characterized in that the control means further reduces the compression rate of the compression process applied by the first compression means when the compression rate of the compression process applied by the second compression means is increased. 前記画像処理手段と前記制御手段とが、同一の半導体パッケージに含まれる、あるいは同一の半導体チップに実装されることを特徴とする請求項1から10のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 10, characterized in that the image processing means and the control means are included in the same semiconductor package or are mounted on the same semiconductor chip. 前記第1の圧縮手段による圧縮処理が、前記画像処理手段におけるバス帯域の削減を目的としたものであることを特徴とする請求項1から10のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 10, characterized in that the compression process by the first compression means is aimed at reducing the bus bandwidth in the image processing means. RAWデータに圧縮処理を適用する第1の圧縮手段と、
前記第1の圧縮手段で圧縮処理されたRAWデータを伸長する第1の伸長手段と、
前記第1の伸長手段が出力するRAWデータに基づいて表示用画像データを生成する生成手段と、
前記第1の伸長手段が出力するRAWデータに基づいて撮影制御に用いる情報を取得する検出手段と、を備えた撮像装置の制御方法であって、
制御手段が、前記表示用画像データを継続的に生成、表示するライブビュー表示の実行中、前記検出手段が取得する情報を用いる撮影準備動作を開始する際に、前記第1の圧縮手段が適用する前記圧縮処理の圧縮率を低減させる制御工程を有することを特徴とする撮像装置の制御方法。
a first compression means for applying a compression process to the RAW data;
a first decompression means for decompressing the raw data compressed by the first compression means;
a generating means for generating display image data based on the RAW data output by the first decompression means;
a detection unit that acquires information used for photographing control based on the RAW data output by the first decompression unit,
A control method for an imaging device, comprising a control step of reducing a compression ratio of the compression process applied by the first compression means when a control means starts a shooting preparation operation using information acquired by the detection means while a live view display is being executed in which the display image data is continuously generated and displayed.
撮像装置が有するコンピュータを、請求項1から10のいずれか1項に記載の撮像装置が有する制御手段として機能させるためのプログラム。 A program for causing a computer included in an imaging device to function as a control means included in the imaging device according to any one of claims 1 to 10.
JP2020086048A 2020-05-15 2020-05-15 Imaging device and control method thereof Active JP7497205B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020086048A JP7497205B2 (en) 2020-05-15 2020-05-15 Imaging device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020086048A JP7497205B2 (en) 2020-05-15 2020-05-15 Imaging device and control method thereof

Publications (2)

Publication Number Publication Date
JP2021180454A JP2021180454A (en) 2021-11-18
JP7497205B2 true JP7497205B2 (en) 2024-06-10

Family

ID=78510550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020086048A Active JP7497205B2 (en) 2020-05-15 2020-05-15 Imaging device and control method thereof

Country Status (1)

Country Link
JP (1) JP7497205B2 (en)

Also Published As

Publication number Publication date
JP2021180454A (en) 2021-11-18

Similar Documents

Publication Publication Date Title
US20230353869A1 (en) Imaging apparatus and setting screen thereof
US20130176458A1 (en) Flexible Burst Image Capture System
JP6373056B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGE PROCESSING METHOD
US8526685B2 (en) Method and apparatus for selectively supporting raw format in digital image processor
EP2974285B1 (en) Image processing apparatus and image processing method
EP2974265B1 (en) Imaging apparatus and imaging apparatus control method
US10244199B2 (en) Imaging apparatus
US11653089B2 (en) Imaging apparatus and controlling method
JP7497205B2 (en) Imaging device and control method thereof
US10397587B2 (en) Image processing apparatus and control method thereof
US20210344839A1 (en) Image processing device, image capturing device, image processing method, and image processing program
US20220094935A1 (en) Image processing device, imaging device, image processing method, and image processing program
JP6741532B2 (en) Imaging device and recording method
JP6663282B2 (en) Imaging device, imaging system, imaging method, and program
JP2021034844A (en) Imaging device and control method of imaging device
WO2020066317A1 (en) Image-capture device, image-capture method, and program
JP2021118403A (en) Image processing device, control method thereof, program, and image processing system
US11394849B2 (en) Image capture apparatus and control method thereof
US20240223763A1 (en) Device and method for adaptive quantization based on video capturing mode
JP7463114B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD FOR IMAGE PROCESSING APPARATUS, PROGRAM, AND STORAGE MEDIUM
JP2023072581A (en) Imaging apparatus and method for controlling the same, lens device, data for image magnification correction, image processing apparatus and image processing method, and accessory device
JP2015164266A (en) Moving picture recording system, imaging device and recording device
JP2019161550A (en) Image pick-up device, imaging apparatus and imaging method
JP2020102660A (en) Imaging apparatus
JP2017168984A (en) Imaging device and control method for imaging device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240529

R150 Certificate of patent or registration of utility model

Ref document number: 7497205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150