JP2020145621A - Image processing system, imaging apparatus, image processing method, and program - Google Patents

Image processing system, imaging apparatus, image processing method, and program Download PDF

Info

Publication number
JP2020145621A
JP2020145621A JP2019041912A JP2019041912A JP2020145621A JP 2020145621 A JP2020145621 A JP 2020145621A JP 2019041912 A JP2019041912 A JP 2019041912A JP 2019041912 A JP2019041912 A JP 2019041912A JP 2020145621 A JP2020145621 A JP 2020145621A
Authority
JP
Japan
Prior art keywords
image
processing means
signal
images
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019041912A
Other languages
Japanese (ja)
Other versions
JP7446715B2 (en
Inventor
宏 中岡
Hiroshi Nakaoka
宏 中岡
武志 小川
Takeshi Ogawa
武志 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019041912A priority Critical patent/JP7446715B2/en
Publication of JP2020145621A publication Critical patent/JP2020145621A/en
Application granted granted Critical
Publication of JP7446715B2 publication Critical patent/JP7446715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image processing system capable of solving the disadvantage that when depth composition is performed with an image processing system that has multiple processing units, there is a possibility that processing may be delayed due to a large amount of data.SOLUTION: The image processing system includes: acquisition means that acquires multiple images; first processing means that receives signals of the multiple images from the acquisition means, split the multiple images, and sets each of the multiple images to multiple subregions; and second processing means that receives signals of a part of the subregions out of the multiple subregions from the first processing means and generates an image of depth composition. A transmission rate at which the second processing means receives signals from the first processing means is lower than a transmission rate at which the first processing means receives signals from the acquisition means.SELECTED DRAWING: Figure 2

Description

本発明は、ピント位置の異なる複数の画像に対して合成を行う画像処理装置に関するものである。 The present invention relates to an image processing device that synthesizes a plurality of images having different focus positions.

デジタルカメラなどの撮像装置からの距離が互いに大きく異なる複数の被写体を撮像する場合や、奥行き方向に長い被写体を撮像する場合に、被写界深度が足りないために被写体の一部にしかピントを合わせられない場合がある。または、解像感の極めて高い画像を取得したい場合、被写界深度を浅くして撮像しなければならず、被写体の全部が被写界深度に入らないことがある。これを解決するため、特許文献1には、ピント位置の異なる複数の画像を撮像し、各画像から合焦領域のみを抽出して1枚の画像に合成し、撮像領域全体に合焦している合成画像を生成する、所謂、深度合成の技術が開示されている。 When shooting multiple subjects whose distances from imagers such as digital cameras are significantly different from each other, or when shooting a subject that is long in the depth direction, the depth of field is insufficient, so focus is only on a part of the subject. It may not be possible to match. Alternatively, when it is desired to acquire an image having an extremely high resolution, it is necessary to take an image with a shallow depth of field, and the entire subject may not be within the depth of field. In order to solve this problem, in Patent Document 1, a plurality of images having different focus positions are imaged, only the focusing region is extracted from each image, combined into one image, and the entire imaging region is focused. A so-called depth composition technique for generating a composite image is disclosed.

一方、特許文献2には、撮像部などから画像信号を受け取る第1画像処理部を第2画像処理部の前に配置し、高い伝送レートを受信することが不可能な第2画像処理部に対して緩衝の役割をすることで、スケーラビリティを実現する撮像装置が開示されている。 On the other hand, in Patent Document 2, a first image processing unit that receives an image signal from an imaging unit or the like is arranged in front of the second image processing unit, and the second image processing unit that cannot receive a high transmission rate is used. On the other hand, an image pickup device that realizes scalability by acting as a buffer is disclosed.

特開平10―290389号公報Japanese Unexamined Patent Publication No. 10-290389 特開2017−153156号公報JP-A-2017-153156

しかしながら、特許文献2に記載の撮像装置を用いて深度合成を行おうとすると、第1画像処理部では画像データを一度符号化圧縮して伝送レートを落としているため、画質が劣化する可能性がある。また、深度合成に用いる画像のサイズが極めて大きいことがあるため、第1の画像処理部で一度記憶部に記録してから第2の画像処理部へ伝送すると、データの遅延に起因した画像データ表示や記録が遅くなる可能性もある。 However, when depth synthesis is performed using the image pickup apparatus described in Patent Document 2, the first image processing unit encodes and compresses the image data once to reduce the transmission rate, so that the image quality may deteriorate. is there. Further, since the size of the image used for depth composition may be extremely large, if the first image processing unit records the image once in the storage unit and then transmits the image to the second image processing unit, the image data due to the data delay occurs. Display and recording may be slow.

本発明は、上記の課題を鑑みてなされたものであり、複数の画像処理部を用いて深度合成を行うとき、画像処理部の間に伝送する情報を変更することで処理負荷の低減を実現できる画像処理装置を提供することを目的とする。 The present invention has been made in view of the above problems, and when depth composition is performed using a plurality of image processing units, the processing load can be reduced by changing the information transmitted between the image processing units. It is an object of the present invention to provide an image processing apparatus capable of providing an image processing apparatus.

上記課題を解決するため、本願発明は、複数の画像を取得する取得手段と、前記取得手段から前記複数の画像の信号を受け取り、前記複数の画像に対して分割を行い、前記複数の画像のそれぞれにおいて複数の分割領域に設定する第1の処理手段と、前記第1の処理手段から前記複数の分割領域のうち、一部の分割領域の信号を受け取り、深度合成の画像を生成する第2の処理手段と、を有し、前記第2の処理手段が前記第1の処理手段から信号を受け取る伝送レートが、前記第1の処理手段が前記取得手段から信号を受け取る伝送レートよりも低いことを特徴とする画像処理装置を提供する。 In order to solve the above problems, the present invention comprises an acquisition means for acquiring a plurality of images, receiving signals of the plurality of images from the acquisition means, dividing the plurality of images, and dividing the plurality of images. A first processing means set in a plurality of divided regions in each, and a second processing means that receives signals of a part of the divided regions from the first processing means and generates an image of depth composition. The transmission rate at which the second processing means receives a signal from the first processing means is lower than the transmission rate at which the first processing means receives a signal from the acquiring means. To provide an image processing apparatus characterized by the above.

本発明の構成によれば、複数の画像処理部を用いて深度合成の合成を行うとき、後段にある画像処理部へ伝送する情報を減らす画像処理装置を提供することができる。 According to the configuration of the present invention, it is possible to provide an image processing apparatus that reduces information transmitted to an image processing unit in a subsequent stage when synthesizing depth composition using a plurality of image processing units.

第1の実施形態におけるデジタルカメラのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware structure of the digital camera in 1st Embodiment. 第1の実施形態における深度合成の処理について説明するためのフローチャートである。It is a flowchart for demonstrating the process of depth synthesis in 1st Embodiment. 第1の実施形態における画像に対する領域分割を説明するための図である。It is a figure for demonstrating the area division with respect to the image in 1st Embodiment. 第1の実施形態における画像の評価を説明するための図である。It is a figure for demonstrating the evaluation of an image in 1st Embodiment. 第2の実施形態におけるデジタルカメラのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware structure of the digital camera in 2nd Embodiment. 第2の実施形態における深度合成の処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process of depth synthesis in 2nd Embodiment. 第2の実施形態におけるピント位置と像倍率との関係を説明するための図である。It is a figure for demonstrating the relationship between the focus position and image magnification in the 2nd Embodiment. 第2の実施形態における画像の切り出しを説明するための図である。It is a figure for demonstrating the cutout of the image in 2nd Embodiment. 第2の実施形態における画像の拡大の処理を説明するための図である。It is a figure for demonstrating the process of image enlargement in 2nd Embodiment. 第3の実施形態におけるデジタルカメラのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware structure of the digital camera in 3rd Embodiment. 第3の実施形態における深度合成の処理について説明するためのフローチャートである。It is a flowchart for demonstrating the process of depth synthesis in 3rd Embodiment. 第3の実施形態における領域の分割を説明するための図である。It is a figure for demonstrating the division of the area in 3rd Embodiment. 第3の実施形態における倍率に応じる分割領域の設定を説明するための図である。It is a figure for demonstrating the setting of the division area according to the magnification in 3rd Embodiment.

以下では、添付の図面を参照しながら、本発明の好適な実施形態について詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、本実施形態におけるデジタルカメラのハードウェア構成を示すブロック図である。
(First Embodiment)
FIG. 1 is a block diagram showing a hardware configuration of a digital camera according to the present embodiment.

撮像素子101は、不図示の光学系を通った光を電気信号に変換し、画像信号として出力し、たとえば、CMOS(Complementary Metal Oxide Semiconductor)センサなどである。 The image sensor 101 converts light passing through an optical system (not shown) into an electric signal and outputs it as an image signal. For example, a CMOS (Complementary Metal Oxide Sensor) sensor or the like.

第1の信号処理部102は、撮像素子101から出力された画像信号を受け取り、信号処理を行う。第1の信号処理部102は、複数の処理部から構成されている。撮像素子101と第1の信号処理部102とは電気的に接続されており、撮像素子101から電気信号として画像信号を所定時間かけて送信される。 The first signal processing unit 102 receives the image signal output from the image sensor 101 and performs signal processing. The first signal processing unit 102 is composed of a plurality of processing units. The image sensor 101 and the first signal processing unit 102 are electrically connected, and an image signal is transmitted from the image sensor 101 as an electric signal over a predetermined time.

第1の制御部103は、第1の信号処理部102の制御を司り、撮像素子101、画像信号評価部104や領域選択部105などの制御も行う。 The first control unit 103 controls the first signal processing unit 102, and also controls the image sensor 101, the image signal evaluation unit 104, the area selection unit 105, and the like.

画像信号評価部104は、第1の信号処理部102を構成する部の1つであり、撮像素子101から受け取った画像信号に対する評価結果を算出する。 The image signal evaluation unit 104 is one of the units constituting the first signal processing unit 102, and calculates the evaluation result for the image signal received from the image sensor 101.

領域選択部105は、第1の信号処理部102を構成する部の1つであり、画像信号評価部104から得られた評価結果をもとに後述するフレームメモリに記憶されている画像信号を読み出す領域を選択するための領域選択信号を出力する。 The area selection unit 105 is one of the units constituting the first signal processing unit 102, and based on the evaluation result obtained from the image signal evaluation unit 104, the image signal stored in the frame memory described later is stored in the frame memory. Outputs an area selection signal for selecting the area to be read.

フレームメモリ106は、撮像素子101から読み出された画像信号を記憶し、後述するメモリ制御部107を介して画像信号の読み書きが行われる。 The frame memory 106 stores the image signal read from the image sensor 101, and the image signal is read / written via the memory control unit 107 described later.

メモリ制御部107は、第1の信号処理部102を構成する部の1つであり、撮像素子101から読み出された画像信号をフレームメモリ106に記憶するための制御を行う。 The memory control unit 107 is one of the units constituting the first signal processing unit 102, and controls to store the image signal read from the image sensor 101 in the frame memory 106.

第2の信号処理部108は、第1の信号処理部102から出力される画像信号を受け取って信号処理を行う。第1の信号処理部102と第2の信号処理部108とは電気的に接続されており、第1の信号処理部102から電気信号として画像信号が所定時間かけて送信される。 The second signal processing unit 108 receives the image signal output from the first signal processing unit 102 and performs signal processing. The first signal processing unit 102 and the second signal processing unit 108 are electrically connected to each other, and an image signal is transmitted as an electric signal from the first signal processing unit 102 over a predetermined time.

第2の制御部109は、第2の信号処理部108の全体を司り、後述する深度合成部110と記憶部111との制御や、第1の制御部103との送受信などを行う。 The second control unit 109 controls the entire second signal processing unit 108, controls the depth synthesis unit 110 and the storage unit 111, which will be described later, and transmits / receives to / from the first control unit 103.

深度合成部110は、第1の信号処理部102から出力される画像信号に対して、深度合成の処理を行う。深度合成処理とは、複数枚の画像信号を異なるフォーカス位置で撮像し、各画像からピントが合っている少なくとも一部の領域の画像信号を切り出し、合成して1枚のより被写界深度の深い画像信号を生成する処理である。深度合成部110が生成した画像信号を、後述する記憶部111に記憶する。 The depth synthesis unit 110 performs depth synthesis processing on the image signal output from the first signal processing unit 102. In the depth-of-field composition process, a plurality of image signals are imaged at different focus positions, image signals in at least a part of the in-focus area are cut out from each image, and the images are combined to obtain a deeper depth of field. This is a process for generating a deep image signal. The image signal generated by the depth synthesis unit 110 is stored in the storage unit 111 described later.

記憶部111は、たとえば、DRAM(Dynamic Random Access Memory)に代表されるような記録処理を構成に含むメモリである。 The storage unit 111 is a memory including, for example, a recording process represented by a DRAM (Dynamic Random Access Memory) in its configuration.

図1に示した構成では、撮像素子101、第1の信号処理部102および第2の信号処理部108は、それぞれ電気的に接続される。撮像素子101から第1の信号処理部102へのデータの伝送レートは、第1の信号処理部102から第2の信号処理部108へのデータの伝送レートよりも高くなるように設計されている。このような設定では、撮像素子101が変更したい場合では、第1の信号処理部102の中に新たに接続用の回路などを組み込むことで撮像素子101を変更することができる。かつ、第2の信号処理部108との接続を維持したままで、全体の構成を容易に再構築できる、というメリットがある。 In the configuration shown in FIG. 1, the image sensor 101, the first signal processing unit 102, and the second signal processing unit 108 are electrically connected to each other. The data transmission rate from the image sensor 101 to the first signal processing unit 102 is designed to be higher than the data transmission rate from the first signal processing unit 102 to the second signal processing unit 108. .. With such a setting, when the image sensor 101 is desired to be changed, the image sensor 101 can be changed by newly incorporating a connection circuit or the like in the first signal processing unit 102. In addition, there is an advantage that the entire configuration can be easily reconstructed while maintaining the connection with the second signal processing unit 108.

図2は、本実施形態における深度合成の処理を説明するためのフローチャートである。図2を参照して本実施形態のフローについて説明する。 FIG. 2 is a flowchart for explaining the process of depth synthesis in the present embodiment. The flow of the present embodiment will be described with reference to FIG.

ステップS201では、第1の制御部103は、あらかじめ定められた枚数またはユーザからの指示で撮像枚数を決定する。 In step S201, the first control unit 103 determines the number of images to be imaged according to a predetermined number of sheets or an instruction from the user.

ステップS202では、ユーザからの指示に基づいて、撮像を開始する。 In step S202, imaging is started based on an instruction from the user.

ステップS203では、第1の制御部103が、フォーカスレンズを駆動する。フォーカスレンズの相対位置が変わることで、光軸方向でのピント位置を変更することができる。 In step S203, the first control unit 103 drives the focus lens. By changing the relative position of the focus lens, the focus position in the optical axis direction can be changed.

ステップS204で、撮像素子101が不図示の光学系を介して結像した被写体像を電気信号として出力する。 In step S204, the image sensor 101 outputs a subject image imaged via an optical system (not shown) as an electric signal.

ステップS205で、撮像素子101は、被写体像の電気信号を第1の信号処理部102に送信する。 In step S205, the image sensor 101 transmits an electric signal of the subject image to the first signal processing unit 102.

ステップS206で、画像信号評価部104が、撮像素子101から得られた画像を複数の領域に分割し、領域ごとのコントラスト値を算出する。コントラスト値は画像信号を構成する画素値の振れ幅の大小を数値化したもので、例えば、隣接画素との差分値で算出する。 In step S206, the image signal evaluation unit 104 divides the image obtained from the image sensor 101 into a plurality of regions, and calculates the contrast value for each region. The contrast value is a numerical value of the magnitude of the fluctuation width of the pixel values constituting the image signal, and is calculated by, for example, the difference value with the adjacent pixels.

図3は、本実施形態における画像に対する領域分割を説明するための図である。画像301は撮像素子101から得られた画像であり、領域302は分割された1つの領域である。被写体30ないし305が画像301に写っている。図3では、1枚の画像に対して、水平方向(横方向)に4分割、垂直方向(縦方向)に3分割したときの様子を点線で示しており、全部で12分割されている様子を示している。画像信号評価部104は、12分割された領域ごとにコントラスト値の平均値を評価結果として領域選択部105に送信する。なお、本実施例では画像信号の評価指標としてコントラスト値を用いたが、ほかにも評価指標として使えるパラメータがある。たとえば、分割領域ごとに周波数解析を行い、解析した結果から高周波の成分が含まれる割合や高周波成分の振幅値を指標として、評価結果を算出するようにしても、ピントが合っている度合を示す指標として有効である。 FIG. 3 is a diagram for explaining the region division for the image in the present embodiment. The image 301 is an image obtained from the image sensor 101, and the region 302 is one divided region. Subjects 30 to 305 are shown in image 301. In FIG. 3, a dotted line shows the state when one image is divided into four in the horizontal direction (horizontal direction) and three in the vertical direction (vertical direction), and is divided into 12 in total. Is shown. The image signal evaluation unit 104 transmits the average value of the contrast values for each of the 12 divided regions to the region selection unit 105 as an evaluation result. In this embodiment, the contrast value is used as the evaluation index of the image signal, but there are other parameters that can be used as the evaluation index. For example, even if frequency analysis is performed for each divided region and the evaluation result is calculated using the ratio of high-frequency components included or the amplitude value of the high-frequency components as an index from the analysis result, the degree of focus is shown. It is effective as an index.

ステップS207で、メモリ制御部107は、撮像素子101から出力された画像信号を、フレームメモリ106に対して書き込みアクセスを行うことで、一時的に記憶する。 In step S207, the memory control unit 107 temporarily stores the image signal output from the image sensor 101 by performing write access to the frame memory 106.

ステップS208で、領域選択部105が、領域の選択を行う。領域選択部105は、画像信号評価部104から受け取った評価結果とともに、第2の信号処理部108に送信する画像信号の分割領域を選択するための領域選択情報をメモリ制御部107に送信する。 In step S208, the area selection unit 105 selects the area. The area selection unit 105 transmits to the memory control unit 107 the area selection information for selecting the divided area of the image signal to be transmitted to the second signal processing unit 108 together with the evaluation result received from the image signal evaluation unit 104.

図4は、本実施形態における画像の評価を説明するための図である。図4は、撮像された画像401、402、403を示している。画像401、402、403のそれぞれは、水平4分割、垂直3分割で分割されている。図4における各画像の分割領域に書かれている数字は、コントラスト値を、0〜127の範囲内に数値化されたものを意味し、数値の高いほうはコントラスト値が高いと表す。本実施形態では、一例として、コントラスト値の高さ基づいてピントが合っているかどうかを判断する。ピントがある領域に合っている場合は、ピントが該領域に合っていない場合より、一般的に該領域のコントラスト値が高い。ピント位置の異なる複数の画像において、同じ領域は、最もコントラスト値が高いとき、ピントが合っていると判断する。 FIG. 4 is a diagram for explaining the evaluation of the image in the present embodiment. FIG. 4 shows captured images 401, 402, 403. Each of the images 401, 402, and 403 is divided into four horizontal divisions and three vertical divisions. The numbers written in the divided regions of each image in FIG. 4 mean that the contrast values are quantified within the range of 0 to 127, and the higher the numerical value, the higher the contrast value. In the present embodiment, as an example, it is determined whether or not the subject is in focus based on the height of the contrast value. When the area is in focus, the contrast value of the area is generally higher than when the area is out of focus. In a plurality of images having different focus positions, the same area is judged to be in focus when the contrast value is the highest.

具体的に、図4に示した画像は、以下のような意味をもつ。画像401は被写体303にピントが合っている状態でのコントラスト値を示しており、分割領域404乃至409で高い値を示している。同様に、画像402は被写体304にピントが合っている状態でのコントラスト値を示しており、分割領域410と411とでコントラスト値が高い値を示している。画像403は被写体305にピントが合っている状態でのコントラスト値を模式的に示しており、分割領域412乃至414でコントラスト値が高い値を示している。 Specifically, the image shown in FIG. 4 has the following meanings. Image 401 shows the contrast value in a state where the subject 303 is in focus, and shows a high value in the divided regions 404 to 409. Similarly, the image 402 shows the contrast value in a state where the subject 304 is in focus, and the divided regions 410 and 411 show high contrast values. Image 403 schematically shows the contrast value in a state where the subject 305 is in focus, and shows a high contrast value in the divided regions 412 to 414.

領域選択部105は、予め定められた閾値以上のコントラスト値をもつ分割領域をフレームメモリ106から読み出すようにメモリ制御部107に対して、領域選択情報を出力する。たとえば、図4の画像に対して、コントラスト値の閾値を50と定められたときに、領域選択部105は分割領域404乃至414を読み出す。 The area selection unit 105 outputs the area selection information to the memory control unit 107 so as to read the divided area having a contrast value equal to or higher than a predetermined threshold value from the frame memory 106. For example, with respect to the image of FIG. 4, when the threshold value of the contrast value is set to 50, the area selection unit 105 reads out the divided areas 404 to 414.

ステップS209で、第1の信号処理部102は、領域選択部105が選択した分割領域を、第2の信号処理部108に送信する。 In step S209, the first signal processing unit 102 transmits the divided region selected by the area selection unit 105 to the second signal processing unit 108.

ステップS210で、撮像枚数に達したかどうかを判断する。達した場合はステップS211に進み、達していない場合はステップS203に戻る。 In step S210, it is determined whether or not the number of images has been reached. If it has been reached, the process proceeds to step S211. If not, the process returns to step S203.

ステップS211では、深度合成部110が、深度合成の処理を行う。深度合成部110は、ステップS209で選択した合焦領域を優先的に合成画像に置き換えることで、合成画像を作成する。同時に、深度合成部110は、画像信号の画素位置情報に応じて記憶部111への記憶する際のアドレス情報を変更し記憶することで、記憶部111上に記憶された複数の領域を先頭アドレスから順に読み出すことで、1枚の画信号として読み出すことが可能になる。 In step S211 the depth synthesizing unit 110 performs the depth synthesizing process. The depth composition unit 110 creates a composite image by preferentially replacing the in-focus region selected in step S209 with the composite image. At the same time, the depth synthesizing unit 110 changes and stores the address information at the time of storing in the storage unit 111 according to the pixel position information of the image signal, so that the plurality of areas stored in the storage unit 111 are head-addressed. By reading in order from, it becomes possible to read as one image signal.

なお、本実施形態では、たとえば図4の画像403の分割領域415で示された領域の評価値は、3枚の画像ともに閾値よりも小さいため、以下の処理を行う。領域選択部105は、3枚目の画像信号を処理している時点で1度も選択されていないと判断された分割領域に対して、閾値判別結果によらず読み出し領域として選択する。これにより、深度合成部110が合成した画像として欠落が出ないように調整することが可能となる。 In the present embodiment, for example, the evaluation value of the region shown by the divided region 415 of the image 403 in FIG. 4 is smaller than the threshold value for all three images, so the following processing is performed. The area selection unit 105 selects the divided area determined to have never been selected at the time of processing the third image signal as the read area regardless of the threshold determination result. This makes it possible to adjust the depth synthesizing unit 110 so that the combined image does not have any omissions.

以上に説明したような処理より、以下の効果が得られる。撮像素子101と第1の信号処理部102の間のデータ伝送レートが、第1の信号処理部102と第2の信号処理部108の間のデータ伝送レートより高い場合に、以下の処理を行う。第1の信号処理部102では、画像信号評価部104の評価結果に応じて、領域選択部105が選択した分割領域を第2の信号処理部108に伝送する。このような処理により、第1の信号処理部102から第2の信号処理部108への不要なデータの伝送を抑制し、スケーラビリティの高い構成を設計可能である。 The following effects can be obtained from the processing as described above. When the data transmission rate between the image sensor 101 and the first signal processing unit 102 is higher than the data transmission rate between the first signal processing unit 102 and the second signal processing unit 108, the following processing is performed. .. The first signal processing unit 102 transmits the divided region selected by the area selection unit 105 to the second signal processing unit 108 according to the evaluation result of the image signal evaluation unit 104. By such processing, it is possible to suppress the transmission of unnecessary data from the first signal processing unit 102 to the second signal processing unit 108, and to design a highly scalable configuration.

なお、本実施形態では、画像信号評価部104での評価結果次第、複数の画像信号において同じ分割領域が選択される可能性もある。この場合、第1の信号処理部102が選択した画像信号を第2の信号処理部108に送信するときに、評価結果も送信する。次に深度合成部110が送信された評価結果のよいほうを、最終的に深度合成に用いる。 In the present embodiment, the same divided region may be selected for a plurality of image signals depending on the evaluation result of the image signal evaluation unit 104. In this case, when the image signal selected by the first signal processing unit 102 is transmitted to the second signal processing unit 108, the evaluation result is also transmitted. Next, the better evaluation result transmitted by the depth synthesis unit 110 is finally used for depth synthesis.

さらに、領域選択部105は、最も評価値のよい分割領域のみでなく、評価値の高い順番に上位の所定数の領域を選択してもよい。このような処理により、1枚の画像信号から選択された分割領域数が一定になり、深度合成部110がステップS211での深度合成で実際に合成画像に用いる領域をさらに選択する。 Further, the area selection unit 105 may select not only the divided area having the best evaluation value but also a predetermined number of areas having higher evaluation values in descending order. By such processing, the number of divided regions selected from one image signal becomes constant, and the depth synthesizing unit 110 further selects a region actually used for the composite image in the depth synthesizing in step S211.

第1の実施形態によれば、第2の信号処理部に送信するデータの中、深度合成の画像の作成に必要でないデータを抑制することができ、より処理負荷が低減できる画像処理を行うことができる。 According to the first embodiment, among the data transmitted to the second signal processing unit, it is possible to suppress data that is not necessary for creating a depth-combined image, and perform image processing that can further reduce the processing load. Can be done.

(第2の実施形態)
以下では、第2の実施形態について説明する。第2の実施形態は、後述する光学系の光学特性により撮像素子に結像される像の像倍率がフォーカスレンズの位置に応じて変化する場合を考慮されるものである。第1の実施形態と同様な所についての説明を省略する。
(Second Embodiment)
The second embodiment will be described below. The second embodiment considers a case where the image magnification of the image imaged on the image sensor changes according to the position of the focus lens due to the optical characteristics of the optical system described later. The description of the same parts as in the first embodiment will be omitted.

図5は、本実施形態におけるデジタルカメラのハードウェア構成を示すブロック図である。 FIG. 5 is a block diagram showing the hardware configuration of the digital camera according to the present embodiment.

光学系501は、被写体からの光を結像させる。光学系501は、被写体にピントを合わせるためのフォーカスレンズとフォーカスレンズの制御機構、およびピント距離を変更するためのズームレンズとズームレンズの制御機構、さらに入射光量を調節するための絞り、の少なくとも1つ以上を有する。 The optical system 501 forms an image of light from a subject. The optical system 501 includes at least a focus lens and a focus lens control mechanism for focusing on a subject, a zoom lens and a zoom lens control mechanism for changing the focus distance, and an aperture for adjusting the amount of incident light. Have one or more.

光学系駆動部502は、第1の信号処理部102を構成する1つの部であり、光学系501のレンズ群を駆動するための電気信号を送信する。本実施形態では、光学系501のレンズ群のうち、被写体にピントを合わせるためのフォーカスレンズの制御のために、光学系駆動部502が制御信号を生成する。また、光学系駆動部502は、後述する切り出し領域決定部503に対して、フォーカスレンズを駆動するときの像倍率を送信する。 The optical system drive unit 502 is one unit that constitutes the first signal processing unit 102, and transmits an electric signal for driving the lens group of the optical system 501. In the present embodiment, the optical system drive unit 502 generates a control signal for controlling the focus lens for focusing on the subject in the lens group of the optical system 501. Further, the optical system drive unit 502 transmits the image magnification when driving the focus lens to the cutout area determination unit 503, which will be described later.

切り出し領域決定部503は、光学系駆動部502から送られた像倍率に基づいて、撮像素子101から出力された画像を後述する切り出し部504が切り出すための領域情報を生成する。 The cutout area determination unit 503 generates area information for the cutout unit 504, which will be described later, to cut out the image output from the image sensor 101 based on the image magnification sent from the optical system drive unit 502.

切り出し部504は、第1の信号処理部102を構成する1つの部であり、撮像素子101から出力された画像に対して、光学系駆動部502から送られた像倍率に基づいて、切り出しの処理を行う。切り出し部504が出力した画像信号の画素数が、切り出し部504に入力された画像信号の画素数よりも少ない。 The cutout unit 504 is one unit that constitutes the first signal processing unit 102, and cuts out the image output from the image sensor 101 based on the image magnification sent from the optical system drive unit 502. Perform processing. The number of pixels of the image signal output by the cutout unit 504 is smaller than the number of pixels of the image signal input to the cutout unit 504.

拡大部505は、切り出し部504に出力される画像信号を受け取り、画像信号の拡大の処理を行う。拡大の処理とは、画像信号の水平画素数および垂直画素数を所定倍率増加させる処理である。拡大部505が出力した画像信号の画素数が、拡大部505に入力された画像信号の画素数よりも多い。 The enlargement unit 505 receives the image signal output to the cutout unit 504 and performs an enlargement process of the image signal. The enlargement process is a process of increasing the number of horizontal pixels and the number of vertical pixels of an image signal by a predetermined magnification. The number of pixels of the image signal output by the enlargement unit 505 is larger than the number of pixels of the image signal input to the enlargement unit 505.

図6は、本実施形態における深度合成の処理を説明するためのフローチャートである。 FIG. 6 is a flowchart for explaining the process of depth synthesis in the present embodiment.

ステップS601では、光学系駆動部502が、フォーカスレンズ駆動制御信号に基づいて、フォーカスレンズを駆動する。光学系駆動部502が、フォーカスレンズ駆動制御信号を光学系501に送信する。光学系駆動部502が、フォーカスレンズの相対位置を変えることで、ピント位置を変更する。 In step S601, the optical system drive unit 502 drives the focus lens based on the focus lens drive control signal. The optical system drive unit 502 transmits a focus lens drive control signal to the optical system 501. The optical system drive unit 502 changes the focus position by changing the relative position of the focus lens.

図7は、本実施形態におけるピント位置と像倍率との関係を説明するための図である。図7の曲線701は、ピント位置が変化することで像倍率が変化する様子を示している。図7は、3枚の画像をそれぞれピント位置702、703、704で撮像する様子を示す。 FIG. 7 is a diagram for explaining the relationship between the focus position and the image magnification in the present embodiment. The curve 701 in FIG. 7 shows how the image magnification changes as the focus position changes. FIG. 7 shows how three images are captured at focus positions 702, 703, and 704, respectively.

ステップS602では、切り出し領域決定部503が画像の切り出し領域を決定する。切り出し領域決定部503は、第1の信号処理部102から受け取った画像を撮像したときの像倍率をもとに、切り出し領域を決定する。たとえば、図7に示したピント位置702、703、704における像倍率705、706、707をαn(n=0、1、2)とする。以降の説明では、像倍率705をα0、像倍率706をα1、像倍率707をα2とする。切り出し領域選択部105が、像倍率αn(n=0、1、2)のときの、切り出し開始位置と切り出し画素数とを算出する。 In step S602, the cutout area determination unit 503 determines the cutout area of the image. The cutout area determination unit 503 determines the cutout area based on the image magnification when the image received from the first signal processing unit 102 is captured. For example, the image magnifications 705, 706, and 707 at the focus positions 702, 703, and 704 shown in FIG. 7 are set to αn (n = 0, 1, 2). In the following description, the image magnification 705 is α0, the image magnification 706 is α1, and the image magnification 707 is α2. The cutout area selection unit 105 calculates the cutout start position and the number of cutout pixels when the image magnification is αn (n = 0, 1, 2).

図8は、本実施形態における画像の切り出しを説明するための図である。画像801は像倍率α0で撮像された画像で、画像802は増倍率α1で撮像された画像で、画像803は像倍率α2で撮像された画像である。このように、像場率が増加するにつれ、被写体が映る領域が狭くなり、深度合成を行う際には、像倍率が最も高い画像(画角が最も狭い)を基準に合成していくことが望ましい。したがって、像倍率が最も高い画像以外の画像は、一部の画角は合成画像に用いられていない。切り出し領域選択部105は、合成画像に用いる画角のみ切り出す。切り出し領域選択部105は、ほかの画像ともっとも像倍率が高い画像信号との相対比率(像倍率比:βn)を算出し、それをもとに切り出し開始位置と切り出し画素数を決定する。本実施形態では、切り出し領域選択部105が下記の(式1)に基づいて算出する。 FIG. 8 is a diagram for explaining the cutting out of the image in the present embodiment. Image 801 is an image captured at image magnification α0, image 802 is an image captured at magnification α1, and image 803 is an image captured at image magnification α2. In this way, as the image field ratio increases, the area in which the subject is projected becomes narrower, and when performing depth composition, it is possible to combine images based on the image with the highest image magnification (the narrowest angle of view). desirable. Therefore, some angles of view of images other than the image having the highest image magnification are not used for the composite image. The cutout area selection unit 105 cuts out only the angle of view used for the composite image. The cutout area selection unit 105 calculates the relative ratio (image magnification ratio: βn) between the other image and the image signal having the highest image magnification, and determines the cutout start position and the number of cutout pixels based on the relative ratio (image magnification ratio: βn). In the present embodiment, the cutout area selection unit 105 calculates based on the following (Equation 1).

Figure 2020145621
Figure 2020145621

切り出し領域選択部105が求めた像倍率比βnをもとに切り出し開始位置と切り出し画素数を求める。本実施形態では、左上画素を原点としたゼロオリジンの直交座標系で表すこととする。また、水平方向をx座標、垂直方向をy座標として定義する。そうすると、切り出し開始位置のx座標は下記の(式2)で算出できる。 The cutout start position and the number of cutout pixels are obtained based on the image magnification ratio βn obtained by the cutout area selection unit 105. In the present embodiment, it is represented by a zero origin Cartesian coordinate system with the upper left pixel as the origin. Further, the horizontal direction is defined as the x-coordinate and the vertical direction is defined as the y-coordinate. Then, the x-coordinate of the cutting start position can be calculated by the following (Equation 2).

Figure 2020145621
Figure 2020145621

切り出し開始位置のy座標は下記の(式3)で算出できる。 The y-coordinate of the cutting start position can be calculated by the following (Equation 3).

Figure 2020145621
Figure 2020145621

なお、pixelHとpixelVのそれぞれ、画像信号の有効領域の水平画素数と垂直画素数を表す。 It should be noted that each of pixelH and pixelV represents the number of horizontal pixels and the number of vertical pixels in the effective region of the image signal.

さらに、切り出し領域選択部105は、切り出し水平画素数pixelH’と切り出し垂直画素数pixelV’とを下記の(式4)および(式5)で算出する。 Further, the cutout area selection unit 105 calculates the number of cutout horizontal pixels pixelH'and the number of cutout vertical pixels pixelV' by the following (Equation 4) and (Equation 5).

Figure 2020145621
Figure 2020145621

図8の画像801、802、803に対して、切り出し領域選択部105が決定した切り出し領域は領域804、805、806である。なお、画像803は、像倍率が最大であるため、切り出し領域選択部105が決定した切り出し領域806と画像803と同じ大きさである。 With respect to the images 801, 802, and 803 of FIG. 8, the cutout areas determined by the cutout area selection unit 105 are the areas 804, 805, and 806. Since the image magnification of the image 803 is the maximum, the image 803 has the same size as the cutout area 806 and the image 803 determined by the cutout area selection unit 105.

なお、図7に示したようなピント位置と像倍率との関係は、光学系駆動部502の内部にある不図示の記憶部で離散的なテーブルで保持してよい。または、第1の制御部103の内部にある不図示の記憶部で離散的なテーブルとして保持して送信するようにしてもよい。また、ピント位置と像倍率との関係は、多項式などで近似可能な場合、多項式の係数のみ予め不図示の記憶部に保持するようにしてもよい。 The relationship between the focus position and the image magnification as shown in FIG. 7 may be held in a discrete table in a storage unit (not shown) inside the optical system drive unit 502. Alternatively, it may be held as a discrete table in a storage unit (not shown) inside the first control unit 103 and transmitted. Further, when the relationship between the focus position and the image magnification can be approximated by a polynomial or the like, only the coefficient of the polynomial may be stored in advance in a storage unit (not shown).

ステップS603で、切り出し部504が、切り出し領域決定部503が決定した切り出し領域を切り出す。なお、後述する拡大の処理において、切り出し領域選択部105で決定した切り出し領域よりも外側の画素が必要な場合、切り出し部504が像倍率の最も低い画像信号から該当する信号を出力するように切り出すことで、画質を向上することも可能である。 In step S603, the cutting section 504 cuts out the cutting area determined by the cutting area determining section 503. When pixels outside the cutout area determined by the cutout area selection unit 105 are required in the enlargement process described later, the cutout unit 504 cuts out the image signal having the lowest image magnification so as to output the corresponding signal. By doing so, it is possible to improve the image quality.

ステップS604で、拡大部505が拡大の処理を行う。拡大部505は、第1の信号処理部102から像倍率を受け取り、画像のサイズを所定の拡大率に従って増加させる。 In step S604, the enlargement unit 505 performs the enlargement process. The enlargement unit 505 receives the image magnification from the first signal processing unit 102 and increases the size of the image according to a predetermined enlargement ratio.

図9は、本実施形態における画像の拡大の処理を説明するための図である。画像901は像倍率α0で撮像された画像を拡大する様子を、画像902は像倍率α1で撮像された画像を拡大する様子を、画像903は像倍率α2で撮像された画像を拡大する様子を示したものである。画像901乃至903は、水平および垂直の画素数がそろっておらず、そのままでは合成処理できない。拡大部505は、各画像の像倍率比βnをもとに拡大率γnを下記の(式6)に従って算出し、拡大の処理を行う。 FIG. 9 is a diagram for explaining an image enlargement process in the present embodiment. Image 901 shows a state of enlarging an image captured at an image magnification α0, image 902 shows a state of enlarging an image captured at an image magnification α1, and image 903 shows a state of enlarging an image captured at an image magnification α2. It is shown. Images 901 to 903 do not have the same number of horizontal and vertical pixels, and cannot be combined as they are. The enlargement unit 505 calculates the enlargement ratio γn based on the image magnification ratio βn of each image according to the following (Equation 6), and performs the enlargement processing.

Figure 2020145621
Figure 2020145621

なお、画像903は、像倍率が最も大きいので、拡大の処理を行わなくてもいい。 Since the image 903 has the largest image magnification, it is not necessary to perform the enlargement processing.

なお、拡大を行うときの拡大率γnは像倍率比βnから算出する説明をしたが、ほかの算出方法として、たとえば各々の画像信号の水平画素数かまたは垂直画素数をもとにして、拡大率γnを算出することもできる。 Although the enlargement ratio γn at the time of enlargement has been described as being calculated from the image magnification ratio βn, as another calculation method, for example, the enlargement is based on the number of horizontal pixels or the number of vertical pixels of each image signal. The rate γn can also be calculated.

ステップS206で、第1の実施形態と同様に、画像信号評価部104が、拡大部505から出力された画像に対して、コントラスト値を算出し、領域選択部105に送信する。 In step S206, as in the first embodiment, the image signal evaluation unit 104 calculates the contrast value of the image output from the enlargement unit 505 and transmits it to the area selection unit 105.

なお、以上の説明では、拡大部505における拡大の処理によって各画像の被写体の大きさをそろえたが、本実施形態においては、縮小の処理をすることによって同様に被写体の大きさをそろえることでも、同様の効果を得ることができる。 In the above description, the size of the subject of each image is made uniform by the enlargement processing in the enlargement unit 505, but in the present embodiment, the size of the subject can be made uniform by the reduction processing. , The same effect can be obtained.

以上に説明したような処理より、以下の効果が得られる。撮像素子101と第1の信号処理部102とのデータの伝送レートが、第1の信号処理部102と第2の信号処理部108との間のデータの伝送レートより高い場合、以下のような処理ができる。像倍率に基づいて撮像素子101から得られる画像の画素数を減少させたのちに深度合成に必要な拡大処理を施して画像の被写体の像の大きさを合わせる。第1の信号処理部102は、深度合成の処理に用いるデータを選択し伝送することで、像倍率の変動による影響を抑えながら、第1の信号処理部102から第2の信号処理部108へ伝送するデータを抑制することができる。 The following effects can be obtained from the processing as described above. When the data transmission rate between the image pickup element 101 and the first signal processing unit 102 is higher than the data transmission rate between the first signal processing unit 102 and the second signal processing unit 108, the following Can be processed. After reducing the number of pixels of the image obtained from the image sensor 101 based on the image magnification, enlargement processing necessary for depth synthesis is performed to adjust the size of the image of the subject of the image. The first signal processing unit 102 selects and transmits data used for depth synthesis processing, thereby suppressing the influence of fluctuations in the image magnification from the first signal processing unit 102 to the second signal processing unit 108. The data to be transmitted can be suppressed.

第2の実施形態によれば、第2の信号処理部に送信するデータの中、像倍率を考慮し、深度合成の画像の作成に必要でないデータを抑制することができ、より処理負荷が低減できる画像処理を行うことができる。 According to the second embodiment, among the data transmitted to the second signal processing unit, it is possible to suppress data that is not necessary for creating a depth-combined image in consideration of the image magnification, and the processing load is further reduced. Can perform image processing that can be performed.

(第3の実施形態)
第3の実施形態では、第1の実施形態、第2の実施形態と異なり、画像間の分割領域内に含まれる被写体のサイズのばらつきや評価結果のばらつきなどを低減させるための実施形態である。
(Third Embodiment)
The third embodiment is different from the first embodiment and the second embodiment, and is an embodiment for reducing variations in the size of the subject included in the divided region between the images and variations in the evaluation result. ..

以下では、第3の実施形態について説明する。なお、第1の実施形態、第2の実施形態と同様な所について説明を省略する。 Hereinafter, the third embodiment will be described. The description of the same parts as those of the first embodiment and the second embodiment will be omitted.

図10は、本実施形態におけるデジタルカメラのハードウェア構成を示すブロック図である。画像信号評価部1001は、光学系駆動部502から送られた像倍率に基づいて、撮像素子101から得られた画像信号の評価範囲を変化させる。 FIG. 10 is a block diagram showing a hardware configuration of a digital camera according to the present embodiment. The image signal evaluation unit 1001 changes the evaluation range of the image signal obtained from the image sensor 101 based on the image magnification sent from the optical system drive unit 502.

縮小部1002は、第1の信号処理部102から送信された分割領域の画像に縮小の処理を行う。縮小の処理とは、画像信号の水平画素数および垂直画素数を所定の倍率で減少させる処理である。縮小部1002から出力される画像信号の画素数は、入力された画像信号の画素数よりも少ない。 The reduction unit 1002 performs reduction processing on the image of the divided region transmitted from the first signal processing unit 102. The reduction process is a process of reducing the number of horizontal pixels and the number of vertical pixels of an image signal by a predetermined magnification. The number of pixels of the image signal output from the reduction unit 1002 is smaller than the number of pixels of the input image signal.

図11は、本実施形態における深度合成の処理を説明するためのフローチャートである。 FIG. 11 is a flowchart for explaining the process of depth synthesis in the present embodiment.

ステップS1101では、画像信号評価部1001が画像信号の評価を行う。第1の実施形態と同様に、画像信号評価部1001が、撮像素子101から得られた画像に対して、複数の領域に分割し、複数の領域ごとにコントラスト値を算出する。 In step S1101, the image signal evaluation unit 1001 evaluates the image signal. Similar to the first embodiment, the image signal evaluation unit 1001 divides the image obtained from the image sensor 101 into a plurality of regions, and calculates a contrast value for each of the plurality of regions.

図12は、本実施形態における領域の分割を説明するための図である。図12では、画像1201に対して分割領域1202、1203を設定する様子を示している。第1の実施形態では、分割領域を互いに重ならないように説明したが、本実施形態では、分割領域1202、1203が重なっていることを示している。 FIG. 12 is a diagram for explaining the division of the region in the present embodiment. FIG. 12 shows how the divided areas 1202 and 1203 are set for the image 1201. In the first embodiment, the divided regions are described so as not to overlap each other, but in the present embodiment, it is shown that the divided regions 1202 and 1203 overlap.

合成対象となる画像ごとに同じ範囲で分割領域を設定してしまうと、光学系501に起因した像倍率変動による像信号の倍率の変化によって、各分割領域の評価結果に誤差が生じてしまうことがある。そのため、本実施形態では、誤差を低減させるたに、像倍率の変動量に応じて重なり領域を持たせるように分割領域を設定することで、像倍率の変化に対する柔軟性を確保する。 If the division area is set in the same range for each image to be combined, an error will occur in the evaluation result of each division area due to the change in the magnification of the image signal due to the change in the image magnification caused by the optical system 501. There is. Therefore, in the present embodiment, in order to reduce the error, the flexibility with respect to the change in the image magnification is ensured by setting the divided region so as to have the overlapping region according to the fluctuation amount of the image magnification.

ステップS1102では、領域選択部105は、画像信号評価部1001から受け取った評価結果をもとに、第2の信号処理部108に送信する画像信号の分割領域を選択するための領域選択情報をメモリ制御部107に送信する。領域選択部105は、各分割領域のコントラスト値に基づいて、領域の選択を行う。 In step S1102, the area selection unit 105 stores the area selection information for selecting the division area of the image signal to be transmitted to the second signal processing unit 108 based on the evaluation result received from the image signal evaluation unit 1001. It is transmitted to the control unit 107. The area selection unit 105 selects an area based on the contrast value of each divided area.

ステップ1103では、縮小部1002が縮小の処理を行う。光学系駆動部502は、像倍率を第1の制御部103に送り、第1の制御部103が像倍率のもとに縮小率を算出し、第2の制御部109に送信する。第1の信号処理部102から出力された画像の分割領域を受け取った縮小部1002は、第2の制御部109から縮小の処理を行うための縮小率を受け取り、画像信号に対して縮小の処理を行う。 In step 1103, the reduction unit 1002 performs the reduction process. The optical system drive unit 502 sends the image magnification to the first control unit 103, the first control unit 103 calculates the reduction ratio based on the image magnification, and transmits it to the second control unit 109. The reduction unit 1002, which has received the image division area output from the first signal processing unit 102, receives the reduction ratio for performing the reduction processing from the second control unit 109, and reduces the image signal. I do.

第1の制御部103が、下記の(式7)に基づいて、縮小率εnを算出する。 The first control unit 103 calculates the reduction ratio εn based on the following (Equation 7).

Figure 2020145621
Figure 2020145621

なお、以下のような方法で、第1の制御部103を経由せずに第2の制御部109が像倍率を得られる。領域選択部105は、領域選択情報とともに、画像信号評価部1001から像倍率をメモリ制御部107へ送信する。第1の信号処理部102から第2の信号処理部108へ分割領域のデータを送信する際に、像倍率を付加して送信することで、縮小部1002が像倍率を得られる。 The image magnification can be obtained by the second control unit 109 without going through the first control unit 103 by the following method. The area selection unit 105 transmits the image magnification from the image signal evaluation unit 1001 to the memory control unit 107 together with the area selection information. When the data in the divided region is transmitted from the first signal processing unit 102 to the second signal processing unit 108, the image magnification is added and transmitted, so that the reduction unit 1002 can obtain the image magnification.

記憶部111は、縮小の処理の後の分割領域を、深度合成部110を経由して記憶する。本実施形態の以降の処理は第1、第2の実施形態と同様である。ただし、記憶部111から読み出した各分割領域に重なっている領域が含まれているので、記憶するとき適宜削除の処理が必要である。 The storage unit 111 stores the divided area after the reduction process via the depth synthesis unit 110. Subsequent processing of this embodiment is the same as that of the first and second embodiments. However, since an area that overlaps each divided area read from the storage unit 111 is included, it is necessary to appropriately delete the area when storing.

なお、以上の説明では、縮小部1002における縮小の処理によって各画像の被写体の大きさをそろえたが、本実施形態においては、拡大の処理をすることによって同様に被写体の大きさをそろえることでも、同様の効果を得ることができる。 In the above description, the size of the subject of each image is made uniform by the reduction process in the reduction unit 1002, but in the present embodiment, the size of the subject can be made uniform by the enlargement process. , The same effect can be obtained.

以上に説明したような処理より、以下の効果が得られる。撮像素子101と第1の信号処理部102とのデータの伝送レートが、第1の信号処理部102と第2の信号処理部108との間のデータの伝送レートより高い場合、以下のような処理ができる。 The following effects can be obtained from the processing as described above. When the data transmission rate between the image pickup element 101 and the first signal processing unit 102 is higher than the data transmission rate between the first signal processing unit 102 and the second signal processing unit 108, the following Can be processed.

画像信号評価部1001は、光学系駆動部502から得られる像倍率をもとに分割領域を変更することにより、光学系501を駆動することによって生じた像倍率変更の影響を抑えることができる。同時に、第1の信号処理部102から第2の信号処理部108へ伝送するデータを抑制することができる。 The image signal evaluation unit 1001 can suppress the influence of the image magnification change caused by driving the optical system 501 by changing the division region based on the image magnification obtained from the optical system drive unit 502. At the same time, it is possible to suppress the data transmitted from the first signal processing unit 102 to the second signal processing unit 108.

なお、本実施形態では、画像信号評価部1001が、光学系駆動部502から得られる像倍率に応じて、分割領域のサイズを変更するようにしてもよい。図13は、本実施形態における像倍率に応じる分割領域の設定を説明するための図である。図13は、3枚の画像1301、1302、1303に対して分割領域を設定している様子を示している。画像1301は像倍率α0で撮像された画像であり、画像1302は像倍率α1で撮像された画像であり、画像1303は像倍率α2で撮像された画像である。図13に示した点線で区切られた領域が1つの分割領域を示しており、1つの分割領域の水平方向のサイズと垂直方向のサイズを、像倍率に応じて変更していることが示されている。画像1303の分割領域を水平4分割、垂直3分割に均等分割した時、像倍率が最も大きい画像1303の分割領域を基準にして、画像1301の分割領域の水平サイズを像倍率の比率に応じて小さくする。画像に含まれている被写体の像の大きさが変化しても、画像間で評価している領域が変化しないため、評価結果の信頼性を向上させることができる。 In this embodiment, the image signal evaluation unit 1001 may change the size of the divided region according to the image magnification obtained from the optical system driving unit 502. FIG. 13 is a diagram for explaining the setting of the divided region according to the image magnification in the present embodiment. FIG. 13 shows how the division area is set for the three images 1301, 1302, and 1303. Image 1301 is an image captured at an image magnification α0, image 1302 is an image captured at an image magnification α1, and image 1303 is an image captured at an image magnification α2. The area separated by the dotted line shown in FIG. 13 indicates one divided area, and it is shown that the horizontal size and the vertical size of one divided area are changed according to the image magnification. ing. When the divided area of the image 1303 is evenly divided into four horizontal divisions and three vertical divisions, the horizontal size of the divided area of the image 1301 is set according to the ratio of the image magnification based on the divided area of the image 1303 having the largest image magnification. Make it smaller. Even if the size of the image of the subject included in the image changes, the area being evaluated does not change between the images, so that the reliability of the evaluation result can be improved.

第3の実施形態によれば、第2の信号処理部に送信するデータの中、画像間の評価のばらつきを考慮し、深度合成の画像の作成に必要でないデータを抑制することができ、より処理負荷が低減できる画像処理を行うことができる。 According to the third embodiment, among the data transmitted to the second signal processing unit, it is possible to suppress the data that is not necessary for creating the image of the depth composition in consideration of the variation in the evaluation between the images. Image processing that can reduce the processing load can be performed.

(その他の実施形態)
以上の実施形態は、デジタルカメラでの実施をもとに説明したが、デジタルカメラに限定するものではない。たとえば、撮像素子が内蔵した携帯機器などで実施してもよく、画像を撮像することができるネットワークカメラなどでもよい。また、撮像された画像を、デジタルカメラ以外の処理装置に、以上に説明したような方法で処理装置を動作させてもよい。
(Other embodiments)
Although the above embodiment has been described based on the implementation using a digital camera, the present embodiment is not limited to the digital camera. For example, it may be carried out by a portable device having a built-in image sensor, or a network camera capable of capturing an image. Further, the captured image may be operated on a processing device other than the digital camera by the method described above.

なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 In the present invention, a program that realizes one or more functions of the above-described embodiment is supplied to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device program. It can also be realized by the process of reading and operating. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101 撮像素子
102 第1の信号処理部
103 第1の制御部
104 画像信号評価部
105 領域選択部
106 フレームメモリ
107 メモリ制御部
108 第2の信号処理部
109 第2の制御部
110 深度合成部
111 記憶部
501 光学系
502 光学系駆動部
503 切り出し領域決定部
504 切り出し部
505 拡大部
1001 画像信号評価部
1002 縮小部
101 Image sensor 102 First signal processing unit 103 First control unit 104 Image signal evaluation unit 105 Area selection unit 106 Frame memory 107 Memory control unit 108 Second signal processing unit 109 Second control unit 110 Depth synthesis unit 111 Storage unit 501 Optical system 502 Optical system drive unit 503 Cutout area determination unit 504 Cutout unit 505 Enlargement unit 1001 Image signal evaluation unit 1002 Reduction unit

Claims (19)

複数の画像を取得する取得手段と、
前記取得手段から前記複数の画像の信号を受け取り、前記複数の画像に対して分割を行い、前記複数の画像のそれぞれにおいて複数の分割領域に設定する第1の処理手段と、
前記第1の処理手段から前記複数の分割領域のうち、一部の分割領域の信号を受け取り、深度合成の画像を生成する第2の処理手段と、を有し、
前記第2の処理手段が前記第1の処理手段から信号を受け取る伝送レートが、前記第1の処理手段が前記取得手段から信号を受け取る伝送レートよりも低いことを特徴とする画像処理装置。
An acquisition method for acquiring multiple images,
A first processing means that receives signals of the plurality of images from the acquisition means, divides the plurality of images, and sets a plurality of divided regions in each of the plurality of images.
It has a second processing means that receives a signal of a part of the divided regions from the first processing means and generates an image of depth composition.
An image processing apparatus characterized in that the transmission rate at which the second processing means receives a signal from the first processing means is lower than the transmission rate at which the first processing means receives a signal from the acquisition means.
前記第1の処理手段が、前記複数の画像のそれぞれにおける前記分割領域に対して評価を行い、前記評価の結果に基づいて、前記分割領域を選択することを特徴とする請求項1に記載の画像処理装置。 The first aspect of claim 1, wherein the first processing means evaluates the divided region in each of the plurality of images and selects the divided region based on the result of the evaluation. Image processing device. 前記第1の処理手段が、前記評価で前記複数の分割領域の少なくとも一部の分割領域ごとに評価値を算出することを特徴とする請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the first processing means calculates an evaluation value for each of at least a part of the divided regions in the evaluation. 前記第2の処理手段が、前記第1の処理手段が選択した前記分割領域の信号を受け取ることを特徴とする請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the second processing means receives a signal of the divided region selected by the first processing means. 前記第2の処理手段が、前記評価値が予め定められた閾値以上の前記分割領域の信号を受け取ることを特徴とする請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the second processing means receives a signal in the divided region whose evaluation value is equal to or higher than a predetermined threshold value. 前記第2の処理手段が、前記評価値が大きい順番で所定の数の前記分割領域の信号を受け取ることを特徴とする請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the second processing means receives a predetermined number of signals of the divided region in descending order of the evaluation values. 前記第1の処理手段が、前記分割領域のコントラスト値を算出し、前記コントラスト値に基づいて前記評価を行うことを特徴とする請求項2乃至6のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 2 to 6, wherein the first processing means calculates a contrast value of the divided region and performs the evaluation based on the contrast value. 前記第1の処理手段が、前記分割領域に対して周波数の解析の行い、前記周波数の解析の結果に基づいて前記評価を行うことを特徴とする請求項2乃至6のいずれか1項に記載の画像処理装置。 The invention according to any one of claims 2 to 6, wherein the first processing means performs frequency analysis on the divided region and performs the evaluation based on the result of the frequency analysis. Image processing equipment. 前記第2の処理手段が、前記複数の分割領域のうち、同じ位置にあるものうちのいずれも前記第1の処理手段に選択されていない前記分割領域のすくなくとも1つを、受け取ることを特徴とする請求項2乃至8のいずれか1項に記載の画像処理装置。 The second processing means receives at least one of the divided regions that is not selected as the first processing means among the plurality of divided regions at the same position. The image processing apparatus according to any one of claims 2 to 8. 前記第1の処理手段が、前記分割領域を互いに重なるように設定することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 9, wherein the first processing means sets the divided regions so as to overlap each other. 前記第1の処理手段が、前記画像に対して拡大または縮小の処理を行うことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10, wherein the first processing means performs enlargement or reduction processing on the image. 前記第1の処理手段が、前記画像が撮像された光学系の情報に基づいて、前記拡大または縮小の処理を行うことを特徴とする請求項11に記載の画像処理装置。 The image processing apparatus according to claim 11, wherein the first processing means performs the enlargement or reduction processing based on the information of the optical system in which the image is captured. 前記第1の処理手段が、前記画像が撮像された光学系の情報に基づいて、前記分割領域の大きさを変更することを特徴とする請求項11に記載の画像処理装置。 The image processing apparatus according to claim 11, wherein the first processing means changes the size of the divided region based on the information of the optical system in which the image is captured. 前記光学系の情報は、前記画像が撮像されたときのピント位置を含むことを特徴とする請求項12または13に記載の画像処理装置。 The image processing apparatus according to claim 12, wherein the information of the optical system includes a focus position when the image is captured. 前記光学系の情報は、前記画像が撮像されたときのフォーカスレンズの位置を含むことを特徴とする請求項12または13に記載の画像処理装置。 The image processing apparatus according to claim 12, wherein the information of the optical system includes a position of a focus lens when the image is captured. 前記第1の処理手段が、前記複数の画像に対して切り出しの処理を行うことを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 15, wherein the first processing means performs a cropping process on the plurality of images. 複数の画像を撮像する撮像手段と、
前記撮像手段から前記複数の画像の信号を受け取り、前記複数の画像に対して分割を行い、前記複数の画像のそれぞれにおいて複数の分割領域に設定する第1の処理手段と、
前記第1の処理手段から前記複数の分割領域のうち、一部の分割領域の信号を受け取り、深度合成の画像を生成する第2の処理手段と、を有し、
前記第2の処理手段が前記第1の処理手段から信号を受け取る伝送レートが、前記第1の処理手段が前記撮像手段から信号を受け取る伝送レートよりも低いことを特徴とする撮像装置。
An imaging means that captures multiple images and
A first processing means that receives signals of the plurality of images from the imaging means, divides the plurality of images, and sets a plurality of divided regions in each of the plurality of images.
It has a second processing means that receives a signal of a part of the divided regions from the first processing means and generates an image of depth composition.
An imaging device characterized in that the transmission rate at which the second processing means receives a signal from the first processing means is lower than the transmission rate at which the first processing means receives a signal from the imaging means.
取得手段が複数の画像を取得する取得ステップと、
第1の処理手段が、前記取得手段から前記複数の画像の信号を受け取り、前記複数の画像に対して分割を行い、前記複数の画像のそれぞれにおいて複数の分割領域に設定する第1の処理ステップと、
第2の処理手段が前記第1の処理手段から前記複数の分割領域のうち、一部の分割領域の信号を受け取り、深度合成の画像を生成する第2の処理ステップと、を有し、
前記第2の処理手段が前記第1の処理手段から信号を受け取る伝送レートが、前記第1の処理手段が前記取得手段から信号を受け取る伝送レートよりも低いことを特徴とする画像処理方法。
An acquisition step in which the acquisition method acquires multiple images,
A first processing step in which the first processing means receives signals of the plurality of images from the acquisition means, divides the plurality of images, and sets each of the plurality of images in a plurality of divided regions. When,
The second processing means has a second processing step of receiving a signal of a part of the divided regions from the first processing means and generating an image of depth composition.
An image processing method characterized in that the transmission rate at which the second processing means receives a signal from the first processing means is lower than the transmission rate at which the first processing means receives a signal from the acquisition means.
画像処理装置をコンピュータに動作させるコンピュータのプログラムであって、
取得手段が複数の画像を取得する取得ステップと、
第1の処理手段が、前記取得手段から前記複数の画像の信号を受け取り、前記複数の画像に対して分割を行い、前記複数の画像のそれぞれにおいて複数の分割領域に設定する第1の処理ステップと、
第2の処理手段が前記第1の処理手段から前記複数の分割領域のうち、一部の分割領域の信号を受け取り、深度合成の画像を生成する第2の処理ステップと、を行わせ、
前記第2の処理手段が前記第1の処理手段から信号を受け取る伝送レートが、前記第1の処理手段が前記取得手段から信号を受け取る伝送レートよりも低いことを特徴とするプログラム。
A computer program that operates an image processing device on a computer.
An acquisition step in which the acquisition method acquires multiple images,
A first processing step in which the first processing means receives signals of the plurality of images from the acquisition means, divides the plurality of images, and sets each of the plurality of images in a plurality of divided regions. When,
The second processing means receives a signal of a part of the divided regions from the first processing means from the first processing means, and performs a second processing step of generating an image of depth composition.
A program characterized in that the transmission rate at which the second processing means receives a signal from the first processing means is lower than the transmission rate at which the first processing means receives a signal from the acquisition means.
JP2019041912A 2019-03-07 2019-03-07 Image processing device, imaging device, image processing method and program Active JP7446715B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019041912A JP7446715B2 (en) 2019-03-07 2019-03-07 Image processing device, imaging device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019041912A JP7446715B2 (en) 2019-03-07 2019-03-07 Image processing device, imaging device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2020145621A true JP2020145621A (en) 2020-09-10
JP7446715B2 JP7446715B2 (en) 2024-03-11

Family

ID=72354623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019041912A Active JP7446715B2 (en) 2019-03-07 2019-03-07 Image processing device, imaging device, image processing method and program

Country Status (1)

Country Link
JP (1) JP7446715B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04165773A (en) * 1990-10-29 1992-06-11 Toshiba Corp Video camera
JP2016046562A (en) * 2014-08-20 2016-04-04 株式会社東芝 Electronic apparatus, method and program
JP2017098631A (en) * 2015-11-18 2017-06-01 オリンパス株式会社 Image combination processing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04165773A (en) * 1990-10-29 1992-06-11 Toshiba Corp Video camera
JP2016046562A (en) * 2014-08-20 2016-04-04 株式会社東芝 Electronic apparatus, method and program
JP2017098631A (en) * 2015-11-18 2017-06-01 オリンパス株式会社 Image combination processing device

Also Published As

Publication number Publication date
JP7446715B2 (en) 2024-03-11

Similar Documents

Publication Publication Date Title
US11470257B2 (en) Dual aperture zoom digital camera
JP6204660B2 (en) Imaging apparatus and control method thereof
JP6800797B2 (en) Image pickup device, image processing device, control method and program of image pickup device
JP4641494B2 (en) Optical equipment
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
JP6838994B2 (en) Imaging device, control method and program of imaging device
KR102209066B1 (en) Method and apparatus for image composition using multiple focal length
JP2005210217A (en) Stereoscopic camera
JP2012160863A (en) Imaging apparatus, image reproducing apparatus, and image processing apparatus
JP6786311B2 (en) Image processing equipment, image processing methods, computer programs and storage media
JP6752685B2 (en) Imaging equipment, imaging methods and programs
JP5889022B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP6621027B2 (en) Imaging device
JP2020145621A (en) Image processing system, imaging apparatus, image processing method, and program
JP6645711B2 (en) Image processing apparatus, image processing method, and program
JP7214511B2 (en) Image processing device, imaging device, image processing method and program
JP6351255B2 (en) Imaging apparatus, imaging method, program, and storage medium
JP2010250345A (en) Optical apparatus
JP2019047145A (en) Image processing system, imaging apparatus, control method and program of image processing system
JP2020160773A (en) Image processing device, imaging device, image processing method, and program
JP6087617B2 (en) Imaging apparatus and control method thereof
JP6953594B2 (en) Image processing equipment, imaging equipment, image processing methods, programs and recording media
JP5641911B2 (en) Image processing apparatus, control method thereof, and control program
JP2011043841A (en) Optical apparatus
JP2019161532A (en) Imaging apparatus, control method and program of imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231102

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240228

R151 Written notification of patent or utility model registration

Ref document number: 7446715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151