JP2017139646A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2017139646A
JP2017139646A JP2016019836A JP2016019836A JP2017139646A JP 2017139646 A JP2017139646 A JP 2017139646A JP 2016019836 A JP2016019836 A JP 2016019836A JP 2016019836 A JP2016019836 A JP 2016019836A JP 2017139646 A JP2017139646 A JP 2017139646A
Authority
JP
Japan
Prior art keywords
classification
subject
imaging
image
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016019836A
Other languages
Japanese (ja)
Inventor
広靖 上原
Hiroyasu Uehara
広靖 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Imaging Co Ltd
Original Assignee
Ricoh Imaging Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Imaging Co Ltd filed Critical Ricoh Imaging Co Ltd
Priority to JP2016019836A priority Critical patent/JP2017139646A/en
Publication of JP2017139646A publication Critical patent/JP2017139646A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To ensure real time property of scene discrimination which is conventionally damaged because estimation of imaging scene consumes time when a high-level algorithm such as a convolution neural network is boarded.SOLUTION: An imaging apparatus comprises: a photometric sensor for performing photometry of a field; estimation means which estimates the classification of a subject in the field on the basis of photometric data outputted by the photometric sensor; setting means which sets imaging conditions on the basis of the estimated classification; and imaging means for imaging the subject under the set imaging conditions.SELECTED DRAWING: Figure 2

Description

本発明は、撮影装置に関する。   The present invention relates to a photographing apparatus.

ディープラーニング技術を用いて画像データを解析するアルゴリズムが知られている。例えば特許文献1に、ディープラーニングの一種である畳み込みニューラルネットワークを用いて画像データの分類を推定する方法が記載されている。   An algorithm for analyzing image data using a deep learning technique is known. For example, Patent Document 1 describes a method for estimating the classification of image data using a convolutional neural network which is a kind of deep learning.

デジタルカメラ等の撮影装置の技術分野においては、この種の方法を用いてリアルタイムのスルー画(ライブビュー)や記録画像のデータを解析して分類(撮影シーン)を推定し、推定される撮影シーンに応じた条件で被写体を撮影する技術が知られている。   In the technical field of photographing devices such as digital cameras, this kind of method is used to analyze real-time live view (live view) and recorded image data to estimate classification (shooting scene) and to estimate the shooting scene Techniques for photographing a subject under conditions according to the conditions are known.

特開2015−32308号公報Japanese Patent Laying-Open No. 2015-32308

撮影装置では、撮影画像について基本的な処理(撮像、保存、ライブビュー表示等の各種処理)を実行する必要があるため、撮影画像に基づく撮影シーンの推定処理に割り当てることが可能なリソースが限られる。そのため、畳み込みニューラルネットワーク等の高度なアルゴリズムを実装すると、撮影シーンの推定処理に時間がかかってしまい、シーン判別のリアルタイム性が損なわれるという問題が指摘される。   In the imaging device, basic processing (various processing such as imaging, storage, live view display, etc.) needs to be performed on the captured image. It is done. For this reason, when a sophisticated algorithm such as a convolutional neural network is implemented, it takes a long time to estimate a shooting scene, and the real-time property of scene discrimination is impaired.

本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、撮影シーンの推定処理を高速に実行するのに好適な撮影装置を提供することである。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a photographing apparatus suitable for executing a photographing scene estimation process at high speed.

本発明の一実施形態に係る撮影装置は、被写界を測光する測光センサと、測光センサより出力される測光データに基づいて被写界内の被写体の分類を推定する推定手段と、推定された分類に基づいて撮影条件を設定する設定手段と、設定された撮影条件で被写体を撮像する撮像手段とを備える。   An imaging apparatus according to an embodiment of the present invention includes a photometric sensor that performs photometry of an object scene, and an estimation unit that estimates a classification of a subject in the object scene based on photometric data output from the photometry sensor. Setting means for setting shooting conditions based on the classification, and imaging means for imaging a subject under the set shooting conditions.

また、本発明の一実施形態に係る撮影装置は、被写界を測光する測光センサと、測光センサより出力される測光データに基づいて被写界内の被写体の分類を推定する推定手段と、推定された分類に基づいて画像パラメータを設定する設定手段と、被写体を撮像する撮像手段と、設定された画像パラメータを用いて撮像手段より出力される画像データを処理する処理手段とを備える。   Further, an imaging device according to an embodiment of the present invention includes a photometric sensor that measures a scene, and an estimation unit that estimates a classification of a subject in the scene based on photometric data output from the photometric sensor; A setting unit configured to set an image parameter based on the estimated classification; an imaging unit configured to capture an image of the subject; and a processing unit configured to process image data output from the imaging unit using the set image parameter.

また、本発明の一実施形態において、推定手段は、被写体の分類の推定処理をパイプラインで実行する構成としてもよい。   In one embodiment of the present invention, the estimation means may be configured to execute subject classification estimation processing in a pipeline.

また、本発明の一実施形態において、推定手段は、被写体の分類の推定処理を時分割で実行する構成としてもよい。   In one embodiment of the present invention, the estimation means may be configured to execute subject classification estimation processing in a time-sharing manner.

また、本発明の一実施形態において、推定手段は、畳み込みニューラルネットワークを用いて被写体の分類を推定する構成としてもよい。   In one embodiment of the present invention, the estimation means may be configured to estimate the subject classification using a convolutional neural network.

また、本発明の一実施形態において、推定手段は、畳み込みニューラルネットワークを用いて被写体の各分類候補を要素とする確信度ベクトルを取得し、取得された確信度ベクトルの要素同士を相互作用させるマトリックス演算を行うことにより、該確信度ベクトルを補正し、補正後の確信度ベクトルに基づいて被写体の分類を推定する構成としてもよい。   In one embodiment of the present invention, the estimation means obtains a confidence vector having each classification candidate of the subject as an element using a convolutional neural network, and causes the elements of the obtained confidence vector to interact with each other. A configuration may be adopted in which the certainty factor vector is corrected by performing calculation, and the classification of the subject is estimated based on the corrected certainty factor vector.

本発明の一実施形態によれば、撮影シーンの推定処理を高速に実行するのに好適な撮影装置が提供される。   According to an embodiment of the present invention, a photographing apparatus suitable for executing a photographing scene estimation process at high speed is provided.

本発明の一実施形態に係る撮影装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on one Embodiment of this invention. 本発明の一実施形態において実行される第一の動作フローを示す図である。It is a figure which shows the 1st operation | movement flow performed in one Embodiment of this invention. 本発明の一実施形態に係る撮影装置に備えられる画像分類部による推定処理の実行タイミングを示す図である。It is a figure which shows the execution timing of the estimation process by the image classification part with which the imaging device which concerns on one Embodiment of this invention is equipped. 本発明の一実施形態において実行される第二の動作フローを示す図である。It is a figure which shows the 2nd operation | movement flow performed in one Embodiment of this invention.

以下、本発明の一実施形態に係る撮影装置について図面を参照しながら説明する。以下においては、本発明の一実施形態として、クイックリターン式のミラー搭載のデジタル一眼レフカメラについて説明する。   An imaging apparatus according to an embodiment of the present invention will be described below with reference to the drawings. In the following, a digital single-lens reflex camera equipped with a quick return type mirror will be described as an embodiment of the present invention.

[撮影装置1の構成]
図1は、本発明の一実施形態に係る撮影装置1の構成を示すブロック図である。図1に示されるように、撮影装置1は、撮影レンズ101、絞り機構102、メインミラー103、シャッタ機構104、イメージセンサ105、イメージセンサ用ドライバ106、AE(Automatic Exposure)センサ107、AEセンサ用ドライバ108、画像変換部109、撮影条件設定部110、画像パラメータ設定部111、絞り制御部112、シャッタ制御部113、機構制御部114、画像分類部115、画像保存部116、画像表示部117及び操作部118を備えている。なお、撮影レンズ101は複数枚構成であるが、図1においては便宜上一枚のレンズとして示す。また、図1においては、図面の複雑化を避ける便宜上、ブロック間の結線を適宜省略している。
[Configuration of the photographing apparatus 1]
FIG. 1 is a block diagram showing a configuration of a photographing apparatus 1 according to an embodiment of the present invention. As shown in FIG. 1, the photographing apparatus 1 includes a photographing lens 101, a diaphragm mechanism 102, a main mirror 103, a shutter mechanism 104, an image sensor 105, an image sensor driver 106, an AE (Automatic Exposure) sensor 107, and an AE sensor. Driver 108, image conversion unit 109, shooting condition setting unit 110, image parameter setting unit 111, aperture control unit 112, shutter control unit 113, mechanism control unit 114, image classification unit 115, image storage unit 116, image display unit 117, and An operation unit 118 is provided. Although the photographing lens 101 has a plurality of lenses, it is shown as a single lens for convenience in FIG. Further, in FIG. 1, connection between blocks is omitted as appropriate for the sake of avoiding the complexity of the drawing.

被写体からの光束(被写体光束)は、撮影レンズ101及び絞り機構102を介してメインミラー103により、図示省略されたファインダ光学系に向かって反射される。被写体光束は、ファインダ光学系が有するペンタプリズムの各反射面にて反射されることによって正立像となり、接眼レンズに入射される。被写体光束は、接眼レンズにより、ユーザの観察に適する虚像に再結像される。ユーザは、接眼レンズによって再結像された被写体像(虚像)を、ファインダ窓を覗くことにより観察することができる。   A luminous flux from the subject (subject luminous flux) is reflected by the main mirror 103 via the photographing lens 101 and the diaphragm mechanism 102 toward a finder optical system (not shown). The subject luminous flux is reflected on each reflecting surface of the pentaprism of the finder optical system to become an erect image and is incident on the eyepiece. The subject luminous flux is re-imaged by the eyepiece into a virtual image suitable for the user's observation. The user can observe the subject image (virtual image) re-formed by the eyepiece lens by looking through the viewfinder window.

操作部118には、電源スイッチやレリーズスイッチ、撮影モードスイッチなど、ユーザが撮影装置1を操作するために必要な各種スイッチが含まれる。ユーザにより電源スイッチが操作されると、図示省略されたバッテリから撮影装置1の各種回路に電源ラインを通じて電源供給が行われる。   The operation unit 118 includes various switches necessary for the user to operate the photographing apparatus 1, such as a power switch, a release switch, and a photographing mode switch. When the user operates the power switch, power is supplied from the battery (not shown) to the various circuits of the photographing apparatus 1 through the power line.

ペンタプリズムの一部の領域は、ハーフミラー領域となっている。ペンタプリズムの各反射面にて反射される被写体光束の一部は、ハーフミラー領域を介してAEセンサ107にて受光される。   A part of the pentaprism is a half mirror region. Part of the subject light beam reflected by each reflecting surface of the pentaprism is received by the AE sensor 107 via the half mirror region.

AEセンサ107は、AEセンサ用ドライバ108によって駆動され、被写界を複数の測光領域に分割して測光するものであり、例示的には、複数の測光領域(画素)がマトリックス状に配列されたカラーフィルタ搭載の二次元センサ(例えばCCD(Charge Coupled Device))である。   The AE sensor 107 is driven by an AE sensor driver 108 and divides the object field into a plurality of photometric areas, and measures the light. For example, the plurality of photometric areas (pixels) are arranged in a matrix. A two-dimensional sensor (for example, CCD (Charge Coupled Device)) equipped with a color filter.

AEセンサ107は、被写体光束を取り込んで測光データを出力する。具体的には、AEセンサ107は、測光面上の各画素で結像した光学像を光量に応じた電荷として蓄積して、カラー情報を持つ測光データを生成して出力する。AEセンサ107より出力される各画素の測光データは、AEセンサ用ドライバ108を介して画像変換部109に入力される。   The AE sensor 107 takes in the subject luminous flux and outputs photometric data. Specifically, the AE sensor 107 accumulates an optical image formed by each pixel on the photometric surface as a charge corresponding to the amount of light, and generates and outputs photometric data having color information. Photometric data of each pixel output from the AE sensor 107 is input to the image conversion unit 109 via the AE sensor driver 108.

[第一の動作フロー]
本実施形態では、AEセンサ107より出力される各画素の測光データに基づいて被写界内の被写体の分類(言い換えると撮影シーン)が推定される。撮影シーンには、例えば、「花」、「犬」、「夜景」、「料理」、「海」等が挙げられる。
[First operation flow]
In the present embodiment, the classification of the subject in the object scene (in other words, the shooting scene) is estimated based on the photometric data of each pixel output from the AE sensor 107. Examples of the shooting scene include “flower”, “dog”, “night view”, “cooking”, “sea”, and the like.

図2に、第一の動作フローを示す。図2に示される第一の動作フローは、撮影シーンを推定して撮影を行い、撮影画像データを保存・表示するまでの一連の動作を示すフローチャートである。図2に示される第一の動作フローは、例えば、AEセンサ107より出力された各画素の測光データが画像変換部109に入力された時点で開始される。   FIG. 2 shows a first operation flow. The first operation flow shown in FIG. 2 is a flowchart showing a series of operations from estimating a shooting scene to shooting and storing / displaying shot image data. The first operation flow illustrated in FIG. 2 is started when, for example, the photometric data of each pixel output from the AE sensor 107 is input to the image conversion unit 109.

[図2のS11(AEセンサ107より出力される画像信号の変換)]
本処理ステップS11では、画像変換部109が測光演算を行って測光結果を取得する。具体的には、画像変換部109は、各画素の測光データ(RAW形式の画像信号)に所定の信号処理を施すことにより、低解像度ではあるが、被写体の形や色を判別できる程度の情報を持つRGB形式(又はYCbCr形式)の画像信号に変換する。
[S11 in FIG. 2 (Conversion of Image Signal Output from AE Sensor 107)]
In this processing step S11, the image conversion unit 109 performs a photometric calculation and acquires a photometric result. Specifically, the image conversion unit 109 performs predetermined signal processing on the photometric data (RAW format image signal) of each pixel, so that the information has a low resolution but can determine the shape and color of the subject. Is converted into an image signal in RGB format (or YCbCr format).

[図2のS12(撮影シーンの推定)]
本処理ステップS12では、画像分類部115により、画像変換部109より入力されるRGB形式(又はYCbCr形式)の画像信号に基づいて、AEセンサ107にて取り込まれた被写界の撮影シーンが推定される。
[S12 in FIG. 2 (Shooting Scene Estimation)]
In this processing step S12, the image classification unit 115 estimates the shooting scene of the scene captured by the AE sensor 107 based on the RGB (or YCbCr format) image signal input from the image conversion unit 109. Is done.

本実施形態では、撮影シーンを推定するため、畳み込みニューラルネットワークが用いられる。画像分類部115に実装されている畳み込みニューラルネットワークでは、畳み込み層(Convolution Layer)とプーリング層(Pooling Layer)とが繰り返されることにより、AEセンサ107にて取り込まれた被写界内の被写体を抽象化した抽象画像データが生成される。生成された抽象画像データは、一次元のベクトルデータに変換されて、全結合層(Full Connection layer)に入力される。   In the present embodiment, a convolutional neural network is used to estimate a shooting scene. In the convolutional neural network implemented in the image classification unit 115, an object in the object scene captured by the AE sensor 107 is abstracted by repeating a convolution layer and a pooling layer. Abstracted image data is generated. The generated abstract image data is converted into one-dimensional vector data and input to a full connection layer.

全結合層では、学習結果から撮影シーン候補毎に値のセット(調整値b及び係数wij)が与えられており、次式を用いた積和演算が撮影シーン候補毎に行われる。
(積和演算式)

Figure 2017139646
i :一次元に変換された入力ベクトルデータの各要素を示す値
j :対象の撮影シーン候補を認識する場合とそれ以外を認識する場合とを区別するための値(例えば前者の場合j=1で後者の場合j=2)
:入力ベクトルデータの各要素iの値
:入力ベクトルデータの各要素iについての積和演算結果
:事前の学習結果から与えられる値であって、入力ベクトルデータの各要素iの調整値
ij :事前の学習結果から与えられる値であって、入力ベクトルデータの各要素iの係数(対象の撮影シーン候補を認識する場合の係数wi1と、それ以外を認識する場合の係数wi2) In the fully connected layer, a set of values (adjustment value b i and coefficient w ij ) is given for each shooting scene candidate from the learning result, and a product-sum operation using the following equation is performed for each shooting scene candidate.
(Multiply-accumulate expression)
Figure 2017139646
i: Value indicating each element of input vector data converted to one dimension j: Value for distinguishing between the case of recognizing a target photographing scene candidate and the case of recognizing the other (for example, j = 1 in the former case) In the latter case, j = 2)
x i : the value of each element i of the input vector data y i : the product-sum operation result b i for each element i of the input vector data b i : the value given from the previous learning result, and each element i of the input vector data Adjustment value w ij : A value given from a prior learning result, which is a coefficient of each element i of the input vector data (coefficient w i1 for recognizing the target photographing scene candidate and other cases for recognizing the other Coefficient w i2 )

撮影シーン候補毎の積和演算結果yが最終層であるsoftmax層で正規化される。画像分類部115は、softmax層で正規化された値に基づいて撮影シーンを推定する。 The product-sum operation result y i for each shooting scene candidate is normalized in the softmax layer, which is the final layer. The image classification unit 115 estimates a photographic scene based on the value normalized in the softmax layer.

なお、ユーザは、畳み込み層(Convolution Layer)の空間フィルタ及び値のセット(調整値b及び係数wij)を別の撮影シーン候補に適したデータに書き換えることにより、画像分類部115によって推定可能な撮影シーンを設定変更することができる。また、ユーザは、既存の撮影シーン候補について畳み込み層の空間フィルタ及び値のセット(調整値b及び係数wij)を更新することもできる。 Note that the user can estimate by the image classification unit 115 by rewriting the spatial filter and value set (adjustment value b i and coefficient w ij ) of the convolution layer with data suitable for another shooting scene candidate. You can change the setting of the shooting scene. The user can also update the spatial filter and value set (adjustment value b i and coefficient w ij ) of the convolution layer for existing shooting scene candidates.

また、softmax層の出力から、被写体の各撮影シーン候補を要素とする確信度ベクトルが得られる。本実施形態では、最終的に得られる確信度を高めるため、確信度ベクトルの要素同士を相互作用させるマトリックス演算が行われてもよい(例えば特開平4−1870号公報参照)。下記に、マトリックス演算例を示す。
(マトリックス演算例)

Figure 2017139646
x :確信度ベクトル(softmax層から出力されるベクトル)
ij : 確信度ベクトル相互作用マトリックス
y :確信度ベクトル(最終値) In addition, a confidence vector having each photographing scene candidate of the subject as an element is obtained from the output of the softmax layer. In the present embodiment, in order to increase the finally obtained certainty factor, a matrix operation for causing the elements of the certainty factor vector to interact with each other may be performed (see, for example, JP-A-4-1870). An example of matrix calculation is shown below.
(Matrix calculation example)
Figure 2017139646
x: confidence vector (vector output from softmax layer)
a ij : Certainty vector interaction matrix y: Certainty vector (final value)

例えば、softmax層から出力される「花」、「夜景」、「料理」、「海」の各要素の確信度ベクトルが、それぞれ、「0」、「1」、「2」、「3」である場合を考える。この場合、上記のマトリックス演算が行われることにより、撮影シーンを推定するにあたり、「花」の確信度がより大きい値で扱われる。なお、焦点距離から得られる像倍率や焦点距離を加味して確信度の精度をより一層向上させることにより、撮影シーンがより高精度に推定されるようにしてもよい。   For example, the certainty factor vectors of “flower”, “night view”, “dish”, and “sea” output from the softmax layer are “0”, “1”, “2”, and “3”, respectively. Consider a case. In this case, when the above-described matrix calculation is performed, the certainty factor of “flower” is handled with a larger value in estimating the shooting scene. Note that the photographic scene may be estimated with higher accuracy by further improving the accuracy of the certainty factor in consideration of the image magnification and the focal length obtained from the focal length.

一般に、畳み込みニューラルネットワーク等の高度なアルゴリズムの実行には膨大な計算量が必要とされる。そのため、当該処理の実行にリソースが占有されて、他の処理の実行に支障をきたす虞がある。そこで、本実施形態では、撮影シーンの推定処理が時分割で実行される。図3に、画像分類部115による推定処理の実行タイミングを例示する図を示す。   In general, a huge amount of calculation is required to execute an advanced algorithm such as a convolutional neural network. For this reason, there is a possibility that resources are occupied for execution of the processing, which hinders execution of other processing. Therefore, in this embodiment, the shooting scene estimation process is executed in a time-sharing manner. FIG. 3 is a diagram illustrating the execution timing of the estimation process performed by the image classification unit 115.

図3に示されるように、AEセンサ107による取り込み処理及び測光演算は、毎フレーム実行される。画像分類部115による撮影シーンの推定処理は、AEセンサ107による測光演算後から次フレームの取り込み処理までの期間(以下、説明の便宜上「リソース空き期間」と記す。)を利用して時分割で実行される。   As shown in FIG. 3, the capturing process and the photometric calculation by the AE sensor 107 are executed every frame. The shooting scene estimation processing by the image classification unit 115 is time-shared using a period from the photometry calculation by the AE sensor 107 to the capture processing of the next frame (hereinafter referred to as “resource idle period” for convenience of explanation). Executed.

図3の例では、リソース空き期間に初回の畳み込み(図3中「convolution 1」)及び初回のプーリング(図3中「pooling 1」)が実行されると、次フレームのリソース空き期間に二回目の畳み込み(図3中「convolution 2」)及び二回目のプーリング(図3中「pooling 1」)が実行され、更に、次フレームのリソース空き期間に三回目の畳み込み図3中「convolution 3」)が実行される。次いで、次フレームのリソース空き期間に積和演算(図3中「FC(Full Connection)」)及び正規化処理(図3中「Softmax)」)が実行され、次フレームのリソース空き期間に撮影シーンの推定処理(図3中「分類)」)が実行される。本実施形態では、これら一連の処理が5フレーム周期で繰り返し実行される。すなわち、本実施形態では、撮影シーンが5フレーム周期で推定される。   In the example of FIG. 3, when the first convolution (“convolution 1” in FIG. 3) and the first pooling (“pooling 1” in FIG. 3) are performed in the resource free period, the second time in the resource free period of the next frame. ("Convolution 2" in FIG. 3) and the second pooling ("pooling 1" in FIG. 3) are executed, and the convolution in FIG. Is executed. Next, a product-sum operation (“FC (Full Connection)” in FIG. 3) and a normalization process (“Softmax” in FIG. 3) are executed in the resource empty period of the next frame, and a shooting scene is acquired in the resource empty period of the next frame. (The “classification” in FIG. 3)) is executed. In the present embodiment, these series of processes are repeatedly executed at a cycle of 5 frames. That is, in the present embodiment, the shooting scene is estimated at a cycle of 5 frames.

時分割処理を採用することにより、撮影シーンの推定処理に撮影装置1のリソースが占有される事態が避けられる。更に、表示に関連する処理が不要な測光データを利用することにより、ライブビューや記録画像のデータを用いる場合と比べてリソース空き期間が長いため、撮影シーンを短い時間(従来よりも高速)で推定することができる。そのため、畳み込みニューラルネットワーク等の高度なアルゴリズムを実装した場合であっても、シーン判別のリアルタイム性が担保される。   By adopting the time-sharing process, it is possible to avoid a situation in which the resources of the photographing apparatus 1 are occupied in the photographing scene estimation process. In addition, by using photometric data that does not require processing related to display, the resource vacant period is longer than when using live view or recorded image data, so the shooting scene can be made in a short time (higher speed than before). Can be estimated. Therefore, even when an advanced algorithm such as a convolutional neural network is implemented, the real-time property of scene discrimination is ensured.

また、撮影シーンの推定処理は、時分割処理に代えて又は時分割処理に加えてパイプラインで実行されてもよい。パイプライン処理を採用する場合も同様に、撮影装置1のリソースが推定処理に占有される事態が避けられると共にシーン判別のリアルタイム性が担保される。   Further, the shooting scene estimation process may be executed in a pipeline instead of the time division process or in addition to the time division process. Similarly, when pipeline processing is employed, a situation in which the resources of the photographing apparatus 1 are occupied by the estimation processing can be avoided and real-time performance of scene determination is ensured.

[図2のS13(撮影条件の設定)]
本処理ステップS13では、撮影条件設定部110により、処理ステップS12(撮影シーンの推定)にて推定された撮影シーンに基づいて撮影条件が設定される。ここで設定される撮影条件には、例えば、シャッタ速度、絞り値、ISO感度、撮影前にすべき対処等が挙げられる。
[S13 in FIG. 2 (Setting of Shooting Conditions)]
In this processing step S13, the shooting condition setting unit 110 sets shooting conditions based on the shooting scene estimated in the processing step S12 (shooting scene estimation). The shooting conditions set here include, for example, shutter speed, aperture value, ISO sensitivity, countermeasures to be taken before shooting, and the like.

例えば撮影シーンとして「料理」が推定された場合を考える。この場合、白い皿がハイライトとなる影響で画像全体が暗くなる虞がある。そこで、画像全体が暗くならないように、シャッタ速度、絞り値、ISO感度が設定される。また、撮影シーンとして「花」が推定された場合には、背景にピントが合わないようにオートフォーカスが設定される。   For example, consider a case where “cooking” is estimated as a shooting scene. In this case, the entire image may be darkened due to the influence of the white dish being highlighted. Therefore, the shutter speed, aperture value, and ISO sensitivity are set so that the entire image does not become dark. When “flower” is estimated as the shooting scene, autofocus is set so that the background is not in focus.

また、撮影前にすべき対処とは、撮影後の画像では補正や反映が難しい事項への対処をいう。例えば撮影シーンとして「青空」が推定された場合を考える。この場合、撮影前にすべき対処とは、雲が白飛びするのを防止するため、調光制御に補正値(アンダー補正)を与えることである。   Further, the action to be taken before photographing means dealing with a matter that is difficult to be corrected or reflected in the image after photographing. For example, consider a case where “blue sky” is estimated as a shooting scene. In this case, the countermeasure to be taken before photographing is to give a correction value (under correction) to the light control in order to prevent the cloud from being blown out.

[図2のS14(設定条件による撮影)]
ユーザによりレリーズスイッチが押されると、処理ステップ13(撮影条件の設定)にて設定された絞り値に従い、絞り機構102の開口が絞り制御部112によって制御される。また、シャッタ機構104が駆動制御されると共にメインミラー103がクイックリターンされる。具体的には、シャッタ機構104は、例えばフォーカルプレーンシャッタであり、シャッタ制御部113により、処理ステップ13(撮影条件の設定)にて設定されたシャッタ速度で駆動制御される。メインミラー103は、シャッタ機構104の先幕走行開始直前から後幕走行終了直後の期間に限り、機構制御部114によってアップされて、撮影レンズ101の光軸と平行な光路から退避される。
[S14 in FIG. 2 (shooting with setting conditions)]
When the release switch is pressed by the user, the aperture control unit 112 controls the aperture of the aperture mechanism 102 in accordance with the aperture value set in the processing step 13 (setting of shooting conditions). Further, the shutter mechanism 104 is driven and controlled, and the main mirror 103 is returned quickly. Specifically, the shutter mechanism 104 is a focal plane shutter, for example, and is driven and controlled by the shutter control unit 113 at the shutter speed set in the processing step 13 (setting of shooting conditions). The main mirror 103 is raised by the mechanism control unit 114 and retracted from the optical path parallel to the optical axis of the photographing lens 101 only during the period immediately before the start of the front curtain travel of the shutter mechanism 104 and immediately after the end of the rear curtain travel.

イメージセンサ105は、シャッタ機構104の後段に設置されている。そのため、シャッタ機構104を通過した被写体光束は、イメージセンサ105の撮像面上で結像される。イメージセンサ105は、イメージセンサ用ドライバ106によって駆動される画像形成用のイメージセンサである。イメージセンサ105は、撮像面上の各画素で結像した光学像を光量に応じた電荷として蓄積し、処理ステップ13(撮影条件の設定)にて設定されたISO感度に従い、増幅処理を行って、画像信号を生成して出力する。なお、イメージセンサ105は、CCD(Charge-Coupled Device)イメージセンサであっても、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサであってもよい。   The image sensor 105 is installed at the subsequent stage of the shutter mechanism 104. Therefore, the subject light flux that has passed through the shutter mechanism 104 is imaged on the imaging surface of the image sensor 105. The image sensor 105 is an image forming image sensor driven by an image sensor driver 106. The image sensor 105 accumulates an optical image formed by each pixel on the imaging surface as a charge corresponding to the amount of light, and performs amplification processing according to the ISO sensitivity set in the processing step 13 (setting of shooting conditions). , Generate and output an image signal. The image sensor 105 may be a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

[図2のS15(イメージセンサ105より出力される画像信号の変換)]
本処理ステップS15では、画像変換部109により、イメージセンサ105より入力されるRAW形式の画像信号がRGB形式(又はYCbCr形式)の画像信号に変換される。
[S15 in FIG. 2 (Conversion of Image Signal Output from Image Sensor 105)]
In this processing step S15, the image conversion unit 109 converts the RAW format image signal input from the image sensor 105 into an RGB format (or YCbCr format) image signal.

[図2のS16(撮影画像データの保存及び撮影画像の表示)]
本処理ステップS16では、処理ステップS15(イメージセンサ105より出力される画像信号の変換)にて変換されたRGB形式(又はYCbCr形式)の画像信号(撮影画像データ)が画像保存部116に保存される。なお、画像保存部116には、イメージセンサ105より入力されるRAW形式の画像信号がそのまま保存されてもよい。
[S16 in FIG. 2 (Storing Captured Image Data and Displaying Captured Image)]
In this processing step S16, the image signal (captured image data) in RGB format (or YCbCr format) converted in processing step S15 (conversion of the image signal output from the image sensor 105) is stored in the image storage unit 116. The The image storage unit 116 may store the RAW format image signal input from the image sensor 105 as it is.

また、本処理ステップS16では、処理ステップS15(イメージセンサ105より出力される画像信号の変換)にて変換されたRGB形式(又はYCbCr形式)の画像信号が所定のフォーマットのビデオ信号に変換され、撮影装置1の背面に設けられた画像表示部117の表示画面に表示される。これにより、ユーザは、ライブビューを画像表示部117の表示画面を通じて視認することができる。   In this processing step S16, the RGB (or YCbCr format) image signal converted in the processing step S15 (conversion of the image signal output from the image sensor 105) is converted into a video signal of a predetermined format, The image is displayed on the display screen of the image display unit 117 provided on the back surface of the photographing apparatus 1. Thereby, the user can visually recognize the live view through the display screen of the image display unit 117.

[第二の動作フロー]
図4に、第二の動作フローを示す。図4に示される第二の動作フローは、任意に設定された条件で撮影を行い、撮影画像データを保存・表示するまでの一連の動作を示すフローチャートである。図4に示される第二の動作フローは、例えば、AEセンサ107より出力された各画素の測光データが画像変換部109に入力された時点で開始される。
[Second operation flow]
FIG. 4 shows a second operation flow. The second operation flow shown in FIG. 4 is a flow chart showing a series of operations from taking a picture under arbitrarily set conditions and storing / displaying the taken image data. The second operation flow illustrated in FIG. 4 is started when, for example, photometric data of each pixel output from the AE sensor 107 is input to the image conversion unit 109.

[図4のS21〜S22]
処理ステップS21〜S22は、図2の処理ステップS11〜S12と実質同じであるため、その説明を省略する。
[S21 to S22 in FIG. 4]
Since the processing steps S21 to S22 are substantially the same as the processing steps S11 to S12 of FIG.

[図4のS23(撮影条件の設定)]
本処理ステップS23では、撮影条件設定部110により、任意の(例えばユーザによる操作入力に応じた)撮影条件が設定される。
[S23 in FIG. 4 (setting of shooting conditions)]
In this processing step S23, the photographing condition setting unit 110 sets arbitrary photographing conditions (for example, according to an operation input by the user).

[図4のS24(設定条件による撮影)]
処理ステップS24は、図2の処理ステップS14と実質同じであるため、その説明を省略する。
[S24 in FIG. 4 (shooting with setting conditions)]
The processing step S24 is substantially the same as the processing step S14 in FIG.

[図4のS25(イメージセンサ105より出力される画像信号の変換)]
本処理ステップS25では、画像パラメータ設定部111により、処理ステップS22(撮影シーンの推定)にて推定された撮影シーンに基づいて、イメージセンサ105より入力されるRAW形式の画像信号に適用すべき画像パラメータが設定される。
[S25 in FIG. 4 (Conversion of Image Signal Output from Image Sensor 105)]
In this processing step S25, the image to be applied to the RAW image signal input from the image sensor 105 based on the shooting scene estimated in the processing step S22 (shooting scene estimation) by the image parameter setting unit 111. The parameter is set.

例えば、撮影シーンとして「花(色鮮やか)」が推定された場合、彩度を少し抑えたパラメータが設定される。また、例えば、撮影シーンとして「自然風景(青空と緑が混在する風景)」が推定された場合、コントラストが強く効くようにパラメータが設定される。   For example, when “flower (colorful)” is estimated as a shooting scene, a parameter with a little suppressed saturation is set. In addition, for example, when “natural scenery (scenery in which blue sky and green are mixed)” is estimated as a shooting scene, the parameters are set so that the contrast is effective.

次いで、本処理ステップS25では、画像変換部109により、画像パラメータ設定部111にて設定されたパラメータを用いて、イメージセンサ105より入力されるRAW形式の画像信号がRGB形式(又はYCbCr形式)の画像信号(撮影画像データ)に変換される。   Next, in this processing step S25, the image conversion unit 109 uses the parameters set by the image parameter setting unit 111, and the RAW image signal input from the image sensor 105 is in RGB format (or YCbCr format). It is converted into an image signal (photographed image data).

なお、本処理ステップS25にて設定可能な画像パラメータは、少なくとも、RAW形式からRGB形式(又はYCbCr形式)に変換する際に反映することができる種々のパラメータを含む。例示的には、本処理ステップS25にて設定可能な画像パラメータには、彩度やコントラスト等だけでなく、シャープネス設定や特殊エフェクト設定等も含まれる。   The image parameters that can be set in this processing step S25 include at least various parameters that can be reflected when converting from the RAW format to the RGB format (or YCbCr format). Illustratively, the image parameters that can be set in this processing step S25 include not only saturation and contrast but also sharpness settings and special effect settings.

[図4のS26(撮影画像データの保存及び撮影画像の表示)]
処理ステップS26は、図2の処理ステップS16と実質同じであるため、その説明を省略する。
[S26 in FIG. 4 (Storing Captured Image Data and Display of Captured Image)]
The processing step S26 is substantially the same as the processing step S16 in FIG.

以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本発明の実施形態に含まれる。   The above is the description of the exemplary embodiments of the present invention. Embodiments of the present invention are not limited to those described above, and various modifications are possible within the scope of the technical idea of the present invention. For example, the embodiment of the present invention also includes contents appropriately combined with embodiments or the like clearly shown in the specification or obvious embodiments.

1 撮影装置
101 撮影レンズ
102 絞り機構
103 メインミラー
104 シャッタ機構
105 イメージセンサ
106 イメージセンサ用ドライバ
107 AEセンサ
108 AEセンサ用ドライバ
109 画像変換部
110 撮影条件設定部
111 画像パラメータ設定部
112 絞り制御部
113 シャッタ制御部
114 機構制御部
115 画像分類部
116 画像保存部
117 画像表示部
118 操作部
DESCRIPTION OF SYMBOLS 1 Shooting device 101 Shooting lens 102 Aperture mechanism 103 Main mirror 104 Shutter mechanism 105 Image sensor 106 Image sensor driver 107 AE sensor 108 AE sensor driver 109 Image conversion unit 110 Shooting condition setting unit 111 Image parameter setting unit 112 Aperture control unit 113 Shutter control unit 114 Mechanism control unit 115 Image classification unit 116 Image storage unit 117 Image display unit 118 Operation unit

Claims (6)

被写界を測光する測光センサと、
前記測光センサより出力される測光データに基づいて前記被写界内の被写体の分類を推定する推定手段と、
前記推定された分類に基づいて撮影条件を設定する設定手段と、
前記設定された撮影条件で前記被写体を撮像する撮像手段と、
を備える、
撮影装置。
A photometric sensor for metering the object field;
Estimating means for estimating a classification of a subject in the object field based on photometric data output from the photometric sensor;
Setting means for setting shooting conditions based on the estimated classification;
Imaging means for imaging the subject under the set imaging conditions;
Comprising
Shooting device.
被写界を測光する測光センサと、
前記測光センサより出力される測光データに基づいて前記被写界内の被写体の分類を推定する推定手段と、
前記推定された分類に基づいて画像パラメータを設定する設定手段と、
前記被写体を撮像する撮像手段と、
前記設定された画像パラメータを用いて前記撮像手段より出力される画像データを処理する処理手段と、
を備える、
撮影装置。
A photometric sensor for metering the object field;
Estimating means for estimating a classification of a subject in the object field based on photometric data output from the photometric sensor;
Setting means for setting image parameters based on the estimated classification;
Imaging means for imaging the subject;
Processing means for processing image data output from the imaging means using the set image parameters;
Comprising
Shooting device.
前記推定手段は、
前記被写体の分類の推定処理をパイプラインで実行する、
請求項1又は請求項2に記載の撮影装置。
The estimation means includes
Performing the subject classification estimation process in a pipeline;
The imaging device according to claim 1 or 2.
前記推定手段は、
前記被写体の分類の推定処理を時分割で実行する、
請求項1から請求項3の何れか一項に記載の撮影装置。
The estimation means includes
Performing the subject classification estimation process in a time-sharing manner;
The imaging device according to any one of claims 1 to 3.
前記推定手段は、
畳み込みニューラルネットワークを用いて前記被写体の分類を推定する、
請求項1から請求項4の何れか一項に記載の撮影装置。
The estimation means includes
Estimating the classification of the subject using a convolutional neural network;
The imaging device according to any one of claims 1 to 4.
前記推定手段は、
畳み込みニューラルネットワークを用いて前記被写体の各分類候補を要素とする確信度ベクトルを取得し、
前記取得された確信度ベクトルの要素同士を相互作用させるマトリックス演算を行うことにより、該確信度ベクトルを補正し、
補正後の確信度ベクトルに基づいて前記被写体の分類を推定する、
請求項1から請求項5の何れか一項に記載の撮影装置。
The estimation means includes
Using a convolutional neural network to obtain a certainty vector having each classification candidate of the subject as an element;
Correcting the certainty factor vector by performing a matrix operation that causes the elements of the obtained certainty factor vector to interact with each other;
Estimating the classification of the subject based on the corrected confidence vector;
The imaging device according to any one of claims 1 to 5.
JP2016019836A 2016-02-04 2016-02-04 Imaging apparatus Pending JP2017139646A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016019836A JP2017139646A (en) 2016-02-04 2016-02-04 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016019836A JP2017139646A (en) 2016-02-04 2016-02-04 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2017139646A true JP2017139646A (en) 2017-08-10

Family

ID=59566138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016019836A Pending JP2017139646A (en) 2016-02-04 2016-02-04 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2017139646A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108629767A (en) * 2018-04-28 2018-10-09 Oppo广东移动通信有限公司 A kind of method, device and mobile terminal of scene detection
CN109459852A (en) * 2019-01-07 2019-03-12 史丽 A kind of scattering medium optical imaging method neural network based
JP2019095635A (en) * 2017-11-24 2019-06-20 株式会社アクセル Processing device, inference device, learning device, processing system, processing method, and processing program
JP2021064008A (en) * 2021-01-15 2021-04-22 株式会社アクセル Processing device, inference device, learning device, processing system, processing method, and processing program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0469775A (en) * 1990-07-10 1992-03-04 Hitachi Ltd Automatic cell classifying device
JP2679730B2 (en) * 1988-08-31 1997-11-19 富士通株式会社 Hierarchical neural network
WO2004070657A1 (en) * 2003-02-05 2004-08-19 Seiko Epson Corporation Image processing device
JP2010183252A (en) * 2009-02-04 2010-08-19 Nikon Corp Imaging apparatus
JP2011035635A (en) * 2009-07-31 2011-02-17 Casio Computer Co Ltd Image processor and method
JP2013187660A (en) * 2012-03-07 2013-09-19 Nikon Corp Electronic camera
JP2015032308A (en) * 2013-07-31 2015-02-16 富士通株式会社 Convolutional-neural-network-based classifier and classifying method and training methods for the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2679730B2 (en) * 1988-08-31 1997-11-19 富士通株式会社 Hierarchical neural network
JPH0469775A (en) * 1990-07-10 1992-03-04 Hitachi Ltd Automatic cell classifying device
WO2004070657A1 (en) * 2003-02-05 2004-08-19 Seiko Epson Corporation Image processing device
JP2010183252A (en) * 2009-02-04 2010-08-19 Nikon Corp Imaging apparatus
JP2011035635A (en) * 2009-07-31 2011-02-17 Casio Computer Co Ltd Image processor and method
JP2013187660A (en) * 2012-03-07 2013-09-19 Nikon Corp Electronic camera
JP2015032308A (en) * 2013-07-31 2015-02-16 富士通株式会社 Convolutional-neural-network-based classifier and classifying method and training methods for the same

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019095635A (en) * 2017-11-24 2019-06-20 株式会社アクセル Processing device, inference device, learning device, processing system, processing method, and processing program
US11373098B2 (en) 2017-11-24 2022-06-28 Axell Corporation Processing apparatus, learning apparatus, processing method, and nonvolatile recording medium
CN108629767A (en) * 2018-04-28 2018-10-09 Oppo广东移动通信有限公司 A kind of method, device and mobile terminal of scene detection
CN108629767B (en) * 2018-04-28 2021-03-26 Oppo广东移动通信有限公司 Scene detection method and device and mobile terminal
CN109459852A (en) * 2019-01-07 2019-03-12 史丽 A kind of scattering medium optical imaging method neural network based
JP2021064008A (en) * 2021-01-15 2021-04-22 株式会社アクセル Processing device, inference device, learning device, processing system, processing method, and processing program
JP7096610B2 (en) 2021-01-15 2022-07-06 株式会社アクセル Processing equipment, inference equipment, learning equipment, processing system, processing method, and processing program

Similar Documents

Publication Publication Date Title
KR102306304B1 (en) Dual camera-based imaging method and device and storage medium
JP6911192B2 (en) Image processing methods, equipment and devices
US8411159B2 (en) Method of detecting specific object region and digital camera
US8294785B2 (en) Method for adjusting photosensitiveness of digital camera
US8823863B2 (en) Image capturing apparatus and control method therefor
US20150195482A1 (en) Method, system and smartphone that chooses optimal image to reduce shutter shake
US8743209B2 (en) Image pickup apparatus and method for controlling the same
JP2018031877A (en) Image pickup device and focus adjusting method
JP2018004918A (en) Focus adjustment device and method, and imaging apparatus
JP2019186911A (en) Image processing apparatus, image processing method, and imaging apparatus
JP2017139646A (en) Imaging apparatus
JP5407373B2 (en) Imaging apparatus and program
JP6656584B2 (en) Imaging equipment
JP4670635B2 (en) Imaging device
JP6463402B2 (en) Focus adjustment apparatus and method, and imaging apparatus
US20150254856A1 (en) Smart moving object capture methods, devices and digital imaging systems including the same
JP5070856B2 (en) Imaging device
JP4871664B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6246705B2 (en) Focus control device, imaging device, and focus control method
JP2009302747A (en) Imaging device, image processing device, and program
JP5245644B2 (en) Exposure calculator
JP2008263319A (en) Imaging device and control method of imaging device
JP2010171830A (en) View finder system and imaging apparatus with the same
JP2008172368A (en) Imaging apparatus, control method thereof, program and storage medium
US20080056701A1 (en) Systems and methods of automatically selecting a focus range in cameras

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170718

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190909

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200302