JP2017139646A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2017139646A JP2017139646A JP2016019836A JP2016019836A JP2017139646A JP 2017139646 A JP2017139646 A JP 2017139646A JP 2016019836 A JP2016019836 A JP 2016019836A JP 2016019836 A JP2016019836 A JP 2016019836A JP 2017139646 A JP2017139646 A JP 2017139646A
- Authority
- JP
- Japan
- Prior art keywords
- classification
- subject
- imaging
- image
- estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、撮影装置に関する。 The present invention relates to a photographing apparatus.
ディープラーニング技術を用いて画像データを解析するアルゴリズムが知られている。例えば特許文献1に、ディープラーニングの一種である畳み込みニューラルネットワークを用いて画像データの分類を推定する方法が記載されている。
An algorithm for analyzing image data using a deep learning technique is known. For example,
デジタルカメラ等の撮影装置の技術分野においては、この種の方法を用いてリアルタイムのスルー画(ライブビュー)や記録画像のデータを解析して分類(撮影シーン)を推定し、推定される撮影シーンに応じた条件で被写体を撮影する技術が知られている。 In the technical field of photographing devices such as digital cameras, this kind of method is used to analyze real-time live view (live view) and recorded image data to estimate classification (shooting scene) and to estimate the shooting scene Techniques for photographing a subject under conditions according to the conditions are known.
撮影装置では、撮影画像について基本的な処理(撮像、保存、ライブビュー表示等の各種処理)を実行する必要があるため、撮影画像に基づく撮影シーンの推定処理に割り当てることが可能なリソースが限られる。そのため、畳み込みニューラルネットワーク等の高度なアルゴリズムを実装すると、撮影シーンの推定処理に時間がかかってしまい、シーン判別のリアルタイム性が損なわれるという問題が指摘される。 In the imaging device, basic processing (various processing such as imaging, storage, live view display, etc.) needs to be performed on the captured image. It is done. For this reason, when a sophisticated algorithm such as a convolutional neural network is implemented, it takes a long time to estimate a shooting scene, and the real-time property of scene discrimination is impaired.
本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、撮影シーンの推定処理を高速に実行するのに好適な撮影装置を提供することである。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a photographing apparatus suitable for executing a photographing scene estimation process at high speed.
本発明の一実施形態に係る撮影装置は、被写界を測光する測光センサと、測光センサより出力される測光データに基づいて被写界内の被写体の分類を推定する推定手段と、推定された分類に基づいて撮影条件を設定する設定手段と、設定された撮影条件で被写体を撮像する撮像手段とを備える。 An imaging apparatus according to an embodiment of the present invention includes a photometric sensor that performs photometry of an object scene, and an estimation unit that estimates a classification of a subject in the object scene based on photometric data output from the photometry sensor. Setting means for setting shooting conditions based on the classification, and imaging means for imaging a subject under the set shooting conditions.
また、本発明の一実施形態に係る撮影装置は、被写界を測光する測光センサと、測光センサより出力される測光データに基づいて被写界内の被写体の分類を推定する推定手段と、推定された分類に基づいて画像パラメータを設定する設定手段と、被写体を撮像する撮像手段と、設定された画像パラメータを用いて撮像手段より出力される画像データを処理する処理手段とを備える。 Further, an imaging device according to an embodiment of the present invention includes a photometric sensor that measures a scene, and an estimation unit that estimates a classification of a subject in the scene based on photometric data output from the photometric sensor; A setting unit configured to set an image parameter based on the estimated classification; an imaging unit configured to capture an image of the subject; and a processing unit configured to process image data output from the imaging unit using the set image parameter.
また、本発明の一実施形態において、推定手段は、被写体の分類の推定処理をパイプラインで実行する構成としてもよい。 In one embodiment of the present invention, the estimation means may be configured to execute subject classification estimation processing in a pipeline.
また、本発明の一実施形態において、推定手段は、被写体の分類の推定処理を時分割で実行する構成としてもよい。 In one embodiment of the present invention, the estimation means may be configured to execute subject classification estimation processing in a time-sharing manner.
また、本発明の一実施形態において、推定手段は、畳み込みニューラルネットワークを用いて被写体の分類を推定する構成としてもよい。 In one embodiment of the present invention, the estimation means may be configured to estimate the subject classification using a convolutional neural network.
また、本発明の一実施形態において、推定手段は、畳み込みニューラルネットワークを用いて被写体の各分類候補を要素とする確信度ベクトルを取得し、取得された確信度ベクトルの要素同士を相互作用させるマトリックス演算を行うことにより、該確信度ベクトルを補正し、補正後の確信度ベクトルに基づいて被写体の分類を推定する構成としてもよい。 In one embodiment of the present invention, the estimation means obtains a confidence vector having each classification candidate of the subject as an element using a convolutional neural network, and causes the elements of the obtained confidence vector to interact with each other. A configuration may be adopted in which the certainty factor vector is corrected by performing calculation, and the classification of the subject is estimated based on the corrected certainty factor vector.
本発明の一実施形態によれば、撮影シーンの推定処理を高速に実行するのに好適な撮影装置が提供される。 According to an embodiment of the present invention, a photographing apparatus suitable for executing a photographing scene estimation process at high speed is provided.
以下、本発明の一実施形態に係る撮影装置について図面を参照しながら説明する。以下においては、本発明の一実施形態として、クイックリターン式のミラー搭載のデジタル一眼レフカメラについて説明する。 An imaging apparatus according to an embodiment of the present invention will be described below with reference to the drawings. In the following, a digital single-lens reflex camera equipped with a quick return type mirror will be described as an embodiment of the present invention.
[撮影装置1の構成]
図1は、本発明の一実施形態に係る撮影装置1の構成を示すブロック図である。図1に示されるように、撮影装置1は、撮影レンズ101、絞り機構102、メインミラー103、シャッタ機構104、イメージセンサ105、イメージセンサ用ドライバ106、AE(Automatic Exposure)センサ107、AEセンサ用ドライバ108、画像変換部109、撮影条件設定部110、画像パラメータ設定部111、絞り制御部112、シャッタ制御部113、機構制御部114、画像分類部115、画像保存部116、画像表示部117及び操作部118を備えている。なお、撮影レンズ101は複数枚構成であるが、図1においては便宜上一枚のレンズとして示す。また、図1においては、図面の複雑化を避ける便宜上、ブロック間の結線を適宜省略している。
[Configuration of the photographing apparatus 1]
FIG. 1 is a block diagram showing a configuration of a photographing
被写体からの光束(被写体光束)は、撮影レンズ101及び絞り機構102を介してメインミラー103により、図示省略されたファインダ光学系に向かって反射される。被写体光束は、ファインダ光学系が有するペンタプリズムの各反射面にて反射されることによって正立像となり、接眼レンズに入射される。被写体光束は、接眼レンズにより、ユーザの観察に適する虚像に再結像される。ユーザは、接眼レンズによって再結像された被写体像(虚像)を、ファインダ窓を覗くことにより観察することができる。
A luminous flux from the subject (subject luminous flux) is reflected by the
操作部118には、電源スイッチやレリーズスイッチ、撮影モードスイッチなど、ユーザが撮影装置1を操作するために必要な各種スイッチが含まれる。ユーザにより電源スイッチが操作されると、図示省略されたバッテリから撮影装置1の各種回路に電源ラインを通じて電源供給が行われる。
The
ペンタプリズムの一部の領域は、ハーフミラー領域となっている。ペンタプリズムの各反射面にて反射される被写体光束の一部は、ハーフミラー領域を介してAEセンサ107にて受光される。
A part of the pentaprism is a half mirror region. Part of the subject light beam reflected by each reflecting surface of the pentaprism is received by the
AEセンサ107は、AEセンサ用ドライバ108によって駆動され、被写界を複数の測光領域に分割して測光するものであり、例示的には、複数の測光領域(画素)がマトリックス状に配列されたカラーフィルタ搭載の二次元センサ(例えばCCD(Charge Coupled Device))である。
The
AEセンサ107は、被写体光束を取り込んで測光データを出力する。具体的には、AEセンサ107は、測光面上の各画素で結像した光学像を光量に応じた電荷として蓄積して、カラー情報を持つ測光データを生成して出力する。AEセンサ107より出力される各画素の測光データは、AEセンサ用ドライバ108を介して画像変換部109に入力される。
The
[第一の動作フロー]
本実施形態では、AEセンサ107より出力される各画素の測光データに基づいて被写界内の被写体の分類(言い換えると撮影シーン)が推定される。撮影シーンには、例えば、「花」、「犬」、「夜景」、「料理」、「海」等が挙げられる。
[First operation flow]
In the present embodiment, the classification of the subject in the object scene (in other words, the shooting scene) is estimated based on the photometric data of each pixel output from the
図2に、第一の動作フローを示す。図2に示される第一の動作フローは、撮影シーンを推定して撮影を行い、撮影画像データを保存・表示するまでの一連の動作を示すフローチャートである。図2に示される第一の動作フローは、例えば、AEセンサ107より出力された各画素の測光データが画像変換部109に入力された時点で開始される。
FIG. 2 shows a first operation flow. The first operation flow shown in FIG. 2 is a flowchart showing a series of operations from estimating a shooting scene to shooting and storing / displaying shot image data. The first operation flow illustrated in FIG. 2 is started when, for example, the photometric data of each pixel output from the
[図2のS11(AEセンサ107より出力される画像信号の変換)]
本処理ステップS11では、画像変換部109が測光演算を行って測光結果を取得する。具体的には、画像変換部109は、各画素の測光データ(RAW形式の画像信号)に所定の信号処理を施すことにより、低解像度ではあるが、被写体の形や色を判別できる程度の情報を持つRGB形式(又はYCbCr形式)の画像信号に変換する。
[S11 in FIG. 2 (Conversion of Image Signal Output from AE Sensor 107)]
In this processing step S11, the
[図2のS12(撮影シーンの推定)]
本処理ステップS12では、画像分類部115により、画像変換部109より入力されるRGB形式(又はYCbCr形式)の画像信号に基づいて、AEセンサ107にて取り込まれた被写界の撮影シーンが推定される。
[S12 in FIG. 2 (Shooting Scene Estimation)]
In this processing step S12, the
本実施形態では、撮影シーンを推定するため、畳み込みニューラルネットワークが用いられる。画像分類部115に実装されている畳み込みニューラルネットワークでは、畳み込み層(Convolution Layer)とプーリング層(Pooling Layer)とが繰り返されることにより、AEセンサ107にて取り込まれた被写界内の被写体を抽象化した抽象画像データが生成される。生成された抽象画像データは、一次元のベクトルデータに変換されて、全結合層(Full Connection layer)に入力される。
In the present embodiment, a convolutional neural network is used to estimate a shooting scene. In the convolutional neural network implemented in the
全結合層では、学習結果から撮影シーン候補毎に値のセット(調整値bi及び係数wij)が与えられており、次式を用いた積和演算が撮影シーン候補毎に行われる。
(積和演算式)
i :一次元に変換された入力ベクトルデータの各要素を示す値
j :対象の撮影シーン候補を認識する場合とそれ以外を認識する場合とを区別するための値(例えば前者の場合j=1で後者の場合j=2)
xi :入力ベクトルデータの各要素iの値
yi :入力ベクトルデータの各要素iについての積和演算結果
bi :事前の学習結果から与えられる値であって、入力ベクトルデータの各要素iの調整値
wij :事前の学習結果から与えられる値であって、入力ベクトルデータの各要素iの係数(対象の撮影シーン候補を認識する場合の係数wi1と、それ以外を認識する場合の係数wi2)
In the fully connected layer, a set of values (adjustment value b i and coefficient w ij ) is given for each shooting scene candidate from the learning result, and a product-sum operation using the following equation is performed for each shooting scene candidate.
(Multiply-accumulate expression)
i: Value indicating each element of input vector data converted to one dimension j: Value for distinguishing between the case of recognizing a target photographing scene candidate and the case of recognizing the other (for example, j = 1 in the former case) In the latter case, j = 2)
x i : the value of each element i of the input vector data y i : the product-sum operation result b i for each element i of the input vector data b i : the value given from the previous learning result, and each element i of the input vector data Adjustment value w ij : A value given from a prior learning result, which is a coefficient of each element i of the input vector data (coefficient w i1 for recognizing the target photographing scene candidate and other cases for recognizing the other Coefficient w i2 )
撮影シーン候補毎の積和演算結果yiが最終層であるsoftmax層で正規化される。画像分類部115は、softmax層で正規化された値に基づいて撮影シーンを推定する。
The product-sum operation result y i for each shooting scene candidate is normalized in the softmax layer, which is the final layer. The
なお、ユーザは、畳み込み層(Convolution Layer)の空間フィルタ及び値のセット(調整値bi及び係数wij)を別の撮影シーン候補に適したデータに書き換えることにより、画像分類部115によって推定可能な撮影シーンを設定変更することができる。また、ユーザは、既存の撮影シーン候補について畳み込み層の空間フィルタ及び値のセット(調整値bi及び係数wij)を更新することもできる。
Note that the user can estimate by the
また、softmax層の出力から、被写体の各撮影シーン候補を要素とする確信度ベクトルが得られる。本実施形態では、最終的に得られる確信度を高めるため、確信度ベクトルの要素同士を相互作用させるマトリックス演算が行われてもよい(例えば特開平4−1870号公報参照)。下記に、マトリックス演算例を示す。
(マトリックス演算例)
x :確信度ベクトル(softmax層から出力されるベクトル)
aij : 確信度ベクトル相互作用マトリックス
y :確信度ベクトル(最終値)
In addition, a confidence vector having each photographing scene candidate of the subject as an element is obtained from the output of the softmax layer. In the present embodiment, in order to increase the finally obtained certainty factor, a matrix operation for causing the elements of the certainty factor vector to interact with each other may be performed (see, for example, JP-A-4-1870). An example of matrix calculation is shown below.
(Matrix calculation example)
x: confidence vector (vector output from softmax layer)
a ij : Certainty vector interaction matrix y: Certainty vector (final value)
例えば、softmax層から出力される「花」、「夜景」、「料理」、「海」の各要素の確信度ベクトルが、それぞれ、「0」、「1」、「2」、「3」である場合を考える。この場合、上記のマトリックス演算が行われることにより、撮影シーンを推定するにあたり、「花」の確信度がより大きい値で扱われる。なお、焦点距離から得られる像倍率や焦点距離を加味して確信度の精度をより一層向上させることにより、撮影シーンがより高精度に推定されるようにしてもよい。 For example, the certainty factor vectors of “flower”, “night view”, “dish”, and “sea” output from the softmax layer are “0”, “1”, “2”, and “3”, respectively. Consider a case. In this case, when the above-described matrix calculation is performed, the certainty factor of “flower” is handled with a larger value in estimating the shooting scene. Note that the photographic scene may be estimated with higher accuracy by further improving the accuracy of the certainty factor in consideration of the image magnification and the focal length obtained from the focal length.
一般に、畳み込みニューラルネットワーク等の高度なアルゴリズムの実行には膨大な計算量が必要とされる。そのため、当該処理の実行にリソースが占有されて、他の処理の実行に支障をきたす虞がある。そこで、本実施形態では、撮影シーンの推定処理が時分割で実行される。図3に、画像分類部115による推定処理の実行タイミングを例示する図を示す。
In general, a huge amount of calculation is required to execute an advanced algorithm such as a convolutional neural network. For this reason, there is a possibility that resources are occupied for execution of the processing, which hinders execution of other processing. Therefore, in this embodiment, the shooting scene estimation process is executed in a time-sharing manner. FIG. 3 is a diagram illustrating the execution timing of the estimation process performed by the
図3に示されるように、AEセンサ107による取り込み処理及び測光演算は、毎フレーム実行される。画像分類部115による撮影シーンの推定処理は、AEセンサ107による測光演算後から次フレームの取り込み処理までの期間(以下、説明の便宜上「リソース空き期間」と記す。)を利用して時分割で実行される。
As shown in FIG. 3, the capturing process and the photometric calculation by the
図3の例では、リソース空き期間に初回の畳み込み(図3中「convolution 1」)及び初回のプーリング(図3中「pooling 1」)が実行されると、次フレームのリソース空き期間に二回目の畳み込み(図3中「convolution 2」)及び二回目のプーリング(図3中「pooling 1」)が実行され、更に、次フレームのリソース空き期間に三回目の畳み込み図3中「convolution 3」)が実行される。次いで、次フレームのリソース空き期間に積和演算(図3中「FC(Full Connection)」)及び正規化処理(図3中「Softmax)」)が実行され、次フレームのリソース空き期間に撮影シーンの推定処理(図3中「分類)」)が実行される。本実施形態では、これら一連の処理が5フレーム周期で繰り返し実行される。すなわち、本実施形態では、撮影シーンが5フレーム周期で推定される。
In the example of FIG. 3, when the first convolution (“
時分割処理を採用することにより、撮影シーンの推定処理に撮影装置1のリソースが占有される事態が避けられる。更に、表示に関連する処理が不要な測光データを利用することにより、ライブビューや記録画像のデータを用いる場合と比べてリソース空き期間が長いため、撮影シーンを短い時間(従来よりも高速)で推定することができる。そのため、畳み込みニューラルネットワーク等の高度なアルゴリズムを実装した場合であっても、シーン判別のリアルタイム性が担保される。
By adopting the time-sharing process, it is possible to avoid a situation in which the resources of the photographing
また、撮影シーンの推定処理は、時分割処理に代えて又は時分割処理に加えてパイプラインで実行されてもよい。パイプライン処理を採用する場合も同様に、撮影装置1のリソースが推定処理に占有される事態が避けられると共にシーン判別のリアルタイム性が担保される。
Further, the shooting scene estimation process may be executed in a pipeline instead of the time division process or in addition to the time division process. Similarly, when pipeline processing is employed, a situation in which the resources of the photographing
[図2のS13(撮影条件の設定)]
本処理ステップS13では、撮影条件設定部110により、処理ステップS12(撮影シーンの推定)にて推定された撮影シーンに基づいて撮影条件が設定される。ここで設定される撮影条件には、例えば、シャッタ速度、絞り値、ISO感度、撮影前にすべき対処等が挙げられる。
[S13 in FIG. 2 (Setting of Shooting Conditions)]
In this processing step S13, the shooting
例えば撮影シーンとして「料理」が推定された場合を考える。この場合、白い皿がハイライトとなる影響で画像全体が暗くなる虞がある。そこで、画像全体が暗くならないように、シャッタ速度、絞り値、ISO感度が設定される。また、撮影シーンとして「花」が推定された場合には、背景にピントが合わないようにオートフォーカスが設定される。 For example, consider a case where “cooking” is estimated as a shooting scene. In this case, the entire image may be darkened due to the influence of the white dish being highlighted. Therefore, the shutter speed, aperture value, and ISO sensitivity are set so that the entire image does not become dark. When “flower” is estimated as the shooting scene, autofocus is set so that the background is not in focus.
また、撮影前にすべき対処とは、撮影後の画像では補正や反映が難しい事項への対処をいう。例えば撮影シーンとして「青空」が推定された場合を考える。この場合、撮影前にすべき対処とは、雲が白飛びするのを防止するため、調光制御に補正値(アンダー補正)を与えることである。 Further, the action to be taken before photographing means dealing with a matter that is difficult to be corrected or reflected in the image after photographing. For example, consider a case where “blue sky” is estimated as a shooting scene. In this case, the countermeasure to be taken before photographing is to give a correction value (under correction) to the light control in order to prevent the cloud from being blown out.
[図2のS14(設定条件による撮影)]
ユーザによりレリーズスイッチが押されると、処理ステップ13(撮影条件の設定)にて設定された絞り値に従い、絞り機構102の開口が絞り制御部112によって制御される。また、シャッタ機構104が駆動制御されると共にメインミラー103がクイックリターンされる。具体的には、シャッタ機構104は、例えばフォーカルプレーンシャッタであり、シャッタ制御部113により、処理ステップ13(撮影条件の設定)にて設定されたシャッタ速度で駆動制御される。メインミラー103は、シャッタ機構104の先幕走行開始直前から後幕走行終了直後の期間に限り、機構制御部114によってアップされて、撮影レンズ101の光軸と平行な光路から退避される。
[S14 in FIG. 2 (shooting with setting conditions)]
When the release switch is pressed by the user, the
イメージセンサ105は、シャッタ機構104の後段に設置されている。そのため、シャッタ機構104を通過した被写体光束は、イメージセンサ105の撮像面上で結像される。イメージセンサ105は、イメージセンサ用ドライバ106によって駆動される画像形成用のイメージセンサである。イメージセンサ105は、撮像面上の各画素で結像した光学像を光量に応じた電荷として蓄積し、処理ステップ13(撮影条件の設定)にて設定されたISO感度に従い、増幅処理を行って、画像信号を生成して出力する。なお、イメージセンサ105は、CCD(Charge-Coupled Device)イメージセンサであっても、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサであってもよい。
The
[図2のS15(イメージセンサ105より出力される画像信号の変換)]
本処理ステップS15では、画像変換部109により、イメージセンサ105より入力されるRAW形式の画像信号がRGB形式(又はYCbCr形式)の画像信号に変換される。
[S15 in FIG. 2 (Conversion of Image Signal Output from Image Sensor 105)]
In this processing step S15, the
[図2のS16(撮影画像データの保存及び撮影画像の表示)]
本処理ステップS16では、処理ステップS15(イメージセンサ105より出力される画像信号の変換)にて変換されたRGB形式(又はYCbCr形式)の画像信号(撮影画像データ)が画像保存部116に保存される。なお、画像保存部116には、イメージセンサ105より入力されるRAW形式の画像信号がそのまま保存されてもよい。
[S16 in FIG. 2 (Storing Captured Image Data and Displaying Captured Image)]
In this processing step S16, the image signal (captured image data) in RGB format (or YCbCr format) converted in processing step S15 (conversion of the image signal output from the image sensor 105) is stored in the
また、本処理ステップS16では、処理ステップS15(イメージセンサ105より出力される画像信号の変換)にて変換されたRGB形式(又はYCbCr形式)の画像信号が所定のフォーマットのビデオ信号に変換され、撮影装置1の背面に設けられた画像表示部117の表示画面に表示される。これにより、ユーザは、ライブビューを画像表示部117の表示画面を通じて視認することができる。
In this processing step S16, the RGB (or YCbCr format) image signal converted in the processing step S15 (conversion of the image signal output from the image sensor 105) is converted into a video signal of a predetermined format, The image is displayed on the display screen of the
[第二の動作フロー]
図4に、第二の動作フローを示す。図4に示される第二の動作フローは、任意に設定された条件で撮影を行い、撮影画像データを保存・表示するまでの一連の動作を示すフローチャートである。図4に示される第二の動作フローは、例えば、AEセンサ107より出力された各画素の測光データが画像変換部109に入力された時点で開始される。
[Second operation flow]
FIG. 4 shows a second operation flow. The second operation flow shown in FIG. 4 is a flow chart showing a series of operations from taking a picture under arbitrarily set conditions and storing / displaying the taken image data. The second operation flow illustrated in FIG. 4 is started when, for example, photometric data of each pixel output from the
[図4のS21〜S22]
処理ステップS21〜S22は、図2の処理ステップS11〜S12と実質同じであるため、その説明を省略する。
[S21 to S22 in FIG. 4]
Since the processing steps S21 to S22 are substantially the same as the processing steps S11 to S12 of FIG.
[図4のS23(撮影条件の設定)]
本処理ステップS23では、撮影条件設定部110により、任意の(例えばユーザによる操作入力に応じた)撮影条件が設定される。
[S23 in FIG. 4 (setting of shooting conditions)]
In this processing step S23, the photographing
[図4のS24(設定条件による撮影)]
処理ステップS24は、図2の処理ステップS14と実質同じであるため、その説明を省略する。
[S24 in FIG. 4 (shooting with setting conditions)]
The processing step S24 is substantially the same as the processing step S14 in FIG.
[図4のS25(イメージセンサ105より出力される画像信号の変換)]
本処理ステップS25では、画像パラメータ設定部111により、処理ステップS22(撮影シーンの推定)にて推定された撮影シーンに基づいて、イメージセンサ105より入力されるRAW形式の画像信号に適用すべき画像パラメータが設定される。
[S25 in FIG. 4 (Conversion of Image Signal Output from Image Sensor 105)]
In this processing step S25, the image to be applied to the RAW image signal input from the
例えば、撮影シーンとして「花(色鮮やか)」が推定された場合、彩度を少し抑えたパラメータが設定される。また、例えば、撮影シーンとして「自然風景(青空と緑が混在する風景)」が推定された場合、コントラストが強く効くようにパラメータが設定される。 For example, when “flower (colorful)” is estimated as a shooting scene, a parameter with a little suppressed saturation is set. In addition, for example, when “natural scenery (scenery in which blue sky and green are mixed)” is estimated as a shooting scene, the parameters are set so that the contrast is effective.
次いで、本処理ステップS25では、画像変換部109により、画像パラメータ設定部111にて設定されたパラメータを用いて、イメージセンサ105より入力されるRAW形式の画像信号がRGB形式(又はYCbCr形式)の画像信号(撮影画像データ)に変換される。
Next, in this processing step S25, the
なお、本処理ステップS25にて設定可能な画像パラメータは、少なくとも、RAW形式からRGB形式(又はYCbCr形式)に変換する際に反映することができる種々のパラメータを含む。例示的には、本処理ステップS25にて設定可能な画像パラメータには、彩度やコントラスト等だけでなく、シャープネス設定や特殊エフェクト設定等も含まれる。 The image parameters that can be set in this processing step S25 include at least various parameters that can be reflected when converting from the RAW format to the RGB format (or YCbCr format). Illustratively, the image parameters that can be set in this processing step S25 include not only saturation and contrast but also sharpness settings and special effect settings.
[図4のS26(撮影画像データの保存及び撮影画像の表示)]
処理ステップS26は、図2の処理ステップS16と実質同じであるため、その説明を省略する。
[S26 in FIG. 4 (Storing Captured Image Data and Display of Captured Image)]
The processing step S26 is substantially the same as the processing step S16 in FIG.
以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本発明の実施形態に含まれる。 The above is the description of the exemplary embodiments of the present invention. Embodiments of the present invention are not limited to those described above, and various modifications are possible within the scope of the technical idea of the present invention. For example, the embodiment of the present invention also includes contents appropriately combined with embodiments or the like clearly shown in the specification or obvious embodiments.
1 撮影装置
101 撮影レンズ
102 絞り機構
103 メインミラー
104 シャッタ機構
105 イメージセンサ
106 イメージセンサ用ドライバ
107 AEセンサ
108 AEセンサ用ドライバ
109 画像変換部
110 撮影条件設定部
111 画像パラメータ設定部
112 絞り制御部
113 シャッタ制御部
114 機構制御部
115 画像分類部
116 画像保存部
117 画像表示部
118 操作部
DESCRIPTION OF
Claims (6)
前記測光センサより出力される測光データに基づいて前記被写界内の被写体の分類を推定する推定手段と、
前記推定された分類に基づいて撮影条件を設定する設定手段と、
前記設定された撮影条件で前記被写体を撮像する撮像手段と、
を備える、
撮影装置。 A photometric sensor for metering the object field;
Estimating means for estimating a classification of a subject in the object field based on photometric data output from the photometric sensor;
Setting means for setting shooting conditions based on the estimated classification;
Imaging means for imaging the subject under the set imaging conditions;
Comprising
Shooting device.
前記測光センサより出力される測光データに基づいて前記被写界内の被写体の分類を推定する推定手段と、
前記推定された分類に基づいて画像パラメータを設定する設定手段と、
前記被写体を撮像する撮像手段と、
前記設定された画像パラメータを用いて前記撮像手段より出力される画像データを処理する処理手段と、
を備える、
撮影装置。 A photometric sensor for metering the object field;
Estimating means for estimating a classification of a subject in the object field based on photometric data output from the photometric sensor;
Setting means for setting image parameters based on the estimated classification;
Imaging means for imaging the subject;
Processing means for processing image data output from the imaging means using the set image parameters;
Comprising
Shooting device.
前記被写体の分類の推定処理をパイプラインで実行する、
請求項1又は請求項2に記載の撮影装置。 The estimation means includes
Performing the subject classification estimation process in a pipeline;
The imaging device according to claim 1 or 2.
前記被写体の分類の推定処理を時分割で実行する、
請求項1から請求項3の何れか一項に記載の撮影装置。 The estimation means includes
Performing the subject classification estimation process in a time-sharing manner;
The imaging device according to any one of claims 1 to 3.
畳み込みニューラルネットワークを用いて前記被写体の分類を推定する、
請求項1から請求項4の何れか一項に記載の撮影装置。 The estimation means includes
Estimating the classification of the subject using a convolutional neural network;
The imaging device according to any one of claims 1 to 4.
畳み込みニューラルネットワークを用いて前記被写体の各分類候補を要素とする確信度ベクトルを取得し、
前記取得された確信度ベクトルの要素同士を相互作用させるマトリックス演算を行うことにより、該確信度ベクトルを補正し、
補正後の確信度ベクトルに基づいて前記被写体の分類を推定する、
請求項1から請求項5の何れか一項に記載の撮影装置。 The estimation means includes
Using a convolutional neural network to obtain a certainty vector having each classification candidate of the subject as an element;
Correcting the certainty factor vector by performing a matrix operation that causes the elements of the obtained certainty factor vector to interact with each other;
Estimating the classification of the subject based on the corrected confidence vector;
The imaging device according to any one of claims 1 to 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016019836A JP2017139646A (en) | 2016-02-04 | 2016-02-04 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016019836A JP2017139646A (en) | 2016-02-04 | 2016-02-04 | Imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017139646A true JP2017139646A (en) | 2017-08-10 |
Family
ID=59566138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016019836A Pending JP2017139646A (en) | 2016-02-04 | 2016-02-04 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017139646A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629767A (en) * | 2018-04-28 | 2018-10-09 | Oppo广东移动通信有限公司 | A kind of method, device and mobile terminal of scene detection |
CN109459852A (en) * | 2019-01-07 | 2019-03-12 | 史丽 | A kind of scattering medium optical imaging method neural network based |
JP2019095635A (en) * | 2017-11-24 | 2019-06-20 | 株式会社アクセル | Processing device, inference device, learning device, processing system, processing method, and processing program |
JP2021064008A (en) * | 2021-01-15 | 2021-04-22 | 株式会社アクセル | Processing device, inference device, learning device, processing system, processing method, and processing program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0469775A (en) * | 1990-07-10 | 1992-03-04 | Hitachi Ltd | Automatic cell classifying device |
JP2679730B2 (en) * | 1988-08-31 | 1997-11-19 | 富士通株式会社 | Hierarchical neural network |
WO2004070657A1 (en) * | 2003-02-05 | 2004-08-19 | Seiko Epson Corporation | Image processing device |
JP2010183252A (en) * | 2009-02-04 | 2010-08-19 | Nikon Corp | Imaging apparatus |
JP2011035635A (en) * | 2009-07-31 | 2011-02-17 | Casio Computer Co Ltd | Image processor and method |
JP2013187660A (en) * | 2012-03-07 | 2013-09-19 | Nikon Corp | Electronic camera |
JP2015032308A (en) * | 2013-07-31 | 2015-02-16 | 富士通株式会社 | Convolutional-neural-network-based classifier and classifying method and training methods for the same |
-
2016
- 2016-02-04 JP JP2016019836A patent/JP2017139646A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2679730B2 (en) * | 1988-08-31 | 1997-11-19 | 富士通株式会社 | Hierarchical neural network |
JPH0469775A (en) * | 1990-07-10 | 1992-03-04 | Hitachi Ltd | Automatic cell classifying device |
WO2004070657A1 (en) * | 2003-02-05 | 2004-08-19 | Seiko Epson Corporation | Image processing device |
JP2010183252A (en) * | 2009-02-04 | 2010-08-19 | Nikon Corp | Imaging apparatus |
JP2011035635A (en) * | 2009-07-31 | 2011-02-17 | Casio Computer Co Ltd | Image processor and method |
JP2013187660A (en) * | 2012-03-07 | 2013-09-19 | Nikon Corp | Electronic camera |
JP2015032308A (en) * | 2013-07-31 | 2015-02-16 | 富士通株式会社 | Convolutional-neural-network-based classifier and classifying method and training methods for the same |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019095635A (en) * | 2017-11-24 | 2019-06-20 | 株式会社アクセル | Processing device, inference device, learning device, processing system, processing method, and processing program |
US11373098B2 (en) | 2017-11-24 | 2022-06-28 | Axell Corporation | Processing apparatus, learning apparatus, processing method, and nonvolatile recording medium |
CN108629767A (en) * | 2018-04-28 | 2018-10-09 | Oppo广东移动通信有限公司 | A kind of method, device and mobile terminal of scene detection |
CN108629767B (en) * | 2018-04-28 | 2021-03-26 | Oppo广东移动通信有限公司 | Scene detection method and device and mobile terminal |
CN109459852A (en) * | 2019-01-07 | 2019-03-12 | 史丽 | A kind of scattering medium optical imaging method neural network based |
JP2021064008A (en) * | 2021-01-15 | 2021-04-22 | 株式会社アクセル | Processing device, inference device, learning device, processing system, processing method, and processing program |
JP7096610B2 (en) | 2021-01-15 | 2022-07-06 | 株式会社アクセル | Processing equipment, inference equipment, learning equipment, processing system, processing method, and processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102306304B1 (en) | Dual camera-based imaging method and device and storage medium | |
JP6911192B2 (en) | Image processing methods, equipment and devices | |
US8411159B2 (en) | Method of detecting specific object region and digital camera | |
US8294785B2 (en) | Method for adjusting photosensitiveness of digital camera | |
US8823863B2 (en) | Image capturing apparatus and control method therefor | |
US20150195482A1 (en) | Method, system and smartphone that chooses optimal image to reduce shutter shake | |
US8743209B2 (en) | Image pickup apparatus and method for controlling the same | |
JP2018031877A (en) | Image pickup device and focus adjusting method | |
JP2018004918A (en) | Focus adjustment device and method, and imaging apparatus | |
JP2019186911A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP2017139646A (en) | Imaging apparatus | |
JP5407373B2 (en) | Imaging apparatus and program | |
JP6656584B2 (en) | Imaging equipment | |
JP4670635B2 (en) | Imaging device | |
JP6463402B2 (en) | Focus adjustment apparatus and method, and imaging apparatus | |
US20150254856A1 (en) | Smart moving object capture methods, devices and digital imaging systems including the same | |
JP5070856B2 (en) | Imaging device | |
JP4871664B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP6246705B2 (en) | Focus control device, imaging device, and focus control method | |
JP2009302747A (en) | Imaging device, image processing device, and program | |
JP5245644B2 (en) | Exposure calculator | |
JP2008263319A (en) | Imaging device and control method of imaging device | |
JP2010171830A (en) | View finder system and imaging apparatus with the same | |
JP2008172368A (en) | Imaging apparatus, control method thereof, program and storage medium | |
US20080056701A1 (en) | Systems and methods of automatically selecting a focus range in cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170718 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181211 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190909 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200302 |