JP7286330B2 - Image processing device and its control method, program, storage medium - Google Patents
Image processing device and its control method, program, storage medium Download PDFInfo
- Publication number
- JP7286330B2 JP7286330B2 JP2019018256A JP2019018256A JP7286330B2 JP 7286330 B2 JP7286330 B2 JP 7286330B2 JP 2019018256 A JP2019018256 A JP 2019018256A JP 2019018256 A JP2019018256 A JP 2019018256A JP 7286330 B2 JP7286330 B2 JP 7286330B2
- Authority
- JP
- Japan
- Prior art keywords
- main subject
- image
- determined
- learning
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像処理装置における主被写体領域を決定する技術に関するものである。 The present invention relates to a technique for determining a main subject area in an image processing device.
従来より、撮像装置や画像処理装置において、ユーザが何らかの操作をすることなく、装置が画像を識別し、自動で主被写体を選定する機能が知られている。この機能では、開発者が予め想定する画像群を用意し、各々の画像において主被写体とすべき正解を設定しており、それらに基づいて決定器のパラメータが調整されている。例えば、特許文献1には、予め用意された学習データ群を用いてニューラルネットワークを用いた物体の決定を行う方法が開示されている。
2. Description of the Related Art Conventionally, in an imaging device or an image processing device, a function is known in which the device identifies an image and automatically selects a main subject without any operation by the user. In this function, the developer prepares a group of assumed images in advance, sets the correct answer to be the main subject in each image, and adjusts the parameters of the determiner based on them. For example,
また、予め学習した決定器に加え、決定時に決定領域から得られた情報を用いて、追加の学習を行う方法も提案されている。例えば、特許文献2には、予め学習した固定識別機と固定識別機の決定領域から得られた情報とを辞書データに追加した学習識別機を用いて物体を決定する方法が開示されている。
In addition to the pre-learned decider, a method of performing additional learning using information obtained from the decision area at the time of decision has also been proposed. For example,
ここで、ユーザが頻繁に撮影する画像は、それぞれのユーザによって異なるのが一般的である。また同じ画像であっても主被写体とすべき正解はユーザによって異なる。従って、主被写体の自動選択を行う機能においても、各ユーザの好みに応じた調整がなされるべきである。 Here, images that are frequently shot by users are generally different for each user. Further, even for the same image, the correct answer to be the main subject differs depending on the user. Therefore, the function of automatically selecting the main subject should be adjusted according to each user's preference.
しかしながら、上述の特許文献1では予め用意された学習データ群から学習しているだけであり、上述の特許文献2では、固定識別機の決定領域から得られた情報を辞書データに追加しているだけである。そのため、いずれの技術においても、ユーザの好みに応じた調整がなされているとは言えない。
However, in the above-mentioned
本発明は上述した課題に鑑みてなされたものであり、画像から主被写体を選択する場合に、ユーザの所望する被写体を適切に選択することができる画像処理装置を提供することである。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus capable of appropriately selecting a subject desired by a user when selecting a main subject from an image.
本発明に係わる画像処理装置は、取得した画像から主被写体を決定する決定手段を用いて主被写体が決定された画像の中から、前記決定手段のための学習において負の報酬を与えるデータとして用いる画像を、ユーザの入力に基づいて選別する選別手段を有し、前記選別手段は、撮影指示を示すユーザの入力があった際に前記決定手段を用いて決定されていた第1の主被写体と、前記撮影指示を示すユーザの入力の前に前記決定手段を用いて決定されていた第2の主被写体とが異なる被写体である場合に、前記第2の主被写体が決定された画像を、前記負の報酬を与えるデータとして選別することを特徴とする。 The image processing apparatus according to the present invention uses, as data to give a negative reward in learning for the determining means, an image in which the main subject has been determined using the determining means for determining the main subject from the acquired image. A selection means is provided for selecting an image based on user input, and the selection means selects the first main subject determined by the determination means when there is a user input indicating a photographing instruction. and, if the subject is different from the second main subject determined using the determining means before the user's input indicating the photographing instruction, the image in which the second main subject is determined is It is characterized in that it is sorted out as data that gives a negative reward .
本発明によれば、画像から主被写体を選択する場合に、ユーザの所望する被写体を適切に選択することができる画像処理装置を提供することが可能となる。 According to the present invention, it is possible to provide an image processing apparatus capable of appropriately selecting a subject desired by a user when selecting a main subject from an image.
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In addition, the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.
(撮像装置の構成)
図1は、本発明の一実施形態に係わる画像処理装置としての撮像装置100の構成を示すブロック図である。
(Configuration of imaging device)
FIG. 1 is a block diagram showing the configuration of an
図1において、撮像装置100は、被写体を撮影して、動画や静止画のデータを、テープ、固体メモリ、光ディスク、磁気ディスクなどの各種メディアに記録可能なデジタルスチルカメラやビデオカメラなどである。しかし、本発明はこれらに限定されるものではなく、カメラ付き携帯電話やタブレット端末等の撮影機能を有する他の装置にも適用可能である。撮像装置100内の各ユニットは、バス160を介して接続されている。また各ユニットは、CPU151(中央演算処理装置)により制御される。
In FIG. 1, an
レンズユニット101は、固定1群レンズ102、ズームレンズ111、絞り103、固定3群レンズ121、および、フォーカスレンズ131を備えて構成される。絞り制御回路105は、CPU151の指令に従い、絞りモータ104(AM)を介して絞り103を駆動することにより、絞り103の開口径を調整して撮影時の光量調節を行う。ズーム制御回路113は、ズームモータ112(ZM)を介してズームレンズ111を駆動することにより、焦点距離を変更する。フォーカス制御回路133は、レンズユニット101のピントのずれ量に基づいてフォーカスモータ132(FM)を駆動する駆動量を決定する。加えてフォーカス制御回路133は、フォーカスモータ132(FM)を介してフォーカスレンズ131を駆動することにより、焦点調節状態を制御する。フォーカス制御回路133およびフォーカスモータ132によるフォーカスレンズ131の移動制御により、AF制御が実現される。フォーカスレンズ131は、焦点調節用レンズであり、図1には単レンズで簡略的に示されているが、通常複数枚のレンズで構成される。
The
レンズユニット101を介して撮像素子141上に結像された被写体像は、撮像素子141により電気信号に変換される。撮像素子141は、被写体像(光学像)を電気信号に変換する光電変換素子である。撮像素子141は、横方向にm画素、縦方向にn画素の受光素子が配置されている。撮像素子141上に結像されて光電変換された画像は、撮像信号処理回路142により画像信号(画像データ)として整えられる。
A subject image formed on the
撮像信号処理回路142から出力される画像データは、撮像制御回路143に送られ、一時的にRAM(ランダム・アクセス・メモリ)154に蓄積される。RAM154に蓄積された画像データは、画像圧縮解凍回路153において圧縮された後、画像記録媒体157に記録される。これと並行して、RAM154に蓄積された画像データは、画像処理回路152に送られる。画像処理回路152は、画像信号を処理し、画像データに対して最適なサイズへの縮小・拡大処理や画像データ同士の類似度算出処理等を行う。最適なサイズに処理された画像データを、適宜モニタディスプレイ150に送って表示することによりプレビュー画像表示やスルー画像表示を行うことができる。また、主被写体決定回路162の主被写体決定結果を画像データに重畳表示することもできる。また、RAM154をリングバッファとして用いることにより、所定期間内に撮像された複数の画像データと、画像データ毎に対応した主被写体決定回路162の決定結果をバッファリングすることができる。また同様に、主被写体決定回路162の学習に用いた画像データと、画像データに対応した主被写体決定結果とをバッファリングすることができる。
Image data output from the imaging signal processing circuit 142 is sent to an imaging control circuit 143 and temporarily stored in a RAM (random access memory) 154 . The image data accumulated in the
操作スイッチ156は、タッチパネルやボタンなどを含む入力インターフェイスであり、モニタディスプレイ150に表示される種々の機能アイコンを選択操作することなどにより、様々な操作を行うことができる。例えば、ユーザは、モニタディスプレイ150に表示されたスルー画像を見ながら、主被写体位置をマニュアル指定したり、既に指定されている主被写体をキャンセルしたりすることができる。
The
CPU151は、操作スイッチ156から入力されたユーザからの指示、あるいは、一時的にRAM154に蓄積された画像データの画素信号の大きさに基づき、撮像素子141の蓄積時間、撮像素子141から撮像信号処理回路142へ信号を出力する際のゲインの設定値等を決定する。撮像制御回路143は、CPU151から蓄積時間、ゲインの設定値の指示を受け取り、撮像素子141を制御する。
The
主被写体決定回路162は、画像信号を用いて主被写体が存在する領域を決定する。主被写体決定回路162における主被写体決定処理は、CNN(Convolutinal Neural Networks)による特徴抽出処理により実現される。主被写体決定回路162は、GPU(Graphic Processing Unit)で構成される。GPUは、元々は画像処理用のプロセッサであるが、複数の積和演算器を有し、行列計算を得意としているため、学習用の処理を行うプロセッサとしても用いられることが多い。そして、深層学習を行う処理においても、GPUが用いられることが一般的であるが、FPGA(field-programmable gate array)やASIC(application specific integrated circuit)などを用いてもよい。
A main
フォーカス制御回路133は、特定の被写体領域に対するAF制御を行う。絞り制御回路105は、特定の被写体領域の輝度値を用いた露出制御を行う。画像処理回路152は、被写体領域に基づいたガンマ補正、ホワイトバランス処理などを行う。モニタディスプレイ150は、画像や主被写体決定結果を矩形などで表示する。バッテリ159は、電源管理回路158により適切に管理され、撮像装置100の全体に安定した電源供給を行う。
A
フラッシュメモリ155には、撮像装置100の動作に必要な制御プログラムや、各部の動作に用いるパラメータ等が記録されている。ユーザの操作により撮像装置100が起動されると(電源OFF状態から電源ON状態へ移行すると)、フラッシュメモリ155に格納された制御プログラム及びパラメータがRAM154の一部に読み込まれる。CPU151は、RAM154にロードされた制御プログラム及び定数に従って撮像装置100の動作を制御する。
The
(全体処理フロー)
図2は、本実施形態の撮像装置100における全体動作の流れを示すフローチャートである。図2に示すフローチャートは、撮像装置がライブビュー表示をしている状態で、例えば、ライブビューの1フレーム期間ごとに繰り返される。
(Overall processing flow)
FIG. 2 is a flow chart showing the overall operation flow of the
撮像装置100がライブビュー表示を開始すると、まず、S201において、撮像制御回路143は、レンズユニット101、撮像素子141を用いて取得された入力画像を撮像装置100の各部へ供給する。
When the
S202においては、主被写体決定回路162は、入力画像に対して主被写体決定を行う。主被写体決定処理の詳細は後述する。また主被写体決定回路162には予め必要な学習がなされているものとし、学習処理の詳細は後述する。
In S202, the main
S203においては、CPU151は、S202において主被写体決定回路162から主被写体決定結果が出力されたか否かを判定する。出力されていればS204へ進み、出力されていなければS205へ進む。
In S203, the
S204においては、モニタディスプレイ150は、入力画像を表示すると共に主被写体決定結果を重畳表示する。S205においては、モニタディスプレイ150は、入力画像のみを表示する。
In S204, the
S206においては、CPU151は、S204でライブビュー表示した入力画像、主被写体決定結果および表示時刻を、1組のデータセットとしてRAM154にバッファリングする。S207においては、CPU151は、RAM154にバッファリングされたデータセットから、ポジティブ学習、あるいは、ネガティブ学習に用いるための入力画像を選択する。この処理については後述する。
In S206, the
S208においては、CPU151は、ユーザから撮影指示があったか否かを判定し、撮影指示がある場合にはS209に進み、撮影指示がない場合にはS211に進む。なお、撮影指示とは、記録のための静止画の撮影を開始するための指示、あるいは、記録のための動画の撮影を開始するための指示である。ユーザがレリーズボタンを全押ししたり、タッチパネルを操作することによって、ユーザは撮影指示を与えることができる。
In S208, the
S209において、CPU151は静止画あるいは動画の撮影処理を行い、撮影が終了するとS210に進む。
In S209, the
S210において、CPU151は、RAM154にバッファリングされたデータセットから、ポジティブ学習、あるいは、ネガティブ学習に用いるためのデータセットを選択する。この処理については後述する。
In S<b>210 , the
S211において、CPU151は、S207およびS210にて選択された入力画像の数が閾値以上であるか否かを判定し、閾値以上であればS212に進み、閾値未満であればS213に進む。
In S211, the
S212において、主被写体決定回路162は、追加学習処理を行う。追加学習処理の詳細は後述する。
In S212, the main
S213においては、CPU151は、操作スイッチ156からの終了指示があるか否かを判定する。終了指示があれば処理を終了し、終了指示がなければS201に戻り、一連の処理を繰り返す。
In S<b>213 , the
(主被写体決定結果の例)
図3は、図2のS204において表示される主被写体決定結果の例を示す図である。図3(a)はS207における追加学習を行っていない場合の主被写体決定結果の例を示している。図3(b)は、花を好み、頻繁に撮影するユーザの操作により、S207において追加学習を行った後の主被写体決定結果の例を示している。図3(c)は、鳥を好み、頻繁に撮影するユーザの操作により、S207における追加学習を行った後の主被写体決定結果の例を示している。
(Example of main subject determination result)
FIG. 3 is a diagram showing an example of the main subject determination result displayed in S204 of FIG. FIG. 3A shows an example of the main subject determination result when additional learning is not performed in S207. FIG. 3B shows an example of the main subject determination result after additional learning is performed in S207 by the operation of a user who likes flowers and frequently shoots them. FIG. 3(c) shows an example of the main subject determination result after additional learning in S207 by the operation of a user who likes birds and frequently shoots them.
(主被写体決定回路の説明)
本実施形態では、主被写体決定回路162をCNN(Convolutinal Neural Networks)で構成する。CNNの基本的な構成について、図4および図5を用いて説明する。
(Description of main subject determination circuit)
In this embodiment, the main
図4は、入力された2次元画像データおよび位置マップから主被写体を決定するCNNの基本的な構成を示す図である。処理の流れは、左端を入力とし、右方向に処理が進んでいく。CNNは、特徴検出層(S層)と特徴統合層(C層)と呼ばれる2つの層をひとつのセットとし、それが階層的に構成されている。 FIG. 4 is a diagram showing the basic configuration of a CNN that determines a main subject from input two-dimensional image data and a position map. In the flow of processing, the left end is the input and the processing proceeds to the right. The CNN has a set of two layers called a feature detection layer (S layer) and a feature integration layer (C layer), which are hierarchically configured.
CNNでは、まずS層において前段階層で検出された特徴に基づいて次の特徴を検出する。またS層において検出した特徴をC層で統合し、その階層における検出結果として次の階層に送るように構成されている。このCNNに入力される情報としてはさまざまなものが考えられる。例えば、RGB画像、あるいは現像処理前の画素単位の撮像画像信号(RAW画像)や画像のデプス情報、物体検出器による物体検出スコアのマップ、画像の局所領域における分散値から得られるコントラストマップ、などが挙げられる。 In CNN, first, the following features are detected in the S layer based on the features detected in the previous layer. In addition, the features detected in the S layer are integrated in the C layer, and the results of detection in that layer are sent to the next layer. Various information can be considered as information input to this CNN. For example, an RGB image, a pixel-by-pixel captured image signal (RAW image) before development processing, image depth information, an object detection score map by an object detector, a contrast map obtained from variance values in a local area of an image, etc. is mentioned.
S層は特徴検出細胞面からなり、特徴検出細胞面ごとに異なる特徴を検出する。また、C層は、特徴統合細胞面からなり、前段の特徴検出細胞面での検出結果をプーリングする。以下では、特に区別する必要がない場合、特徴検出細胞面および特徴統合細胞面を総称して特徴面と呼ぶ。本実施形態では、最終段階層である出力層は、C層は用いずS層のみで構成されている。 The S layer consists of feature detection cell planes, and detects different features for each feature detection cell plane. Also, the C layer consists of a feature integration cell plane, and pools the detection results of the feature detection cell plane in the preceding stage. Hereinafter, the feature detection cell plane and the feature integration cell plane will be collectively referred to as feature planes when there is no particular need to distinguish them. In this embodiment, the output layer, which is the final stage layer, is composed only of the S layer without using the C layer.
図5は、特徴検出細胞面での特徴検出処理、および特徴統合細胞面での特徴統合処理について説明する図である。 FIG. 5 is a diagram for explaining feature detection processing in the feature detection cell plane and feature integration processing in the feature integration cell plane.
特徴検出細胞面は、複数の特徴検出ニューロンにより構成され、特徴検出ニューロンは前段階層のC層に所定の構造で結合されている。また特徴統合細胞面は、複数の特徴統合ニューロンにより構成され、特徴統合ニューロンは同階層のS層に所定の構造で結合されている。図5に示した、L階層目S層のM番目細胞面内において、位置(ξ,ζ)の特徴検出ニューロンの出力値をyM LS(ξ,ζ)、L階層目C層のM番目細胞面内において、位置(ξ,ζ)の特徴統合ニューロンの出力値をyM LC(ξ,ζ)と表記する。その場合、それぞれのニューロンの結合係数をwM LS(n,u,v)、wM LC(u,v)とすると、各出力値は以下のように表すことができる。 The feature detection cell surface is composed of a plurality of feature detection neurons, and the feature detection neurons are connected to the C layer of the pre-stage layer in a predetermined structure. The feature-integrating cell surface is composed of a plurality of feature-integrating neurons, and the feature-integrating neurons are connected to the S layer of the same hierarchy in a predetermined structure. In the M-th cell plane of the L-th layer S layer shown in FIG . In the cell plane, the output value of the feature integration neuron at position (ξ, ζ) is expressed as y M LC (ξ, ζ). In that case, if the coupling coefficients of the neurons are w M LS (n, u, v) and w M LC (u, v), each output value can be expressed as follows.
式(1)のfは活性化関数であり、ロジスティック関数や双曲正接関数などのシグモイド関数であれば何でもよく、例えばtanh関数で実現してよい。uM
LS(ξ,ζ)は、L階層目S層のM番目細胞面における、位置(ξ,ζ)の特徴検出ニューロンの内部状態である。式(2)は活性化関数を用いず単純な線形和をとっている。式(2)のように活性化関数を用いない場合は、ニューロンの内部状態uM
LC(ξ,ζ)と出力値yM
LC(ξ,ζ)は等しい。また、式(1)のyn
(L-1C)(ξ+u,ζ+v)、式(3)のyM
LS(ξ+u,ζ+v)をそれぞれ特徴検出ニューロン、特徴統合ニューロンの結合先出力値と呼ぶ。
f in Equation (1) is an activation function, which may be any sigmoid function such as a logistic function or a hyperbolic tangent function, and may be realized by, for example, a tanh function. u M LS (ξ, ζ) is the internal state of the feature detection neuron at position (ξ, ζ) on the M-th cell plane of the L-th layer S layer. Equation (2) takes a simple linear sum without using an activation function. When no activation function is used as in Equation (2), the neuron's internal state u M LC (ξ, ζ) and output value y M LC (ξ, ζ) are equal. Also, y n (L−1C) (ξ+u, ζ+v) in equation (1) and y M LS (ξ+u, ζ+v) in equation (3) are represented by feature detection neurons and feature integration neurons, respectively. is called the destination output value of
ここで、式(1)及び式(2)中のξ,ζ,u,v,nについて説明する。位置(ξ,ζ)は、入力画像における位置座標に対応しており、例えばyM LS(ξ,ζ)が高い出力値である場合は、入力画像の画素位置(ξ,ζ)に、L階層目S層M番目細胞面において検出する特徴が存在する可能性が高いことを意味する。またnは式(2)において、L-1階層目C層n番目細胞面を意味しており、統合先特徴番号と呼ぶ。基本的にL-1階層目C層に存在する全ての細胞面についての積和演算を行う。(u,v)は、結合係数の相対位置座標であり、検出する特徴のサイズに応じて有限の範囲(u,v)において積和演算を行う。このような有限な(u,v)の範囲を受容野と呼ぶ。また受容野の大きさを、以下では受容野サイズと呼び、結合している範囲の横画素数×縦画素数で表す。 Here, ξ, ζ, u, v, and n in equations (1) and (2) will be explained. The position (ξ, ζ) corresponds to the position coordinates in the input image. For example, if y M LS (ξ, ζ) is a high output value, then L This means that there is a high probability that the features detected in the M-th cell surface of the S-th layer are present. Also, n in the formula (2) means the n-th cell surface of the C layer of the L-1 layer, and is called the integrated feature number. Basically, sum-of-products operations are performed for all cell planes present in the L-1 layer C layer. (u, v) are the relative position coordinates of the coupling coefficient, and the sum-of-products operation is performed in a finite range (u, v) according to the size of the feature to be detected. Such a finite range of (u, v) is called a receptive field. The size of the receptive field is hereinafter referred to as the size of the receptive field, and is represented by the number of horizontal pixels×the number of vertical pixels in the combined range.
また式(1)において、L=1つまり一番初めのS層では、yn (L-1C)(ξ+u,ζ+v)は、入力画像yin_image (ξ+u,ζ+v)または、入力位置マップyin_posi_map (ξ+u,ζ+v)となる。ちなみに、ニューロンや画素の分布は離散的であり、結合先特徴番号も離散的なので、ξ,ζ,u,v,nは連続な変数ではなく、離散的な値をとる。ここでは、ξ,ζは非負整数、nは自然数、u,vは整数とし、何れも有限な範囲となる。 Also, in equation (1), y n (L-1C) (ξ+u, ζ+v) is the input image y in_image (ξ+u, ζ+v) Alternatively, it becomes the input position map y in_posi_map (ξ+u, ζ+v). Incidentally, the distribution of neurons and pixels is discrete, and the connection destination feature number is also discrete, so ξ, ζ, u, v, and n are not continuous variables but discrete values. Here, ξ and ζ are non-negative integers, n is a natural number, and u and v are integers, all of which have a finite range.
式(1)中のwM LS(n,u,v)は、所定の特徴を検出するための結合係数分布であり、これを適切な値に調整することによって、所定の特徴を検出することが可能になる。この結合係数分布の調整が学習であり、CNNの構築においては、さまざまなテストパターンを提示して、yM LS(ξ,ζ)が適切な出力値になるように、結合係数を繰り返し徐々に修正していくことにより結合係数の調整を行う。 w M LS (n, u, v) in equation (1) is a coupling coefficient distribution for detecting a predetermined feature, and by adjusting this to an appropriate value, the predetermined feature can be detected. becomes possible. This adjustment of the coupling coefficient distribution is learning, and in constructing the CNN, various test patterns are presented, and the coupling coefficients are repeatedly adjusted so that y M LS (ξ, ζ) becomes an appropriate output value. Coupling coefficients are adjusted by correcting them.
次に、式(2)中のwM LC(u,v)は、2次元のガウシアン関数を用いており、以下の式(3)のように表すことができる。 Next, w M LC (u,v) in Equation (2) uses a two-dimensional Gaussian function and can be expressed as in Equation (3) below.
ここでも、(u,v)は有限の範囲としているので、特徴検出ニューロンの説明と同様に、有限の範囲を受容野といい、範囲の大きさを受容野サイズと呼ぶ。この受容野サイズは、ここではL階層目S層のM番目特徴のサイズに応じて適当な値に設定すればよい。式(3)中の、σは特徴サイズ因子であり、受容野サイズに応じて適当な定数に設定しておけばよい。具体的には、受容野の一番外側の値がほぼ0とみなせるような値になるように設定するのがよい。
Since (u, v) has a finite range here as well, the finite range is called the receptive field, and the size of the range is called the receptive field size, as in the description of the feature detection neuron. This receptive field size may be set to an appropriate value according to the size of the M-th feature of the L-th layer S layer. In Equation (3), σ is a feature size factor, which may be set to an appropriate constant according to the size of the receptive field. Specifically, it is preferable to set the value so that the outermost value of the receptive field can be regarded as approximately zero.
上述のような演算を各階層で行うことにより、最終階層のS層において、主被写体決定を行うのが、本実施形態におけるCNNの構成である。 The configuration of the CNN in this embodiment is to determine the main subject in the S layer, which is the final layer, by performing the above-described calculations in each layer.
(追加学習処理の流れ)
図6は、図2のS207における画像の選択処理の流れを示すフローチャートである。なお、以下では、入力画像の所定の領域を主被写体を決定すべきテストパターンとして学習することをポジティブ(肯定的)学習と記載する。また所定の領域を主被写体を決定すべきではないテストパターンとして学習することをネガティブ(否定的)学習と記載する。また各学習における詳細は後述する。
(Flow of additional learning process)
FIG. 6 is a flowchart showing the flow of image selection processing in S207 of FIG. Note that hereinafter, learning a predetermined area of an input image as a test pattern for determining a main subject is referred to as positive learning. Also, learning a predetermined area as a test pattern for which the main subject should not be determined is referred to as negative learning. Details of each learning will be described later.
まず、S601において、CPU151は、操作スイッチ156からマニュアル指示があったか否かを判定する。マニュアル指示があった場合にはS602に進み、マニュアル指示がない場合はS605に進む。ここでマニュアル指示とは、ユーザが操作スイッチ156をマニュアル操作し、画像に対する主被写体領域を指定する操作(選択指示)を指す。S601でマニュアル指示があったということは、図2のS202において決定された主被写体がユーザが所望する主被写体と異なることを意味するため、S602以降の処理に進む。
First, in S<b>601 , the
S602においては、S601でユーザがマニュアルで指示した被写体が正しい主被写体と考えられる。そのため、CPU151は、図2のS201で取得した入力画像と、S601でマニュアル指示された主被写体領域をポジティブ学習のためのデータセットとして選別する。
In S602, the subject manually designated by the user in S601 is considered to be the correct main subject. Therefore, the
S603においては、CPU151は、図2のS202で決定した主被写体領域と、S601でマニュアル指定された主被写体領域が異なる被写体であるか否かを判定する。例えば、図2のS202で決定した主被写体領域と、S601でマニュアル指定された主被写体領域が所定間隔以上離れている場合、2つの領域が異なる被写体であると判定する。所定間隔以上離れていればS604に進み、離れていなければこのフローチャートを終了する。なおここでの所定間隔は十分大きければ何でもよいが、例えば入力画像の画角に対する割合で決定してもよい。より具体的には、入力画像が640×480画素の画像である場合、例えば、水平サイズの640に対する10%である64画素を所定間隔としてもよい。なお、顔検出、人体検出、あるいは、物体検出などの結果により、S202で決定した主被写体領域とS601でマニュアル指定された主被写体領域が異なる被写体であることが明らかであれば、2つの領域の間の距離を判定する必要はない。
In S603, the
S604においては、CPU151は、図2のS201で取得した入力画像と、S202で決定した主被写体領域をネガティブ学習のためのデータセットとして選別する。そして、このフローチャートを終了する。
In S604, the
S605においては、CPU151は、操作スイッチ156からキャンセル指示があったか否かを判定する。キャンセル指示があった場合にはS606に進み、キャンセル指示がない場合にはこのフローチャートを終了する。ここでキャンセル指示とは、図2のS204で出力した主被写体決定結果を削除し、撮像装置100を主被写体の決定がされていない状態にする操作を指す。例えば、主被写体領域の決定をやり直すことをユーザが指示できる機能が搭載されている場合には、その指示が、キャンセル指示に相当する。あるいは、焦点調節の対象とする被写体を確定するための操作である、レリーズボタンの半押しがユーザによってやり直された場合には、この半押しのやり直しが、キャンセル指示に相当する。S605でキャンセル指示があったということは、図2のS202において決定された主被写体がユーザが所望する主被写体と異なることを意味するため、S606の処理に進む。
In S<b>605 , the
S606においては、CPU151は、図2のS201で取得した入力画像と、S202で決定した主被写体領域をネガティブ学習のためのデータセットとして選別する。そして、このフローチャートを終了する。
In S606, the
図7は、図2のS210における画像の選択処理の流れを示すフローチャートである。 FIG. 7 is a flow chart showing the flow of image selection processing in S210 of FIG.
S701においては、CPU151は、RAM154にバッファリングされたデータセット群のそれぞれについて、撮影指示があったときと同じ被写体が、主被写体として決定されたデータセットであるか否かを判定する。撮影指示があったときと同じ被写体が主被写体として決定されているデータセットであればS702に進み、そうでなければS703に進む。撮影指示よりも前に、撮影指示があったときに主被写体として決定されていた被写体とは別の被写体が、主被写体として決定されていたのであれば、先の主被写体の決定は誤りである可能性が高い。そのため、別の被写体が主被写体として決定されていたときのデータセットは、ネガティブ学習のためのデータセットとして有効である。
In S<b>701 , the
S702においては、CPU151は、撮影指示があったときと同じ被写体が主被写体として決定されているデータセット群から、ポジティブ学習条件を満たすデータセットを選別する。ここでのポジティブ学習条件とは、データセットのうち表示時刻と本ステップの実行時刻の差が所定時間未満であることである。なお、ここでの所定時間は、ユーザが図2のS204でモニタディスプレイ150に出力された主被写体決定結果を確認してから、S607で操作スイッチ156を用いて撮影指示を行うまでのタイムラグに基づいて決定してもよい。より具体的には、例えば所定時間を2秒とする。また1度に複数のデータセットが条件を満たす場合には、各々のデータセットに含まれる入力画像同士の類似度を算出し、類似度が所定値以上の場合には、類似する何れかのデータセットを選別対象から除外する。除外処理においては、データセットに含まれる表示時刻と本ステップの実行時刻の差が大きいデータを優先的に除外してもよい。ここでの類似度には、SAD値やヒストグラム差分等を用いることができる。
In S702, the
S703においては、CPU151は、撮影指示があったときと別の被写体が主被写体として決定されているデータセット群から、ネガティブ学習条件を満たすデータセットを選別する。また1度に複数のデータセットが条件を満たす場合には、S608と同様に除外処理を行う。CPU151は、S702およびS703の少なくともいずれかの処理が行われると、このフローチャートを終了する。
In S703, the
そして、図2のS212において、主被写体決定回路162は、S210およびS212で選別したデータセットを用いて、強化学習を行う。
Then, in S212 of FIG. 2, the main
なお、S212においては、CPU151は、図2のS206でRAM154にバッファリングしたデータセットの全削除を行う。
In S212, the
以上説明したように、ユーザ操作に基づいて追加学習を行うことにより、ユーザの嗜好に応じて主被写体決定回路162のパラメータを調整することができる。またデータセット選別時に類似度の高いデータセットを除外しているため、特定のシーンに対する過学習を抑制できる。
As described above, by performing additional learning based on the user's operation, it is possible to adjust the parameters of the main
(学習方法)
次に、具体的な学習方法について説明する。本実施形態では教師ありの学習により、結合係数の調整を行う。教師ありの学習では、テストパターンを与えて実際にニューロンの出力値を求め、その出力値と教師信号(そのニューロンが出力すべき望ましい出力値)の関係から結合係数wM
LS(n,u,v)の修正を行えばよい。本実施形態の学習においては、最終層の特徴検出層は最小二乗法を用い、中間層の特徴検出層は誤差逆伝搬法を用いて結合係数の修正を行う(最小二乗法や、誤差逆伝搬法等の、結合係数の修正手法の詳細は、非特許文献1を参照)。
(learning method)
Next, a specific learning method will be described. In this embodiment, the coupling coefficient is adjusted by supervised learning. In supervised learning, a test pattern is given to actually obtain the output value of a neuron, and the coupling coefficient w M LS (n, u, v) should be corrected. In the learning of this embodiment, the last feature detection layer uses the least squares method, and the intermediate feature detection layer uses the error backpropagation method to correct the coupling coefficients (the least squares method, error backpropagation
本実施形態では、予め学習する場合には、学習用のテストパターンとして、検出すべき特定パターンと、検出すべきでないパターンを多数用意し、追加学習する場合には、前述の方法で学習すべきテストパターンをバッファから選定する。各テストパターンは、画像および教師信号を1セットとする。ポジティブ学習のために選別されたデータセットが、検出すべき特定パターンとして用いられ、ネガティブ学習のための選別されたデータセットが、検出すべきでないパターンとして用いられる。 In this embodiment, when learning in advance, a large number of specific patterns to be detected and patterns not to be detected are prepared as test patterns for learning. Select a test pattern from the buffer. Each test pattern is a set of images and teacher signals. The data set selected for positive learning is used as the specific pattern to be detected, and the data set selected for negative learning is used as the pattern not to be detected.
活性化関数にtanh関数を用いる場合は、検出すべき特定パターンを提示した場合は、最終層の特徴検出細胞面の、特定パターンが存在する領域のニューロンに対し、出力が1となるように教師信号を与える。すなわち、正の報酬を与える。逆に、検出すべきでないパターンを提示した場合は、そのパターンの領域のニューロンに対し、出力が-1となるように教師信号を与えることになる。すなわち、負の報酬を与える。 When the tanh function is used as the activation function, when a specific pattern to be detected is presented, the neuron in the area where the specific pattern exists in the feature detection cell surface of the final layer is supervised so that the output becomes 1. give a signal. That is, give a positive reward. Conversely, when a pattern that should not be detected is presented, a teacher signal is given to the neuron in the region of that pattern so that the output becomes -1. i.e. give a negative reward.
以上の方法により、2次元画像から主被写体を決定するためのCNNが構築される。実際の決定においては、学習により構築した結合係数wM LS(n,u,v)を用いて演算を行い、最終層の特徴検出細胞面上のニューロン出力が、所定値以上であれば、そこに主被写体が存在すると判定する。 A CNN for determining a main subject from a two-dimensional image is constructed by the above method. In actual determination, computation is performed using the coupling coefficients w M LS (n, u, v) constructed by learning. It is determined that the main subject exists in
なお、本実施形態では、撮像装置100が主被写体決定回路162を有し、学習のためのデータセットの選別および強化学習も行う構成を例に挙げて説明を行ったが、これに限られるものではない。
In the present embodiment, the
例えば、カメラ機能を有するスマートフォンやタブレット端末を、サーバあるいはエッジコンピュータなどの外部装置と無線通信により接続するシステムにおいても、本発明を適用することが可能である。 For example, the present invention can be applied to a system in which a smartphone or tablet terminal having a camera function is connected to an external device such as a server or an edge computer by wireless communication.
図8は、スマートフォンとサーバからなるシステムを示す。スマートフォン801が内部のRAMにバッファリングされたデータセットをサーバ802に送信し、サーバ802が強化学習を行って、スマートフォン801の内部の主被写体決定回路の結合係数を求める。そして、サーバ802が求めた結合係数をスマートフォン801に送信し、スマートフォン801は受信した結合係数を主被写体決定回路に設定する。このとき、スマートフォン801のRAMにバッファリングされたデータセットからポジティブ学習、および、ネガティブ学習のためのデータセットを選別する処理は、スマートフォン801とサーバ802のいずれが行っても構わない。スマートフォン801がデータセットの選別を行うのであれば、選別後のデータセットを、スマートフォン801からサーバ802に送信すればよい。サーバ802がデータセットの選別を行うのであれば、スマートフォン801はRAMにバッファリングされた全てのデータセットと、そのデータセットに対して関連付けて記憶されたユーザ操作の情報を、サーバ802に送信する。データセットに含まれる画像と、ユーザ操作の情報は時間軸上の対応付けがされているものとする。このような構成であれば、スマートフォン801は、データセットとユーザ操作情報をサーバ802に送信することで、サーバ802がデータセットの選別を行うことができる。
FIG. 8 shows a system consisting of a smart phone and a server. The
また、スマートフォン801が主被写体決定回路を備えておらず、サーバ802が主被写体決定回路を備えるように構成してもよい。スマートフォン801はリアルタイムで入力画像をサーバに送信し、サーバ802が主被写体の決定を行い、その結果をスマートフォン801に送信する。この場合、サーバ802が強化学習を行い、サーバの主被写体決定回路の結合係数を更新することになる。この場合も、スマートフォン801のRAMにバッファリングされたデータセットからポジティブ学習、および、ネガティブ学習のためのデータセットを選別する処理は、スマートフォン801とサーバ802のいずれで行っても構わない。
Alternatively, the
さらに、ポジティブ学習のためのデータセットについては、撮影指示の前にRAM154にバッファリングされたデータセットに代えて、撮影によって得られた入力画像を用いても構わない。これは、撮影時には主被写体が正しく選定されている可能性が高いためである。この場合、ポジティブ学習のためのデータセットは、撮影によって記録された画像を含むデータセットであるのに対して、ネガティブ学習のためのデータセットは、撮影指示の前にバッファリングされたデータセットとなる。
Furthermore, as for the data set for positive learning, an input image obtained by shooting may be used instead of the data set buffered in the
以上説明したように、本実施形態によれば、通常のカメラ操作を繰り返すことにより、ユーザの嗜好に応じた主被写体決定を行うことが可能となる。さらに、撮影指示を行う前の主被写体決定の結果と、そのときのユーザの操作の関係を判定することで、ユーザが意図しない主被写体決定の結果であることが識別できるようになり、効率的にネガティブ学習のためのデータを選別することが可能となる。 As described above, according to the present embodiment, by repeating normal camera operations, it is possible to determine the main subject according to the user's preference. Furthermore, by determining the relationship between the main subject determination result before the shooting instruction and the user's operation at that time, it becomes possible to identify that the main subject determination result is unintended by the user. It is possible to select data for negative learning.
(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
In addition, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads the program. It can also be realized by executing processing. It can also be implemented by a circuit (eg, ASIC) that implements one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.
100:撮像装置、101:レンズユニット、141:撮像素子、142:撮像信号処理回路、143:撮像制御回路、151:CPU、152:画像処理回路、162:主被写体決定回路 100: imaging device, 101: lens unit, 141: imaging element, 142: imaging signal processing circuit, 143: imaging control circuit, 151: CPU, 152: image processing circuit, 162: main subject determination circuit
Claims (16)
前記選別手段は、撮影指示を示すユーザの入力があった際に前記決定手段を用いて決定されていた第1の主被写体と、前記撮影指示を示すユーザの入力の前に前記決定手段を用いて決定されていた第2の主被写体とが異なる被写体である場合に、前記第2の主被写体が決定された画像を、前記負の報酬を与えるデータとして選別することを特徴とする画像処理装置。 An image to be used as data for giving a negative reward in learning for the determining means is selected from among the images for which the main subject has been determined using the determining means for determining the main subject from the acquired images, based on the user's input. Having sorting means for sorting,
The selecting means uses the first main subject determined by the determining means at the time of the user's input indicating the photographing instruction, and the determining means before the user's input indicating the photographing instruction. and selecting an image in which the second main subject is determined as the data for giving the negative reward when the subject is different from the second main subject that has been determined by the method. .
前記選別手段は、前記取得した画像から主被写体を決定する決定手段を用いて主被写体が決定された画像の中から、前記決定手段のための学習において正の報酬を与えるデータとして用いる画像を、前記ユーザの入力に基づいて選別し、
前記選別手段は、撮影指示を示すユーザの入力があった際に前記決定手段を用いて決定されていた第1の主被写体と、前記撮影指示を示すユーザの入力の前に前記決定手段を用いて決定されていた第2の主被写体とが異なる被写体である場合に、前記第2の主被写体が決定された画像を、前記負の報酬を与えるデータとして選別し、前記第1の主被写体と、前記第2の主被写体とが同じ被写体である場合に、前記第2の主被写体が決定された画像を、前記正の報酬を与えるデータとして選別することを特徴とする画像処理装置。 An image to be used as data for giving a negative reward in learning for the determining means is selected from among the images for which the main subject has been determined using the determining means for determining the main subject from the acquired images, based on the user's input. Having sorting means for sorting,
The selection means selects an image to be used as data that gives a positive reward in learning for the determination means from among the images for which the main subject has been determined using the determination means for determining the main subject from the acquired images, filtering based on said user input;
The selecting means uses the first main subject determined by the determining means at the time of the user's input indicating the photographing instruction, and the determining means before the user's input indicating the photographing instruction. selecting the image in which the second main subject is determined as the data for giving the negative reward, and selecting the image in which the second main subject is determined as the data that gives the negative reward, and 2. An image processing apparatus, wherein, when the second main subject is the same subject, an image in which the second main subject is determined is selected as data for giving the positive reward.
前記選別手段は、前記算出手段により算出された類似度が所定値以上の複数の画像については、該複数の画像から選択された画像のみを、前記負の報酬を与えるデータとして選別することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 Further comprising calculating means for calculating the similarity of the plurality of images,
The selection means selects only an image selected from a plurality of images having a degree of similarity calculated by the calculation means equal to or higher than a predetermined value as data for giving the negative reward. 7. The image processing apparatus according to any one of claims 1 to 6 .
前記学習手段は、前記選別手段が選別した前記負の報酬を与えるデータを用いて学習を行うことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 Having learning means for learning for the determining means,
9. The image processing apparatus according to any one of claims 1 to 8 , wherein the learning means performs learning using the data selected by the selecting means and giving the negative reward.
前記学習手段は、前記選別手段が選別した前記負の報酬を与えるデータを用いて学習を行うことを特徴とする請求項8に記載の画像処理装置。 The determining means uses a learning result obtained by wireless communication from a learning means of an external device that performs learning for the determining means,
9. The image processing apparatus according to claim 8 , wherein the learning means performs learning using the data selected by the selecting means and giving the negative reward.
前記学習手段は、前記選別手段が選別した前記負の報酬を与えるデータを用いて学習を行うことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 An external device capable of wireless communication with the image processing device has the determining means and a learning means for performing learning for the determining means,
8. The image processing apparatus according to any one of claims 1 to 7 , wherein the learning means performs learning using the data selected by the selecting means and giving the negative reward.
前記選別工程では、撮影指示を示すユーザの入力があった際に前記決定手段を用いて決定されていた第1の主被写体と、前記撮影指示を示すユーザの入力の前に前記決定手段を用いて決定されていた第2の主被写体とが異なる被写体である場合に、前記第2の主被写体が決定された画像を、前記負の報酬を与えるデータとして選別することを特徴とする画像処理装置の制御方法。 An image to be used as data for giving a negative reward in learning for the determining means is selected from among the images for which the main subject has been determined using the determining means for determining the main subject from the acquired images, based on the user's input. Having a sorting process for sorting,
In the selecting step, the first main subject determined by the determining means when the user input indicating the photographing instruction is received, and the determining means is used before the user input indicating the photographing instruction. and selecting an image in which the second main subject is determined as the data for giving the negative reward when the subject is different from the second main subject that has been determined by the method. control method.
前記選別工程では、前記取得した画像から主被写体を決定する決定手段を用いて主被写体が決定された画像の中から、前記決定手段のための学習において正の報酬を与えるデータとして用いる画像を、前記ユーザの入力に基づいて選別し、
前記選別工程では、撮影指示を示すユーザの入力があった際に前記決定手段を用いて決定されていた第1の主被写体と、前記撮影指示を示すユーザの入力の前に前記決定手段を用いて決定されていた第2の主被写体とが異なる被写体である場合に、前記第2の主被写体が決定された画像を、前記負の報酬を与えるデータとして選別し、前記第1の主被写体と、前記第2の主被写体とが同じ被写体である場合に、前記第2の主被写体が決定された画像を、前記正の報酬を与えるデータとして選別することを特徴とする画像処理装置の制御方法。 An image to be used as data for giving a negative reward in learning for the determining means is selected from among the images for which the main subject has been determined using the determining means for determining the main subject from the acquired images, based on the user's input. Having a sorting process for sorting,
In the selecting step, an image to be used as data for giving a positive reward in learning for the determining means, from among the images for which the main subject has been determined using the determining means for determining the main subject from the acquired images, filtering based on said user input;
In the selecting step, the first main subject determined by the determining means when the user input indicating the photographing instruction is received, and the determining means is used before the user input indicating the photographing instruction. selecting the image in which the second main subject is determined as the data for giving the negative reward, and selecting the image in which the second main subject is determined as the data that gives the negative reward, and and selecting an image in which the second main subject is determined as the data giving the positive reward when the second main subject is the same subject. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019018256A JP7286330B2 (en) | 2019-02-04 | 2019-02-04 | Image processing device and its control method, program, storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019018256A JP7286330B2 (en) | 2019-02-04 | 2019-02-04 | Image processing device and its control method, program, storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126434A JP2020126434A (en) | 2020-08-20 |
JP7286330B2 true JP7286330B2 (en) | 2023-06-05 |
Family
ID=72084931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019018256A Active JP7286330B2 (en) | 2019-02-04 | 2019-02-04 | Image processing device and its control method, program, storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7286330B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023163443A (en) * | 2022-04-28 | 2023-11-10 | キヤノン株式会社 | Image processing device, imaging device, and control method thereof |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009055432A (en) | 2007-08-28 | 2009-03-12 | Sony Corp | Photographing apparatus, photographing method and program |
JP2015215741A (en) | 2014-05-09 | 2015-12-03 | キヤノン株式会社 | Subject detection device, subject detection method and program |
-
2019
- 2019-02-04 JP JP2019018256A patent/JP7286330B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009055432A (en) | 2007-08-28 | 2009-03-12 | Sony Corp | Photographing apparatus, photographing method and program |
JP2015215741A (en) | 2014-05-09 | 2015-12-03 | キヤノン株式会社 | Subject detection device, subject detection method and program |
Also Published As
Publication number | Publication date |
---|---|
JP2020126434A (en) | 2020-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102574141B1 (en) | Image display method and device | |
US9911067B2 (en) | Image processing apparatus, method of processing image, and program | |
JP5909540B2 (en) | Image processing display device | |
JP4902562B2 (en) | Imaging apparatus, image processing apparatus, control method, and program | |
EP2574039A1 (en) | Image pickup device, image processing device, image processing method, and image processing program | |
RU2764395C1 (en) | Method and apparatus for joint debayering and image noise elimination using a neural network | |
JP6931369B2 (en) | Image processing device and image processing method, and imaging device | |
US11508038B2 (en) | Image processing method, storage medium, image processing apparatus, learned model manufacturing method, and image processing system | |
CN104243796A (en) | Photographing apparatus, photographing method, template creation apparatus, and template creation method | |
JP7403995B2 (en) | Information processing device, control method and program | |
JP7286330B2 (en) | Image processing device and its control method, program, storage medium | |
JP6270578B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
US20230222639A1 (en) | Data processing method, system, and apparatus | |
JP4772756B2 (en) | Imaging apparatus and imaging program | |
JP4818997B2 (en) | Face detection device and face detection program | |
CN111724300B (en) | Single picture background blurring method, device and equipment | |
JP2017130106A (en) | Data processing apparatus, imaging apparatus and data processing method | |
JP6063680B2 (en) | Image generation apparatus, image generation method, imaging apparatus, and imaging method | |
KR20220001417A (en) | Electronic device and controlling method of electronic device | |
US11917301B2 (en) | Image capturing apparatus and method for controlling image capturing apparatus | |
JP7458723B2 (en) | Image processing device, imaging device, control method, and program | |
EP4266695A1 (en) | Learning apparatus for multi-focus imaging, method, program, and storage medium | |
JP2017182668A (en) | Data processor, imaging device, and data processing method | |
JP2024012828A (en) | Imaging apparatus and control method of the same | |
JP2017195442A (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230524 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7286330 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |