JP2008118348A - Electronic camera and program - Google Patents
Electronic camera and program Download PDFInfo
- Publication number
- JP2008118348A JP2008118348A JP2006298862A JP2006298862A JP2008118348A JP 2008118348 A JP2008118348 A JP 2008118348A JP 2006298862 A JP2006298862 A JP 2006298862A JP 2006298862 A JP2006298862 A JP 2006298862A JP 2008118348 A JP2008118348 A JP 2008118348A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- electronic camera
- degree
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 34
- 230000008569 process Effects 0.000 claims abstract description 29
- 238000003384 imaging method Methods 0.000 claims abstract description 14
- 230000003287 optical effect Effects 0.000 claims abstract description 13
- 239000000284 extract Substances 0.000 claims abstract description 9
- 230000004907 flux Effects 0.000 claims abstract description 3
- 238000000605 extraction Methods 0.000 claims description 43
- 230000008859 change Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 description 16
- 238000007906 compression Methods 0.000 description 14
- 230000006835 compression Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 10
- 230000006837 decompression Effects 0.000 description 10
- 239000000203 mixture Substances 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013144 data compression Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- -1 silver halide Chemical class 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Abstract
Description
本発明は、撮影画像を電子的にぼかすことのできる電子カメラおよびプログラムに関する。 The present invention relates to an electronic camera and a program capable of electronically blurring a captured image.
カメラによるポートレート撮影や植物等のクローズアップ撮影では、被写界深度を浅くすることで意図的に前景または背景をぼかし、主要被写体を浮かび上がらせる写真表現が従来から好まれている。
ところで、一般的な電子カメラは、銀塩カメラよりも被写界深度が深くなる傾向があるので、上記のようなボケ味を生かした写真表現を苦手とすることが多い。かかる事情から、電子カメラによってポートレート撮影調の画像を生成するための技術が種々検討されている。一例として、特許文献1には、合焦状態の異なる複数の画像を合成することで、主要被写体から離れるほどボケ度合いが大きくなるポートレート調の画像を生成するカメラが開示されている。
By the way, since a general electronic camera tends to have a deeper depth of field than a silver halide camera, it is often not good at photographic expression taking advantage of the above-described blur. Under such circumstances, various techniques for generating portrait photography-like images with an electronic camera have been studied. As an example,
しかし、上記の特許文献1の技術において、画像のボケ度合いの変化の刻みは合焦状態を相違させて撮影した画像の数に比例する。したがって、特許文献1の技術では、画像のボケ度合いを連続的に細かく変化させて画像全体のボケ具合をより自然に近づけるには、多数の画像を撮影する必要がある点で改善の余地があった。
本発明は上記従来技術の課題を解決するためのものである。本発明の目的は、より少ないフレーム数の撮影画像から、比較的良好なポートレート調の画像を生成できる手段を提供することである。
However, in the technique of the above-mentioned
The present invention is to solve the above-mentioned problems of the prior art. An object of the present invention is to provide means capable of generating a relatively good portrait image from a captured image having a smaller number of frames.
第1の発明の電子カメラは、撮像部と、被写体抽出部と、画像処理部とを備える。撮像部は、撮影光学系の光束に基づき被写体像を撮影して撮影画像のデータを生成する。被写体抽出部は、撮影画像から主要被写体を抽出するとともに、撮影画像のうちで主要被写体を含まない背景領域の範囲を決定する。画像処理部は、撮影画像の背景領域に対して、画像の一方向に向けてボケ度合いが大きくなるように画像をぼかすぼかし処理を実行する。 An electronic camera according to a first aspect includes an imaging unit, a subject extraction unit, and an image processing unit. The imaging unit captures a subject image based on the light flux of the imaging optical system and generates captured image data. The subject extraction unit extracts a main subject from the photographed image and determines a range of a background area that does not include the main subject in the photographed image. The image processing unit executes a blurring process for blurring the image so that the degree of blur increases in one direction of the image with respect to the background region of the captured image.
第2の発明は、第1の発明において、画像処理部は、撮影画像の下側から上側に向けてボケ度合いが大きくなるようにぼかし処理を実行する。
第3の発明は、第1の発明において、画像処理部は、撮影画像での上下方向の位置と被写体距離の推定値との対応関係に基づいて、ボケ度合いの大きさを決定する。
第4の発明は、第1から第3のいずれかの発明において、撮影光学系から焦点距離の情報を取得する焦点距離取得部を電子カメラがさらに備える。そして、画像処理部は、焦点距離に応じてボケ度合いの変化を調整する。
In a second aspect based on the first aspect, the image processing unit executes the blurring process so that the degree of blur increases from the lower side to the upper side of the captured image.
In a third aspect based on the first aspect, the image processing unit determines the degree of the degree of blur based on the correspondence between the vertical position in the captured image and the estimated value of the subject distance.
In a fourth aspect based on any one of the first to third aspects, the electronic camera further includes a focal length acquisition unit that acquires information on a focal length from the photographing optical system. Then, the image processing unit adjusts the change in the degree of blur according to the focal length.
第5の発明は、撮影画像のデータを読み込むデータ読込部と、制御部とを備えた画像処理装置のプログラムである。このプログラムは、以下の第1ステップと、第2ステップとを制御部に実行させる。第1ステップでは、撮影画像から主要被写体を抽出するとともに、撮影画像のうちで主要被写体を含まない背景領域の範囲を決定する。第2ステップでは、撮影画像の背景領域に対して、画像の特定方向に向けてボケ度合いが大きくなるように画像をぼかすぼかし処理を実行する。 A fifth aspect of the invention is a program for an image processing apparatus including a data reading unit that reads captured image data and a control unit. This program causes the control unit to execute the following first step and second step. In the first step, the main subject is extracted from the photographed image, and the range of the background area that does not include the main subject is determined in the photographed image. In the second step, a blurring process is performed to blur the image so that the degree of blur increases toward the specific direction of the image with respect to the background region of the captured image.
なお、上記の第5の発明に関する構成を画像処理装置、画像処理方法、プログラムを記録した記録媒体などに変換して表現したものも本発明の具体的態様として有効である。 It is also effective as a specific aspect of the present invention to express the configuration related to the fifth invention by converting it into an image processing apparatus, an image processing method, a recording medium on which a program is recorded, and the like.
本発明では、撮影画像の背景領域に対して画像の一方向に向けてボケ度合いが大きくなるように画像をぼかすぼかし処理を実行し、1フレームの撮影画像からでも良好なポートレート調の画像を生成できる。 In the present invention, a blur process is performed to blur the image so that the degree of blur increases in one direction of the image relative to the background area of the captured image, and a good portrait image is obtained from a captured image of one frame. Can be generated.
図1は本実施形態の電子カメラの構成を示すブロック図である。本実施形態の電子カメラは、画像データに対して被写体抽出処理およびぼかし処理を実行することで、ポートレート調の画像を生成する機能を有している。
電子カメラは、ズームレンズ11と、ズームエンコーダ12と、フォーカシングレンズ13と、レンズ駆動部14と、撮像素子15と、アナログ処理部16と、バッファメモリ17と、画像処理部18と、圧縮伸長処理部19と、記録I/F20と、外部I/F21と、発光部22と、姿勢検出部23と、レリーズ釦24と、モニタ25と、ROM26と、CPU27およびシステムバス28とを有している。なお、バッファメモリ17、画像処理部18、圧縮伸長処理部19、記録I/F20、外部I/F21、モニタ25およびCPU27は、システムバス28を介して接続されている。
FIG. 1 is a block diagram showing the configuration of the electronic camera of this embodiment. The electronic camera of the present embodiment has a function of generating a portrait-like image by executing subject extraction processing and blurring processing on image data.
The electronic camera includes a
ズームレンズ11は、焦点距離の調整によって光学的なズームを行うためのレンズであって、光軸方向に前後移動可能に構成されている。また、ズームレンズ11には、レンズの光軸方向位置を検出するズームエンコーダ12が取り付けられている。このズームエンコーダ12の出力はCPU27に接続されている。
フォーカシングレンズ13は合焦位置を調節するためのレンズであって、光軸方向に前後移動可能に構成されている。レンズ駆動部14は、CPU27の指示によりフォーカシングレンズ13を光軸方向に移動させる。また、レンズ駆動部14は、内蔵されたエンコーダ(不図示)によって、フォーカシングレンズ13の光軸方向位置をCPU27に出力する。
The
The focusing
撮像素子15は、ズームレンズ11およびフォーカシングレンズ13を通過した光束を光電変換して被写体像のアナログ画像信号を生成する。ここで、電子カメラの撮影モードでは、撮像素子15はレリーズ時に記録用画像(本画像)を撮影するとともに、撮影待機時にも所定間隔毎に間引き読み出しでスルー画像を出力する。上記のスルー画像のデータは、CPU27による各種の演算処理やモニタ25での画像表示などに使用される。
The
アナログ処理部16は、CDS回路、ゲイン回路、A/D変換回路などを有するアナログフロントエンド回路である。CDS回路は、相関二重サンプリングによって撮像素子15の出力のノイズ成分を低減する。ゲイン回路は入力信号の利得を増幅して出力する。このゲイン回路では、ISO感度に相当する撮像感度の調整を行うことができる。A/D変換回路は撮像素子15の出力信号のA/D変換を行う。このA/D変換回路の出力はバッファメモリ17に接続されている。なお、図1では、アナログ処理部16における個々の回路の図示は省略する。
The
バッファメモリ17は、画像処理部18による画像処理の前工程や後工程で画像データを一時的に記録する。
画像処理部18は、上記の撮影モードにおいてレリーズ時のデジタル画像信号に各種の画像処理を施して本画像を生成する。また、画像処理部18は、上記の撮影モードにおいて、CPU27の指示によりスルー画像の画像信号から表示用画像(ビュー画像)を生成する。また、画像処理部18は、本画像の画像データに対してぼかし処理を実行することができる。なお、ぼかし処理の具体的な内容については後述する。
The
The
圧縮伸長処理部19は解析部および圧縮部を有するASICである(解析部および圧縮部の個別的な図示は省略する)。圧縮伸長処理部19の解析部では、画像データに対して空間周波数の解析を行う。一方、圧縮伸長処理部19の圧縮部は、JPEG(Joint Photographic Experts Group)形式による圧縮伸長処理を実行する。
ここで、電子カメラの被写体抽出処理では、解析部による空間周波数の解析処理を利用することができる。なお、解析部が被写体抽出のために空間周波数解析を行なう場合には、圧縮部による画像データの圧縮処理は必ずしも必要ではない。すなわち、被写体抽出処理に必要なのは空間周波数の解析結果であり、画像データの圧縮処理は不要である。したがって、被写体抽出処理の場合には圧縮伸長処理部19の出力するデータは、後述の記録媒体29などには記録されない。
The compression /
Here, in subject extraction processing of an electronic camera, spatial frequency analysis processing by an analysis unit can be used. When the analysis unit performs spatial frequency analysis for subject extraction, image data compression processing by the compression unit is not necessarily required. That is, what is necessary for the subject extraction process is a spatial frequency analysis result, and image data compression processing is unnecessary. Accordingly, in the case of subject extraction processing, data output from the compression /
記録I/F20には記録媒体29を接続するためのコネクタが形成されている。そして、記録I/F20は、コネクタに接続された記録媒体29に対してデータの書き込み/読み込みを実行する。上記の記録媒体29は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記録媒体29の一例としてメモリカードを図示する。
A connector for connecting a
外部I/F21は、USB(Universal Serial Bus)などのシリアル通信規格の接続端子を有している。そして、外部I/F21は、接続端子を介して接続された外部装置(コンピュータなど)とのデータ送受信を上記の通信規格に準拠して制御する。
発光部22は、CPU27の指示に応じて被写体に対して撮影時に閃光を照射する。この発光部22は、例えば、キセノン発光管、発光のエネルギを蓄えるメインコンデンサ、閃光を被写体に効率良く照射するための反射傘やレンズ部材、発光制御回路などから構成されている。
The external I /
The
姿勢検出部23は電子カメラの撮影姿勢を検出する。姿勢検出部23の出力はCPU27に接続されている。この姿勢検出部23は、電子カメラを正位置(または正位置と上下逆の状態)に構えた横位置での撮影姿勢と、電子カメラの右手側または左手側を上にして構えた縦位置での撮影姿勢とを検出することができる。
レリーズ釦24は、半押し操作による撮影前のAF動作開始の指示入力と、全押し操作による撮影時の露光開始の指示入力とをユーザーから受け付ける。
The
The
モニタ25は、CPU27の指示に応じて各種画像を表示する。本実施形態でのモニタ25は液晶モニタで構成されている。このモニタ25には、撮影モードでの撮影待機時にビュー画像が動画表示される。また、モニタ25は、オンスクリーン機能によって、撮影に必要となる各種情報の表示(例えば、合焦時のAFエリアの位置表示、撮影構図を決めるための構図補助フレームの表示など)をビュー画像に重畳表示させることができる。なお、モニタ25には、GUI(Graphical User Interface)形式で各種の設定項目の入力が可能なメニュー画面や、本画像の再生画面なども表示することができる。
The
ROM26には、電子カメラのシーケンスプログラムや、ぼかし処理用のルックアップテーブル(LUT)のデータなどが記録されている。なお、LUTには、ズームレンズ11の各々の焦点距離ごとに、ぼかし処理の設定内容(画像上下方向におけるボケ度合いの変化の強弱の幅、画像上下方向の各位置でのボケ度合いの変化率)がそれぞれ対応付けされて記録されている。
In the
CPU27は、電子カメラの各部の統括的な制御を行うプロセッサである。このCPU27は、後述のぼかし処理機能を実現するシーケンスプログラムを実行するとともに、プログラムによって撮影条件決定部30および被写体抽出部31として機能する。
撮影条件決定部30は、スルー画像のデータに基づいてコントラスト検出方式で公知のオートフォーカス(AF)を行う。また、撮影条件決定部30は、スルー画像のデータに基づいて自動露出(AE)演算や、オートホワイトバランス(AWB)演算を実行する。
The
The imaging
被写体抽出部31は、被写体抽出処理に必要となる各種の演算を実行する。なお、被写体抽出処理の具体的な内容については後述する。
また、被写体抽出部31は、スルー画像のデータから被写体の顔領域を検出することもできる。例えば、被写体抽出部31は、特開2001−16573号公報などに記載された特徴点抽出処理によって顔領域を抽出する。上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などが挙げられる。あるいは、被写体抽出部31は、特開平8−63597号公報のように、被写体の色情報に基いて肌色領域の輪郭を抽出し、さらに予め用意された顔部品のテンプレートとのマッチングを行って顔領域を検出してもよい。
The
The
以下、本実施形態の電子カメラによる撮影時の動作の一例を、図2の流れ図を参照しつつ説明する。なお、以下の動作説明では、電子カメラのぼかし処理機能(本画像に画像処理を施してポートレート撮影調に加工する機能)がオンに設定されていることを前提として説明を行う。
ステップ101:CPU27は、撮像素子15を駆動させてスルー画像の取得を開始する。撮像素子15は所定間隔毎に間引き読み出しでスルー画像の画像信号を取得する。画像処理部18はスルー画像のデータに基づいてビュー画像を逐次生成する。そして、撮影待機時のモニタ25にはビュー画像が動画表示される。したがって、ユーザーはモニタ25のビュー画像によって、撮影構図を決定するためのフレーミングを行うことができる。
Hereinafter, an example of the operation at the time of photographing by the electronic camera of the present embodiment will be described with reference to the flowchart of FIG. In the following description of the operation, the description will be made on the assumption that the blur processing function of the electronic camera (the function of performing image processing on the main image and processing it into a portrait shooting tone) is set to ON.
Step 101: The
なお、電子カメラの顔認識機能がオンに設定されている場合には、CPU27の被写体抽出部31がスルー画像のデータに基づいて撮影画面内の被写体の顔領域を検出する。そして、CPU27の撮影条件決定部30は、検出した顔にピントを合わせる顔認識AFを実行する。
ステップ102:CPU27は、ユーザーによってレリーズ釦24が半押しされたか否かを判定する。レリーズ釦24が半押しされた場合(YES側)にはCPU27はS103に移行する。一方、レリーズ釦が半押しされていない場合(NO側)には、CPU27はユーザーによるレリーズ釦24の半押し操作を待機する。
If the face recognition function of the electronic camera is set to ON, the
Step 102: The
ステップ103:CPU27の撮影条件決定部30は、スルー画像に基づいてAFを実行する。また、撮影条件決定部30は、スルー画像のデータに基づいてAE演算およびAWB演算を実行し、本画像の撮影条件(露光時間、絞り値、撮像感度)を決定する。なお、電子カメラの顔認識機能がオンに設定されている場合には、撮影条件決定部30はレリーズ釦の半押しによってAFロックを行う。
Step 103: The photographing
ステップ104:CPU27は、ユーザーによってレリーズ釦24が全押しされたか否かを判定する。レリーズ釦24が全押しされた場合(YES側)にはCPU27はS105に移行する。一方、レリーズ釦24が全押しされていない場合(NO側)には、CPU27はユーザーによるレリーズ釦24の全押し操作を待機する。
ステップ105:CPU27は、レリーズ釦24の全押しに応じて被写体を撮影する。CPU27は撮像素子15を駆動させて被写体像を撮影する。そして、画像処理部18はレリーズ時の画像信号に基づいて本画像の画像データを生成する。この本画像の画像データはバッファメモリ17に一時的に記録される。なお、本実施形態での本画像の一例を図3に示す。
Step 104: The
Step 105: The
ステップ106:CPU27は、ズームエンコーダ12の出力に基づいて、本画像の撮影時におけるズームレンズ11の焦点距離のデータを取得する。
ステップ107:CPU27は、姿勢検出部23の出力に基づいて、本画像の撮影時における電子カメラの撮影姿勢を判別する。これにより、CPU27は、本画像の上下を特定することができる。
Step 106: The
Step 107: The
ステップ108:CPU27の被写体抽出部31は、本画像の画像データ(S105)に対して被写体抽出処理を実行する。被写体抽出処理における被写体抽出部31は、本画像から主要被写体を抽出するとともに、本画像のうちで主要被写体を含まない背景領域の範囲を決定する。
具体的には、被写体抽出部31は、以下の(1)および(2)の要領で被写体抽出処理を行う。
Step 108: The
Specifically, the
(1)第1に、被写体抽出部31は、本画像内の輪郭線によって本画像を複数の領域に分割する。
一例として、被写体抽出部31は、画像処理部18によるエッジ抽出処理で本画像を分割する。この場合、画像処理部18は、本画像の画像データに対して微分フィルタ(ラプラシアンフィルタなど)によるエッジ抽出処理を施す。そして、被写体抽出部31は、抽出された輪郭線に基づいて本画像を複数の領域に分割する。
(1) First, the
As an example, the
あるいは、被写体抽出部31は、圧縮伸長処理部19の解析部の出力に基づいて本画像を複数の領域に分割することもできる。この場合には、被写体抽出部31は本画像を8×8画素程度の画素ブロックに分割する。次に、圧縮伸長処理部19は、上記の各々の画素ブロックに離散コサイン変換(DCT)処理を施し、各々の画素ブロック毎のDCT係数を取得する。そして、被写体抽出部31は、高域周波数成分に対応するDCT係数が0値ではない画素ブロックを被写体の輪郭とみなして抽出する。その後、被写体抽出部31は、抽出された画素ブロックに基づいて本画像を複数の領域に分割する。なお、被写体抽出部31は、本画像の色差および明度などの情報に基づいて、輪郭で仕切られた各々の領域をグループ化するようにしてもよい。
Alternatively, the
(2)第2に、被写体抽出部31は、上記(1)で分割された本画像の領域から、主要被写体の位置する領域(主要被写体領域)と、主要被写体を含まない背景領域の範囲とを決定する。図4は、図3の本画像を主要被写体領域および背景領域に分割した状態を示す図である。なお、図4において、斜線が引かれた領域が背景領域である。
ここで、被写体抽出部31は、以下の(a)〜(c)のいずれかの方法(あるいはその組み合わせ)で主要被写体領域を決定する。
(2) Secondly, the
Here, the
(a)被写体抽出部31は、本画像の撮影時に選択されたAFエリアの位置に対応する領域を主要被写体領域に決定する。通常は、主要被写体にピントを合わせて本画像を撮影するからである。
(b)撮影構図を決めるための構図補助フレームをビュー画像に重畳表示して本画像を撮影した場合には、被写体抽出部31は、構図補助フレームの位置に基づいて主要被写体領域を決定する。この場合には、構図補助フレームに対応する位置に主要被写体が含まれる可能性が高いからである(なお、構図補助フレームの表示状態の図示は省略する)。
(A) The
(B) When a main image is captured by superimposing a composition auxiliary frame for determining a shooting composition on a view image, the
(c)電子カメラの顔認識機能をオンにして本画像を撮影した場合には、被写体抽出部31は検出した顔の位置に基づいて主要被写体領域を決定する。この場合には、顔認識機能で認識された人物が主要被写体となる可能性が高いからである。なお、本画像の撮影時に顔が複数検出された場合には、被写体抽出部31は、最もサイズが大きく至近側にあると推定される顔領域または最も中央寄りに位置する顔領域の一方を基準として主要被写体領域を決定する。
(C) When the main image is taken with the face recognition function of the electronic camera turned on, the
ステップ109:CPU27は、画像処理部18に対して、本画像の背景領域をぼかす画像処理(ぼかし処理)の実行を指示する。例えば、画像処理部18は、本画像の背景領域に対して、点拡がり関数(PSF:Point Spread Function)のフィルタによる畳み込み演算を行って画像をぼかす。これにより、背景のぼかしによって主要被写体が浮かび上がるように表現された本画像を得ることができる。
Step 109: The
このS109のぼかし処理では、画像処理部18は画像の下側から上側の方向に向けてボケ度合いを大きくする。上記の点拡がり関数のフィルタの例であれば、画像処理部18は、背景領域の下側では点の拡がりの小さな関数のフィルタを適用し、画像処理による背景領域のボケ度合いを小さくする。一方、画像処理部18は、背景領域の上側にいくに従って点の拡がりの大きな関数のフィルタを適用し、画像処理による背景領域のボケ度合いを大きくする。なお、図5は、図3の本画像にぼかし処理を施した状態を示す図である。
In the blurring process of S109, the
以下、本実施形態のぼかし処理において、画像の下側から上側の方向に向けてボケ度合いを大きくする理由を説明する。図6は、図3のシーンにおける電子カメラの画角と被写体の位置関係を示す説明図である。なお、図6では、レンズの光軸が地面と略平行となるようにカメラを構えて撮影した場合を前提としている。
図3,図6に示すように、画像の背景領域では、一般的に画面の下端に地面上の至近側の被写体が写り込み、画面の上側にいくにつれて除々に遠くの被写体が写り込むようになる。そして、画面内の一定以上の高さでは、無限遠にある被写体が背景領域に写り込む可能性が高くなる。
Hereinafter, the reason why the degree of blur is increased from the lower side to the upper side of the image in the blurring process according to the present embodiment will be described. FIG. 6 is an explanatory diagram showing the positional relationship between the angle of view of the electronic camera and the subject in the scene of FIG. In FIG. 6, it is assumed that the camera is set to take a picture so that the optical axis of the lens is substantially parallel to the ground.
As shown in FIGS. 3 and 6, in the background area of the image, generally, a subject on the near side on the ground is reflected at the lower end of the screen, and a subject farther away is gradually projected toward the upper side of the screen. Become. At a certain height in the screen, there is a high possibility that a subject at infinity will be reflected in the background area.
すなわち、画面の下側にある被写体は比較的に主要被写体の近くにあると考えられるので、被写体距離の推定値は小さくなる。そのため、被写体の位置が被写界深度の範囲に近いと考えられる画面の下側では、画像処理部18は被写体のボケ度合いを小さくする。一方、画面の上側にある被写体は比較的に主要被写体から離れていると考えられるので、被写体距離の推定値は大きくなる。そのため、被写体の位置が被写界深度の範囲から遠いと考えられる画面の上側では、画像処理部18は被写体のボケ度合いを大きくする。なお、背景領域の上側に被写体距離の小さい被写体が写り込む場合もあり得るが、上記の被写体が大きくぼけたとしても支障が生じるおそれは少ないといえる。以上のように、本実施形態では、本画像の上下位置から推定される被写体距離に基づいて、画像処理部18がぼかし処理のボケ度合いを調整している。
That is, since the subject on the lower side of the screen is considered to be relatively close to the main subject, the estimated value of the subject distance becomes small. Therefore, on the lower side of the screen where the subject position is considered to be close to the range of depth of field, the
また、S109のぼかし処理では、画像処理部18は、複数の点拡がり関数のフィルタを適用し、画像上下方向でのボケ度合いの変化の刻みをできるだけ細かくすることが好ましい。この場合には、本画像の背景領域では、画像上下方向でのボケ度合いが連続的かつ滑らかに変化する。そのため、背景領域内においてボケ度合いの変化する境界が目立ちにくい良好な画像を得ることができる。
In the blurring process in S109, it is preferable that the
さらに、S109のぼかし処理では、画像処理部18は、ズームレンズ11の焦点距離のデータ(S106)に基づいて、背景領域のボケ度合いの変化を調整することが好ましい。なお、このぼかし処理の調整は、ROM26のLUTのデータに基づいて実行される。
具体的には、ズームレンズ11の焦点距離が短いときには、画像処理部18はボケ度合いの強弱が異なる多数のフィルタを適用し、背景領域内でのボケ度合いの強弱の変化の幅を大きくする。このとき、画像処理部18は、画像上下方向のボケ度合いの変化率を大きくする。そして、特に画像の下側において僅かな位置の変化で画像のボケ度合いを大きく変化させる。
Furthermore, in the blurring process of S109, the
Specifically, when the focal length of the
一方、ズームレンズ11の焦点距離が長いときには、画像処理部18は、上記の場合よりもボケ度合いの強弱の変化の幅を小さくし、ボケ度合いの弱いフィルタを適用しないように設定する。また、画像処理部18は、上記の場合よりも画像上下方向のボケ度合いの変化率を緩やかにする。
以下、ズームレンズ11の焦点距離に基づいて背景領域のボケ度合いの変化を調整する理由を説明する。一般的な撮影レンズでは被写界深度付近にある被写体を撮影すると、被写体距離のわずかな違いで画像でのボケ度合いが大きく変化する。一方、被写体距離が遠くなると被写体距離の差がボケ度合いに与える影響は少なくなる。
On the other hand, when the focal length of the
Hereinafter, the reason for adjusting the change in the degree of blur in the background area based on the focal length of the
また、図7は、図3のシーンを望遠撮影した本画像を示す図である。図8は、図7のシーンにおける電子カメラの画角と被写体の位置関係を示す説明図である。図8についても、図6と同様にレンズの光軸が地面と略平行となるようにカメラを構えて撮影した場合を前提としている。
図8に示す望遠撮影の場合には図6の場合と比べてカメラの画角は狭くなる。そして、図7および図8から分かるように、望遠撮影において本画像の背景部分の下端に写り込む被写体は、広角撮影時と比べてより望遠側の被写体となる。すなわち、ズームレンズ11の焦点距離が長くなると至近側の被写体がカメラの画角から外れるので、背景領域内に写り込む被写体の被写体距離の推定値の幅は広角撮影の場合よりも小さくなる。
FIG. 7 is a view showing a main image obtained by telephoto shooting the scene of FIG. FIG. 8 is an explanatory diagram showing the positional relationship between the angle of view of the electronic camera and the subject in the scene of FIG. FIG. 8 is also based on the premise that the image is taken with the camera held so that the optical axis of the lens is substantially parallel to the ground, as in FIG.
In the telephoto shooting shown in FIG. 8, the angle of view of the camera is narrower than in the case of FIG. As can be seen from FIGS. 7 and 8, the subject that appears in the lower end of the background portion of the main image in telephoto shooting is a subject on the telephoto side compared to wide-angle shooting. In other words, when the focal length of the
図9は、背景領域の地面の位置(画像下端から離れる割合で示す)と、その位置に写り込む被写体の被写体距離との対応関係の一例を示す図である。この図9の例では、ズームレンズ11の焦点距離の値は、望遠時には広角時の3倍に設定されるものとする。図9の曲線Aに示すズームレンズ11の広角時(焦点距離:短)には、画面下端に被写体距離3mの被写体が収まる。そして、画面下端を起点とする高さ30%の範囲内には、被写体距離が3mから約8mの被写体が写り込むこととなる。一方、図9の曲線Bに示すズームレンズ11の望遠時(焦点距離:長)には、画面下端に被写体距離約10mの被写体が収まる。そして、画面下端を起点とする高さ30%の範囲内には、被写体距離が10mから約27mの被写体が写り込むこととなる。
FIG. 9 is a diagram illustrating an example of a correspondence relationship between the position of the ground in the background area (indicated by a ratio away from the lower end of the image) and the subject distance of the subject appearing at that position. In the example of FIG. 9, it is assumed that the value of the focal length of the
以上から、広角撮影時には、背景領域内に写り込む被写体の被写体距離の幅が広くなるので、ボケ度合いの強弱の変化の幅を大きくする方が好ましいことが分かる。また、広角撮影時には、画像上下方向の位置の違いが小さくともボケ度合いを変化させた方が好ましいことも分かる。一方、望遠撮影時には、背景領域内に写り込む被写体の被写体距離の幅が狭くなるのでボケ度合いの強弱の変化の幅を小さくしても影響が少ないことが分かる。また、望遠撮影時には、広角撮影時と比べて画像上下方向におけるボケ度合いの変化を緩やかにしても影響が少ないことも分かる。なお、図10に、図7の本画像にぼかし処理を施した状態を示す。 From the above, it can be seen that, during wide-angle shooting, the range of the subject distance of the subject that appears in the background region is widened, so it is preferable to increase the range of the change in the degree of blur. It can also be seen that during wide-angle shooting, it is preferable to change the degree of blur even if the difference in the vertical position of the image is small. On the other hand, at the time of telephoto shooting, since the width of the subject distance of the subject reflected in the background area becomes narrow, it can be seen that there is little effect even if the width of the change in the degree of blur is reduced. It can also be seen that, during telephoto shooting, even if the change in the degree of blur in the vertical direction of the image is moderated, the influence is small compared to wide-angle shooting. FIG. 10 shows a state in which the main image of FIG.
ステップS110:CPU27は、本画像の画像データ(S105)と、ぼかし処理を施した画像データ(S109)とを記録媒体29に記録する。以上で、図2の一連の動作説明を終了する。
以下、本実施形態の効果を説明する。本実施形態の電子カメラでは、本画像に対して主要被写体の抽出処理(S108)を行い、背景領域の被写体に対してぼかし処理を施す(S109)。このぼかし処理では、画面の下側から上側に向けてボケ度合いが大きくなるように被写体がぼかされる。したがって、本実施形態では、背景領域のボケ方が比較的に自然に見えるポートレート調の画像を簡単に得ることができる。
Step S110: The
Hereinafter, the effect of this embodiment will be described. In the electronic camera of this embodiment, the main subject is extracted from the main image (S108), and the subject in the background area is blurred (S109). In this blurring process, the subject is blurred so that the degree of blur increases from the lower side to the upper side of the screen. Therefore, in the present embodiment, it is possible to easily obtain a portrait-like image in which the background region blur is relatively natural.
また、本実施形態では、1フレーム分の本画像からポートレート調の画像を生成することができ、ぼかし処理を行うためにボケ度合いの異なる複数の画像を必要とはしない。そのため、加工に必要となる画像の撮影時間を短縮できるとともに、撮影時に要求される画像の記録容量をより小さくできる。特に、本実施形態では、ボケ度合いの変化の刻みが細かい場合でも1フレーム分の本画像で足りるので、その効果が顕著である。 In the present embodiment, a portrait-like image can be generated from the main image for one frame, and a plurality of images with different degrees of blur are not required to perform the blurring process. For this reason, it is possible to reduce the image capturing time required for processing and to further reduce the image recording capacity required at the time of capturing. In particular, in the present embodiment, even when the degree of blur change is fine, the main image for one frame is sufficient, and the effect is remarkable.
(実施形態の補足事項)
(1)本発明では、ぼかし処理において背景領域のボケ度合いを大きくする方向を上下方向以外にしてもよい。例えば、画面の左右方向に向けてボケ度合いが大きくなるようにぼかし処理を実行してもよい。
(2)上記実施形態では、電子カメラが撮影時に被写体抽出処理およびぼかし処理を実行する例を説明したが、本発明は上記の場合に限定されるものではない。例えば、上記実施形態の電子カメラにおいて、記録媒体29に記録された本画像を読み出して、CPU27の実行するプログラムによって、上記の被写体抽出処理およびぼかし処理を実行するようにしてもよい。これにより、撮影後に本画像を加工してポートレート調の画像を得ることができる。なお、この場合には、例えばExif規格のヘッダファイルのデータなどによって、電子カメラはレンズの焦点距離や撮影姿勢のデータを取得することができる。
(Supplementary items of the embodiment)
(1) In the present invention, the direction of increasing the degree of blurring of the background area in the blurring process may be other than the vertical direction. For example, the blurring process may be executed so that the degree of blur increases in the horizontal direction of the screen.
(2) In the above embodiment, the example in which the electronic camera performs the subject extraction process and the blurring process at the time of shooting has been described, but the present invention is not limited to the above case. For example, in the electronic camera of the above-described embodiment, the main image recorded on the
また、本発明は、例えば、画像処理プログラムの実行により画像処理装置を構成するパーソナルコンピュータや、カメラ機能付きの携帯電話などによっても実現することができる。
(3)上記実施形態において、電子カメラは発光部22の発光状態を相違させた画像を撮影し、これらの2画像間の明るさの解析によって主要被写体を抽出してもよい。例えば、CPU27は発光部22を発光させた状態と発光させない状態とで略同一の被写体を撮影した本画像をそれぞれ取得する。説明の便宜上、発光部22を発光させて撮影した本画像を第1画像と定義する。また、発光部22を発光させずに撮影した本画像を第2画像と定義する。そして、CPU27は、第1画像および第2画像において、明るさの差分値を画素毎に演算する。そして、CPU27は明るさの差分値に基づいて、第1画像または第2画像から主要被写体を抽出する。
The present invention can also be realized by, for example, a personal computer that constitutes an image processing apparatus by executing an image processing program, a mobile phone with a camera function, or the like.
(3) In the above embodiment, the electronic camera may take images with different light emission states of the
一般に発光撮影時の照度は光源からの距離の2乗に比例して小さくなる。すなわち、発光撮影時には主要被写体は明るく照射される一方で、主要被写体より遠くに位置する背景部分の明るさは低くなる。したがって、発光撮影時と非発光撮影時との明るさの差分値はカメラからの距離に応じて変化するので、かかる差分値を用いれば撮影画像から主要被写体を抽出できる。 In general, the illuminance during flash photography decreases in proportion to the square of the distance from the light source. That is, during flash photography, the main subject is illuminated brightly, while the brightness of the background portion located farther from the main subject is low. Therefore, since the difference value of brightness between the flash photography and the non-flash photography changes according to the distance from the camera, the main subject can be extracted from the photographed image by using such a difference value.
あるいは、CPU27は、第1画像および第2画像において、第1画像の明るさと第2画像の明るさとの比率を演算する。そして、CPU27は明るさの比率に基づいて、第1画像または第2画像から主要被写体を抽出してもよい。
上記の差分値で被写体抽出を行うと、反射率の高い部分と低い部分とが隣接する被写体では抽出精度が低下することがある。例えば、黒髪の人物の顔を撮影する場合を考えると、黒髪の部分は反射率が低いので明るさの差分値が小さくなる一方で、顔の部分では相対的に反射率が高いことから明るさの差分値が大きくなる。従って、上記の場合には、人物が髪の部分と顔の部分とが同一の被写体として認識されない可能性がある。ここで、第1画像の明るさは、発光部22による照明光と環境光との和に被写体の反射率を乗じた値((照明光成分+環境光成分)×反射率)となる。また、第2画像の明るさは環境光に被写体の反射率を乗じた値(環境光成分×反射率)となる。すなわち、したがって、明るさの比率に基づいて被写体を抽出する場合には被写体の反射率が相殺される。したがって、上記のように反射率の高い部分と低い部分とが隣接する被写体についても高い精度で抽出することが可能となる。
Alternatively, the
When subject extraction is performed with the above difference value, the extraction accuracy may be lowered for a subject in which a portion with a high reflectance and a portion with a low reflectance are adjacent to each other. For example, when shooting the face of a black-haired person, the dark-hair part has a low reflectance, so the difference in brightness is small, while the face part has a relatively high reflectance, so the brightness is high. The difference value of becomes larger. Therefore, in the above case, there is a possibility that the person does not recognize the hair part and the face part as the same subject. Here, the brightness of the first image is a value ((illumination light component + environment light component) × reflectance) obtained by multiplying the sum of the illumination light by the
なお、本発明は、その精神またはその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態は、あらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。 The present invention can be implemented in various other forms without departing from the spirit or the main features thereof. For this reason, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.
11…ズームレンズ、12…ズームエンコーダ、15…撮像素子、18…画像処理部、19…圧縮伸長処理部、20…記録I/F、22…発光部、23…姿勢検出部、27…CPU、29…記録媒体、30…撮影条件決定部、31…被写体抽出部
DESCRIPTION OF
Claims (5)
前記撮影画像から主要被写体を抽出するとともに、前記撮影画像のうちで前記主要被写体を含まない背景領域の範囲を決定する被写体抽出部と、
前記撮影画像の前記背景領域に対して、画像の特定方向に向けてボケ度合いが大きくなるように画像をぼかすぼかし処理を実行する画像処理部と、
を備えることを特徴とする電子カメラ。 An imaging unit that captures a subject image based on the light flux of the imaging optical system and generates data of the captured image;
A subject extraction unit that extracts a main subject from the captured image and determines a range of a background area that does not include the main subject in the captured image;
An image processing unit that performs a blurring process for blurring the image so that a degree of blur increases in a specific direction of the image with respect to the background region of the captured image;
An electronic camera comprising:
前記画像処理部は、前記撮影画像の下側から上側に向けて前記ボケ度合いが大きくなるように前記ぼかし処理を実行することを特徴とする電子カメラ。 The electronic camera according to claim 1,
The electronic camera, wherein the image processing unit executes the blurring process so that the degree of blur increases from the lower side to the upper side of the captured image.
前記画像処理部は、前記撮影画像での上下方向の位置と被写体距離の推定値との対応関係に基づいて、前記ボケ度合いの大きさを決定することを特徴とする電子カメラ。 The electronic camera according to claim 1,
The electronic camera according to claim 1, wherein the image processing unit determines the magnitude of the degree of blur based on a correspondence relationship between a vertical position in the captured image and an estimated value of a subject distance.
前記撮影光学系から焦点距離の情報を取得する焦点距離取得部をさらに備え、
前記画像処理部は、前記焦点距離に応じて前記ボケ度合いの変化を調整することを特徴とする電子カメラ。 The electronic camera according to any one of claims 1 to 3,
A focal length acquisition unit that acquires focal length information from the photographing optical system;
The electronic camera, wherein the image processing unit adjusts the change in the degree of blur according to the focal length.
前記撮影画像から主要被写体を抽出するとともに、前記撮影画像のうちで前記主要被写体を含まない背景領域の範囲を決定する第1ステップと、
前記撮影画像の前記背景領域に対して、画像の特定方向に向けてボケ度合いが大きくなるように画像をぼかすぼかし処理を実行する第2ステップと、
を前記制御部に実行させることを特徴とするプログラム。 A program for an image processing apparatus including a data reading unit for reading captured image data and a control unit,
A first step of extracting a main subject from the photographed image and determining a range of a background region not including the main subject in the photographed image;
A second step of performing a blurring process for blurring the image so that a degree of blur increases in a specific direction of the image with respect to the background region of the captured image;
Is executed by the control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006298862A JP4935302B2 (en) | 2006-11-02 | 2006-11-02 | Electronic camera and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006298862A JP4935302B2 (en) | 2006-11-02 | 2006-11-02 | Electronic camera and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008118348A true JP2008118348A (en) | 2008-05-22 |
JP4935302B2 JP4935302B2 (en) | 2012-05-23 |
Family
ID=39503933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006298862A Expired - Fee Related JP4935302B2 (en) | 2006-11-02 | 2006-11-02 | Electronic camera and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4935302B2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010039946A (en) * | 2008-08-07 | 2010-02-18 | Ricoh Co Ltd | Image processor, imaging device, image processing method and program |
JP2010246033A (en) * | 2009-04-09 | 2010-10-28 | Nikon Corp | Camera, image processing device, and image processing program |
JP2011091570A (en) * | 2009-10-21 | 2011-05-06 | Olympus Imaging Corp | Imaging apparatus |
JP2011166302A (en) * | 2010-02-05 | 2011-08-25 | Canon Inc | Imaging apparatus, and image processing method |
JP2011166301A (en) * | 2010-02-05 | 2011-08-25 | Canon Inc | Imaging apparatus |
JP2011239267A (en) * | 2010-05-12 | 2011-11-24 | Ricoh Co Ltd | Imaging apparatus and image processing apparatus |
JP2012129618A (en) * | 2010-12-13 | 2012-07-05 | Canon Inc | Image processing system, control method and control program |
JP2012128166A (en) * | 2010-12-15 | 2012-07-05 | Canon Inc | Focus device, control method and control program for the same |
EP2571251A2 (en) | 2011-09-15 | 2013-03-20 | Sony Corporation | Image processor, image processing method, and computer readable medium |
JP2013219810A (en) * | 2013-06-06 | 2013-10-24 | Canon Inc | Imaging apparatus |
JP2015208001A (en) * | 2014-04-17 | 2015-11-19 | ▲ホア▼▲ウェイ▼技術有限公司 | Method and electronic device for implementing refocusing |
US9332194B2 (en) | 2010-02-05 | 2016-05-03 | Canon Kabushiki Kaisha | Imaging apparatus for obtaining a user-intended image when orientation of the imaging apparatus changes in applying a special effect that changes the image quality in a set direction |
CN107864336A (en) * | 2017-11-24 | 2018-03-30 | 维沃移动通信有限公司 | A kind of image processing method, mobile terminal |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2017056314A1 (en) | 2015-10-02 | 2018-07-19 | オリンパス株式会社 | Imaging apparatus, proposed image generation apparatus, proposed image generation method, proposed image generation program, and storage medium |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1141512A (en) * | 1997-07-24 | 1999-02-12 | Olympus Optical Co Ltd | Image processing unit |
JPH11266388A (en) * | 1998-03-17 | 1999-09-28 | Canon Inc | Digital camera, photographing method and storage medium |
JP2001057630A (en) * | 1999-08-18 | 2001-02-27 | Fuji Photo Film Co Ltd | Image processing unit and image processing method |
JP2002369071A (en) * | 2001-06-08 | 2002-12-20 | Olympus Optical Co Ltd | Picture processing method and digital camera mounted with the same and its program |
JP2003087545A (en) * | 2001-09-07 | 2003-03-20 | Canon Inc | Image pickup device, image processor and method |
JP2003101858A (en) * | 2001-09-20 | 2003-04-04 | Pentax Corp | Digital camera |
JP2003283902A (en) * | 2002-03-26 | 2003-10-03 | Fuji Photo Film Co Ltd | Digital steel camera and image processor |
JP2005136480A (en) * | 2003-10-28 | 2005-05-26 | Fuji Photo Film Co Ltd | Photographing apparatus |
JP2008027138A (en) * | 2006-07-20 | 2008-02-07 | Nissan Motor Co Ltd | Vehicle monitoring device |
-
2006
- 2006-11-02 JP JP2006298862A patent/JP4935302B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1141512A (en) * | 1997-07-24 | 1999-02-12 | Olympus Optical Co Ltd | Image processing unit |
JPH11266388A (en) * | 1998-03-17 | 1999-09-28 | Canon Inc | Digital camera, photographing method and storage medium |
JP2001057630A (en) * | 1999-08-18 | 2001-02-27 | Fuji Photo Film Co Ltd | Image processing unit and image processing method |
JP2002369071A (en) * | 2001-06-08 | 2002-12-20 | Olympus Optical Co Ltd | Picture processing method and digital camera mounted with the same and its program |
JP2003087545A (en) * | 2001-09-07 | 2003-03-20 | Canon Inc | Image pickup device, image processor and method |
JP2003101858A (en) * | 2001-09-20 | 2003-04-04 | Pentax Corp | Digital camera |
JP2003283902A (en) * | 2002-03-26 | 2003-10-03 | Fuji Photo Film Co Ltd | Digital steel camera and image processor |
JP2005136480A (en) * | 2003-10-28 | 2005-05-26 | Fuji Photo Film Co Ltd | Photographing apparatus |
JP2008027138A (en) * | 2006-07-20 | 2008-02-07 | Nissan Motor Co Ltd | Vehicle monitoring device |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010039946A (en) * | 2008-08-07 | 2010-02-18 | Ricoh Co Ltd | Image processor, imaging device, image processing method and program |
JP2010246033A (en) * | 2009-04-09 | 2010-10-28 | Nikon Corp | Camera, image processing device, and image processing program |
JP2011091570A (en) * | 2009-10-21 | 2011-05-06 | Olympus Imaging Corp | Imaging apparatus |
US9332194B2 (en) | 2010-02-05 | 2016-05-03 | Canon Kabushiki Kaisha | Imaging apparatus for obtaining a user-intended image when orientation of the imaging apparatus changes in applying a special effect that changes the image quality in a set direction |
JP2011166302A (en) * | 2010-02-05 | 2011-08-25 | Canon Inc | Imaging apparatus, and image processing method |
JP2011166301A (en) * | 2010-02-05 | 2011-08-25 | Canon Inc | Imaging apparatus |
JP2011239267A (en) * | 2010-05-12 | 2011-11-24 | Ricoh Co Ltd | Imaging apparatus and image processing apparatus |
JP2012129618A (en) * | 2010-12-13 | 2012-07-05 | Canon Inc | Image processing system, control method and control program |
JP2012128166A (en) * | 2010-12-15 | 2012-07-05 | Canon Inc | Focus device, control method and control program for the same |
EP2571251A2 (en) | 2011-09-15 | 2013-03-20 | Sony Corporation | Image processor, image processing method, and computer readable medium |
US8958655B2 (en) | 2011-09-15 | 2015-02-17 | Sony Corporation | Image processor, image processing method, and computer readable medium |
JP2013219810A (en) * | 2013-06-06 | 2013-10-24 | Canon Inc | Imaging apparatus |
JP2015208001A (en) * | 2014-04-17 | 2015-11-19 | ▲ホア▼▲ウェイ▼技術有限公司 | Method and electronic device for implementing refocusing |
CN107864336A (en) * | 2017-11-24 | 2018-03-30 | 维沃移动通信有限公司 | A kind of image processing method, mobile terminal |
Also Published As
Publication number | Publication date |
---|---|
JP4935302B2 (en) | 2012-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4935302B2 (en) | Electronic camera and program | |
US11039059B2 (en) | Imaging capturing device and imaging capturing method | |
JP4665718B2 (en) | Imaging device | |
JP4924430B2 (en) | Imaging apparatus, image processing apparatus, and program | |
JP5395678B2 (en) | Distance map generation type multi-lens camera | |
US7791668B2 (en) | Digital camera | |
WO2017045558A1 (en) | Depth-of-field adjustment method and apparatus, and terminal | |
US9025049B2 (en) | Image processing method, image processing apparatus, computer readable medium, and imaging apparatus | |
US8395694B2 (en) | Apparatus and method for blurring image background in digital image processing device | |
JP2007281760A (en) | Electronic camera | |
JP2008252713A (en) | Imaging device | |
JP6472183B2 (en) | Image processing apparatus, control method thereof, and program | |
JP2008092515A (en) | Electronic camera, image processing apparatus and program | |
JP2007300581A (en) | Moving image photographing apparatus and moving image photographing program | |
CN110177212B (en) | Image processing method and device, electronic equipment and computer readable storage medium | |
JP2004349750A (en) | Digital camera and control method therefor | |
JP2008092299A (en) | Electronic camera | |
JP5407373B2 (en) | Imaging apparatus and program | |
JP2010141609A (en) | Imaging apparatus | |
JP5146015B2 (en) | Imaging apparatus and imaging method | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP5282533B2 (en) | Image processing apparatus, imaging apparatus, and program | |
JP6645612B1 (en) | Imaging device and electronic equipment | |
JP6645614B2 (en) | Imaging device and electronic equipment | |
JP2009130840A (en) | Imaging apparatus, control method thereof ,and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100922 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120124 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120206 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4935302 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |