JP2017161941A - Reproducer, imaging apparatus, and control method of reproducer - Google Patents
Reproducer, imaging apparatus, and control method of reproducer Download PDFInfo
- Publication number
- JP2017161941A JP2017161941A JP2017112544A JP2017112544A JP2017161941A JP 2017161941 A JP2017161941 A JP 2017161941A JP 2017112544 A JP2017112544 A JP 2017112544A JP 2017112544 A JP2017112544 A JP 2017112544A JP 2017161941 A JP2017161941 A JP 2017161941A
- Authority
- JP
- Japan
- Prior art keywords
- focus
- image
- display
- light field
- field information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、再生装置、撮像装置、再生装置の制御方法、プログラムおよび記憶媒体に関するものである。 The present invention relates to a playback device, an imaging device, a playback device control method, a program, and a storage medium.
近年、撮像素子により得られたデータに対して演算を行い、それに応じたデジタル画像処理を行うことで様々な画像の出力を行う撮像装置が提案されている。特許文献1では、被写体空間の光の2次元強度分布と光線の角度情報、つまり視点の異なる画像を同時に取得する撮像装置が開示されている。ここで、光の2次元強度分布と光線の角度情報を合わせて光線空間情報(=ライトフィールド情報)と呼び、光線空間情報を取得することで被写体空間の3次元的な情報を得ることができる。この撮像装置では、光線空間情報の取得と撮影後の画像再構成処理によって、リフォーカスと呼ばれる画像のピント位置の変更が可能である。 2. Description of the Related Art In recent years, there have been proposed imaging devices that perform various operations on data obtained by an imaging device and perform various digital image processing to output various images. Patent Document 1 discloses an imaging apparatus that simultaneously acquires a two-dimensional intensity distribution of light in a subject space and light angle information, that is, images with different viewpoints. Here, the two-dimensional intensity distribution of light and the angle information of the light are combined to be called light space information (= light field information), and the three-dimensional information of the subject space can be obtained by acquiring the light space information. . In this imaging apparatus, the focus position of an image called refocusing can be changed by acquiring light space information and performing image reconstruction processing after shooting.
一方、同時に取得された多視点の画像を、いわゆるリフォーカス操作したときの表示方法なども提案されている。特許文献2には、ユーザの操作に応じた画像を対話的に表示するシステムが提案されている。具体的には、特許文献2のシステムでは、ポインティングデバイスの指示に応じて指示箇所にピントが合うようにリフォーカス処理を施してユーザに提示する。
On the other hand, a display method when a so-called refocus operation is performed on multi-viewpoint images acquired at the same time has also been proposed.
しかしながら、特許文献1、2で開示されている撮像装置やシステムでは、リフォーカスなどの操作に応じて画像を表示することは可能であるものの、ピントが合っている範囲を直感的に把握できるものではなかった。更に、低解像度のモニタで観察した場合には、ピントが合っている範囲を確認することが容易ではなかった。
However, the imaging devices and systems disclosed in
本発明は、上述したような問題点に鑑みてなされたものであり、撮影後のピント位置の変更に応じて生成された画像においてピント状態を容易に把握できるようにすることを目的とする。 The present invention has been made in view of the above-described problems, and an object of the present invention is to make it possible to easily grasp a focus state in an image generated in accordance with a change in focus position after shooting.
本発明は、ライトフィールド情報から画像を生成して表示する再生装置であって、仮想的なピント位置を含む、画像のピント位置を指示するフォーカス指示手段と、前記ライトフィールド情報から、前記フォーカス指示手段により指示されたピント位置にしたがって画像を生成する生成手段と、前記生成手段により生成された画像とともに、ピント状態を示す表示を表示する表示手段と、を有することを特徴とする。 The present invention is a playback device that generates and displays an image from light field information, and includes a focus instruction unit that indicates a focus position of an image including a virtual focus position, and the focus instruction from the light field information. The image processing apparatus includes generation means for generating an image according to a focus position designated by the means, and display means for displaying a display indicating a focus state together with the image generated by the generation means.
本発明によれば、撮影後のピント位置の変更に応じて生成された画像においてピント状態を容易に把握することができる。 According to the present invention, it is possible to easily grasp the focus state in an image generated according to a change in the focus position after shooting.
以下、本発明の好ましい実施形態について、添付の図面に基づいて詳細に説明する。各図では、同一の部材には同一の符号を付し、重複する説明は省略する。
本実施形態に係る再生装置について図1〜図6を参照して説明する。ここでは、再生装置として撮像装置(デジタルカメラ)を適用する場合について説明する。
図1(a)は、デジタルカメラの中央断面図である。
デジタルカメラは、カメラ本体1、カメラ本体1に着脱可能なレンズユニット2を有している。カメラ本体1は、撮像素子6、表示部9としての背面表示装置、クイックリターン機構14、ファインダ表示部16などを有している。レンズユニット2は、光軸4に沿った撮影光学系3を形成するレンズ、レンズシステム制御回路12などを有している。カメラ本体1とレンズユニット2とは電気接点11により電気的に接続される。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same members are denoted by the same reference numerals, and redundant description is omitted.
A playback apparatus according to this embodiment will be described with reference to FIGS. Here, a case where an imaging device (digital camera) is applied as a playback device will be described.
FIG. 1A is a central sectional view of the digital camera.
The digital camera has a camera body 1 and a
図1(b)は、デジタルカメラの電気的構成を示すブロック図である。
カメラ本体1およびレンズユニット2からなるデジタルカメラは、撮像系、画像処理系、記録再生系、制御系を有する。撮像系は、撮影光学系3、撮像素子6を含んで構成される。画像処理系は、画像処理部7を含んで構成される。記録再生系は、メモリ部8、表示部9を含んで構成される。制御系は、カメラシステム制御回路5、操作検出部10、レンズシステム制御回路12、レンズ駆動部13を含んで構成される。レンズ駆動部13は、焦点レンズ、ブレ補正レンズ、絞りなどを駆動することができる。
FIG. 1B is a block diagram showing an electrical configuration of the digital camera.
The digital camera including the camera body 1 and the
撮像系では、物体からの光が撮影光学系3を介して撮像素子6の撮像面に結像される。撮像素子6表面にはマイクロレンズが格子状に配列された、いわゆるマイクロレンズアレイ(以下、MLAという)が配置されている。MLAは、光線制御手段の一例である。MLAの機能や配置の詳細については図2を参照して後述する。撮像素子6からピント評価量/適当な露光量が得られるので、この信号に基づいて適切に撮影光学系3が調整されることで、適切な光量の物体光を撮像素子6に露光すると共に、撮像素子6近傍で被写体像が結像される。
In the imaging system, light from an object is imaged on the imaging surface of the
画像処理部7は、内部にA/D変換器、ホワイトバランス回路、ガンマ補正回路、補間演算回路などを有している。なお、画像処理部7には、現像したり記録用の画像を生成したりする機能を含めることができるが、本実施形態ではカメラシステム制御回路5がこれらの機能を有しているものとする。
メモリ部8は、実際に画像データを記録する記録部に加え、記録に必要な処理回路を有している。メモリ部8は、記録部に出力を行うと共に、表示部9に出力する像を生成、保存する。また、メモリ部8は、予め定められた方法を用いて画像、動画、音声などの圧縮を行う。
The
The
カメラシステム制御回路5は、撮像の際のタイミング信号などを生成して出力する。カメラシステム制御回路5は、ユーザ操作に応じて撮像系、画像処理系、記録再生系をそれぞれ制御する。具体的には、カメラシステム制御回路5は、不図示のシャッターレリーズ釦の押下を操作検出部10が検出することにより、撮像素子6の駆動、画像処理部7の動作、メモリ部8の圧縮処理などを制御する。また、カメラシステム制御回路5は、液晶モニタなどの表示部9によって情報表示を行う各セグメントの状態を制御する。
The camera
次に、制御系による光学系の調整動作について説明する。カメラシステム制御回路5は、画像処理部7を介して撮像素子6からの信号を受信し、受信した信号に基づいて適切な焦点位置、絞り位置を求める。カメラシステム制御回路5は電気接点11を介してレンズシステム制御回路12に指令を送信し、レンズシステム制御回路12は受信した指令に応じてレンズ駆動部13を制御する。また、レンズシステム制御回路12には不図示の手ぶれ検出センサが接続されている。手ぶれ補正を行うモードにおいては、レンズシステム制御回路12は、手ぶれ検出センサの信号に基づいてレンズ駆動部13を介してブレ補正レンズを適切に制御する。
Next, the adjustment operation of the optical system by the control system will be described. The camera
図1に示すデジタルカメラは、画像の再生が可能である。カメラシステム制御回路5は、操作検出部10により再生モードへの切換が検出された場合には、取得した画像を表示部9に表示する。また、後述するように、カメラシステム制御回路5は、複数の視差の異なる像を用いてフォーカス位置(ピント位置)および絞り値(絞り)に応じて画像を再構成(いわゆる現像)して表示する。このとき、カメラシステム制御回路5は、フォーカス位置の指示や絞り値の指示に応じて現像方法を制御する。
The digital camera shown in FIG. 1 can reproduce an image. The camera
図2は、本実施形態の撮影光学系の要部を説明するための図である。なお、他の撮影光学系についても適用可能であるが、他の撮影光学系については図3を参照して説明する。
まず、本発明を実現するためには、複数の視点からの被写体像を取得する必要がある。本実施形態では、角度情報の取得のために撮像素子6の結像面の近傍にMLAを配置すると共に、MLAを構成する1つのマイクロレンズに対して複数の画素を対応させている。
FIG. 2 is a diagram for explaining a main part of the photographing optical system of the present embodiment. Although the present invention can be applied to other photographing optical systems, the other photographing optical systems will be described with reference to FIG.
First, in order to realize the present invention, it is necessary to acquire subject images from a plurality of viewpoints. In the present embodiment, an MLA is disposed in the vicinity of the imaging plane of the
図2(a)は、撮像素子とMLAの関係を模式的に示す図である。図2(b)は、撮像素子の画素とMLAの対応を示す模式図である。図2(c)は、MLAによってMLA下に配置された画素が特定の瞳領域と対応付けられることを示す図である。
図2(a)に示すように撮像素子6上にはMLA18が設けられている。MLA18の前側主点は撮影光学系3の結像面近傍になるように配置されている。図2(a)は、MLAをデジタルカメラの正面および側面から見た図である。正面から見た場合、MLA18は、レンズが撮像素子6上の画素を覆うように配置されている。なお、図2(a)ではMLAを構成する各マイクロレンズを見やすくするために、大きく示しているが、実際には各マイクロレンズは画素の数倍程度の大きさしかない(後述する図2(b)を参照)。なお、1つの画素は1つの光電変換部に相当する。
FIG. 2A is a diagram schematically illustrating the relationship between the image sensor and the MLA. FIG. 2B is a schematic diagram showing the correspondence between the pixels of the image sensor and the MLA. FIG. 2C is a diagram showing that the pixels arranged under the MLA are associated with a specific pupil region by the MLA.
As shown in FIG. 2A, an
図2(b)は、図2(a)の正面から見た図を一部拡大した図である。図2(b)に示す格子状の枠は、撮像素子6の各画素を示している。一方、MLA18を構成する各マイクロレンズは太い円20,21,22,23で示している。
図2(b)に示すように、マイクロレンズ1つに対して複数の画素が割り当てられている。ここでは、5行×5列=25個の画素が1つのマイクロレンズに対して設けられている。すなわち、各マイクロレンズの大きさは画素の大きさの5倍×5倍の大きさである。
FIG. 2B is a partially enlarged view seen from the front of FIG. A grid-like frame shown in FIG. 2B indicates each pixel of the
As shown in FIG. 2B, a plurality of pixels are assigned to one microlens. Here, 5 rows × 5 columns = 25 pixels are provided for one microlens. That is, the size of each microlens is 5 × 5 times the size of the pixel.
図2(c)は、撮像素子6の一部およびマイクロレンズ20の一部を図2(b)に示すI−I線で切断した断面図である。図2(c)の下側には撮像素子6の画素20a、20b、20c、20d、20eを示し、上側には撮影光学系3の射出瞳面を示している。本来、射出瞳面は、図2(c)の下側に示した画素の方向と合わせると、図2(c)の紙面垂直方向になるが、理解を容易にするために射出瞳面の方向を変化させている。
また、図2(c)では説明を簡単にするために、1次元の投影/信号処理について説明するが、カメラシステム制御回路5は容易に2次元に拡張することができる。なお、図2(c)の画素20a〜20eは、図2(b)の画素20a〜20eにそれぞれ対応する位置関係である。
FIG. 2C is a cross-sectional view of a part of the
In FIG. 2 (c), one-dimensional projection / signal processing will be described for the sake of simplicity, but the camera
図2(c)に示すように、マイクロレンズ20によって各画素20a〜20eは撮影光学系3の射出瞳面上の特定の領域と共役になるように設計されている。図2(c)の例では画素20aと領域30aが、画素20bと領域30bが、画素20cと領域30cが、画素20dと領域30dが、画素20eと領域30eがそれぞれ対応している。すなわち、画素20aには撮影光学系3の射出瞳面上の領域30aを通過した光束のみが入射する。他の画素も同様である。更に、隣接する画素21a〜21eも射出瞳面上の同じ領域と対応している。すなわち、画素21aと領域30aが、画素21bと領域30bが、画素21cと領域30cが、画素21dと領域30dが、画素21eと領域30eがそれぞれ対応している。
As shown in FIG. 2C, each of the
結果として、カメラシステム制御回路5は、瞳面上での通過領域と撮像素子6上の位置関係から角度情報を取得することができる。図2で説明した光学系から複数の視点の異なる像を生成するには、カメラシステム制御回路5は、各マイクロレンズの同じ瞳面に対応する画素を配列する。これによって、カメラシステム制御回路5は、入力画像である複数の視点の異なる像を生成することができる。
As a result, the camera
次に、他の撮影光学系について図3を参照して説明する。
上述したように本発明を適用するためには、複数の視点の異なる像を取得する必要がある。このような複数の視点の異なる像を取得できる光学系が、プレノプティックカメラやいわゆる多眼カメラなどとして知られている。なお、複数の視点の異なる像とは、特許文献1に記載された光線空間情報と等価なものである。
図3は、物体(被写体)からの光線が撮像素子6上に結像する状態を模式的に示した図である。図3(a)は、図2で説明した撮影光学系に対応しており、撮影光学系3の結像面近傍にMLA18を配置した例である。図3(b)は、撮影光学系3の結像面よりも物体寄りにMLA18を配置した例である。図3(c)は、撮影光学系3の結像面よりも物体から遠い側にMLA18を配置した例である。図3(d)は、いわゆる多眼光学系を示す例である。
Next, another photographing optical system will be described with reference to FIG.
As described above, in order to apply the present invention, it is necessary to acquire a plurality of images with different viewpoints. Such an optical system capable of acquiring a plurality of different viewpoint images is known as a plenoptic camera or a so-called multi-lens camera. Note that the images with different viewpoints are equivalent to the light space information described in Patent Document 1.
FIG. 3 is a diagram schematically illustrating a state in which a light beam from an object (subject) forms an image on the
図3(a)〜(d)には、物体平面51、物体上の任意の点51a,51b、撮影光学系の瞳平面52が示されている。また、図3(a)〜(c)には、撮影光学系の瞳領域30a〜30e、MLA18上の特定のマイクロレンズ61、62、71,72,73,81,82,83,84が示されている。また、図3(b)、(c)には、物体51との共役面として、メインレンズの仮想結像面50が示されている。また、図3(d)には、多眼光学系を構成する各々の撮像素子6a,6b,6c、多眼光学系の各々のメインレンズの瞳領域31a〜35aが示されている。
また、図3(a)〜(d)では、物体上の点51aから出射され撮影光学系あるいは多眼光学系を通過する光束を実線で示し、物体上の点51bから出射され撮影光学系あるいは多眼光学系を通過する光束を一点鎖線で示している。
3A to 3D show an
3 (a) to 3 (d), the light beam emitted from the
図3(a)では、図2でも説明したように、撮影光学系3の結像面近傍にMLA18を配置することで、撮像素子6と撮影光学系3の瞳平面52とが共役の関係にある。また、物体平面51とMLA18とが共役の関係にある。したがって、物体上の点51aから出射された光束はマイクロレンズ61に到達し、点51bを出射された光束はマイクロレンズ62に到達した後、領域30aから30eのそれぞれを通過した光束はマイクロレンズ下に設けられたそれぞれ対応する画素に到達する。
In FIG. 3A, as described with reference to FIG. 2, the
図3(b)では、MLA18で撮影光学系3からの光束を結像させ、その結像面に撮像素子6を設ける。このように配置することで、物体平面51と撮像素子6とが共役の関係にある。物体上の点51aから出射され瞳平面上の領域30aを通過した光束はマイクロレンズ71に到達し、物体上の点51aから出射され瞳平面上の領域30cを通過した光束はマイクロレンズ72に到達する。また、物体上の点51bから出射され瞳平面上の領域30aを通過した光束はマイクロレンズ72に到達し、物体上の点51bから出射され瞳平面上の領域30cを通過した光束はマイクロレンズ73に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。このように物体上の点と、瞳平面上の通過領域によって、異なる位置にそれぞれ結像する。これらを、メインレンズの仮想結像面50上の位置に並べ直すことで、図3(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子6上の位置の情報を得ることができる。
In FIG. 3B, the light beam from the photographing
図3(c)では、MLA18で撮影光学系3からの光束を再結像(一度結像した光束が拡散する状態にあるものを再び結像させることをいう)され、その結像面に撮像素子6を設ける。このように配置することで、物体平面51と撮像素子6とが共役の関係にある。物体上の点51aから出射され瞳平面上の領域30aを通過した光束はマイクロレンズ82に到達し、物体上の点51aから出射され瞳平面上の領域30cを通過した光束はマイクロレンズ81に到達する。物体上の点51bから出射され瞳平面上の領域30aを通過した光束はマイクロレンズ84に到達し、物体上の点51bから出射され瞳平面上の領域30cを通過した光束はマイクロレンズ83に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。図3(b)と同様に、メインレンズの仮想結像面50上の位置に並べ直すことで、図3(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子6上の位置の情報を得ることができる。
In FIG. 3C, the light beam from the imaging
図3(d)では、メインレンズとMLAによる構成ではなく、いわゆる多眼光学系によって同様の情報を得ることができる。この多眼光学系においては、図3(a)の瞳領域30a〜30eに直接メインレンズ31a〜35aを配置して、視差像を得ていると考えることができる。撮像素子6a,6b,6cのそれぞれの像は、いわゆる視点の異なる像となっている。
In FIG. 3D, similar information can be obtained not by the main lens and MLA but by a so-called multi-eye optical system. In this multi-view optical system, it can be considered that the
図3では、MLA(位相変調素子)を瞳分割手段として用いて、位置情報と角度情報を取得できる例について示したが、位置情報と角度情報(瞳の通過領域を制限することと等価)を取得可能なものであれば他の光学構成も利用可能である。例えば、適当なパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する方法であってもよい。
その他の方法としては、時分割で複数の視点の異なる像を取得する方法であってもよい。この方法においては、デジタルカメラにおいて時間的に離間した多数の画像を得ると共に、手振れやユーザのスイングを利用して複数の視点の異なる像を取得する。
FIG. 3 shows an example in which the position information and the angle information can be acquired using the MLA (phase modulation element) as the pupil dividing means. Other optical configurations can be used as long as they can be obtained. For example, a method of inserting a mask (gain modulation element) with an appropriate pattern into the optical path of the photographing optical system may be used.
Another method may be a method of acquiring different images from a plurality of viewpoints by time division. In this method, a large number of images that are separated in time are obtained by a digital camera, and different images from a plurality of viewpoints are obtained by using camera shake or user swing.
次に、本実施形態に係るデジタルカメラにより複数の視差の異なる像からユーザによる操作に応じて画像を現像し、表示部9に表示する場合について図4〜図6を参照して説明する。
図4(a)は、デジタルカメラと被写体との位置関係を示す図である。図4(a)では、カメラ本体1およびレンズユニット2によって撮影される範囲102に、デジタルカメラからの距離がそれぞれ異なる、被写体110および被写体111が存在している。
図4(b)は、デジタルカメラの外観を示す斜視図である。レンズユニット2には、ユーザにより操作可能なフォーカス指示部120が配置されている。フォーカス指示部120は、フォーカス指示手段の一例である。フォーカス指示部120は、例えばレンズユニット2の外周に沿って回転可能な第1リング部材を有し、操作検出部10によって第1リング部材の回転位置が検出される。
また、カメラ本体1には、ユーザにより操作可能な絞り値指示部121が配置されている。絞り値指示部121は、絞り指示手段の一例である。絞り値指示部121は、例えば回転可能な第2リング部材を有し、操作検出部10によって第2リング部材の回転位置が検出される。
Next, a case where an image is developed from a plurality of images with different parallaxes according to a user's operation using the digital camera according to the present embodiment and displayed on the
FIG. 4A shows the positional relationship between the digital camera and the subject. In FIG. 4A, there are a subject 110 and a subject 111 that are different in distance from the digital camera in a
FIG. 4B is a perspective view showing the appearance of the digital camera. The
In addition, the camera body 1 is provided with an aperture
図4(c)は、図4(a)に示す状態を撮影して取得される被写体像を示す図である。図4(c)では、ピント状態は無視して全ての被写体が先鋭に取得される場合を示している。図4(c)に示す画像103では、デジタルカメラから相対的に近距離にある被写体110と相対的に遠距離にある被写体111の像が取得されている。
FIG. 4C is a diagram showing a subject image acquired by photographing the state shown in FIG. FIG. 4C shows a case where all subjects are acquired sharply, ignoring the focus state. In an
以下では、デジタルカメラが少なくとも露光時間が重複するように複数の視差の異なる像を取得した場合を考える。本発明は画像取得後の画像の表示および画像の操作の際に適用される。複数の視差の異なる像はいわゆる光線空間情報と等価な情報を得ているので、これを利用して画像取得後のピント位置の変更(リフォーカス)や絞り値の変更を行うことができる。カメラシステム制御回路5は、ユーザによるフォーカス指示部120および絞り値指示部121を介した操作に応じてリフォーカスおよび絞り値を調整した画像を生成する。なお、画像の生成方法については特許文献1や特許文献2に開示されているので、その説明は割愛する。
In the following, a case is considered where a digital camera acquires a plurality of images with different parallaxes so that exposure times overlap at least. The present invention is applied when displaying an image after image acquisition and when manipulating the image. Since a plurality of images having different parallax have obtained information equivalent to so-called ray space information, it is possible to change the focus position (refocus) and change the aperture value after obtaining the image. The camera
本実施形態では、リフォーカスのための操作部としてフォーカス指示部120を用い、絞り値の変更のための操作部として絞り値指示部121を用いる場合について説明する。すなわち、カメラシステム制御回路5は、フォーカス指示部120の操作に応じてピント位置を変化させて、手前または奥の被写体にピントを合わせ、絞り値指示部121の操作に応じて絞り値を変化させて被写界深度を調整する。操作検出部10はフォーカス指示部120および絞り値指示部121による操作を検出する。
In the present embodiment, a case where the
図4(d)〜図4(g)は、表示画像の例を示す図である。カメラシステム制御回路5は画像103に、ピント状態を示す表示と、ピント状態が変化することを示す表示とを、オーバーレイして表示している。ここで、ピント状態を示す表示には、測距枠130と、ピントが合った測距枠131とが含まれる。また、ピント状態が変化することを示す表示には、絞り込みによりピントが合う測距枠132が含まれる。
まず、図4(d)は遠くにある被写体111にピントが合っていて、近くにある被写体110にピントが合っていない(ぼけている)状態を示している。一方、図4(e)は近くにある被写体110にピントが合っていて、遠くにある被写体111はピントが合っていない(ぼけている)状態を示している。また、図4(f)は、近くにある被写体110および遠くにある被写体111の何れにもピントが合っている状態を示している。また、図4(g)は、図4(e)と同様、近くにある被写体110にピントが合っていて、遠くにある被写体111はピントが合っていない(ぼけている)状態であって、絞り込みによるピント状態の変化を同時に表示した場合を示している。
FIG. 4D to FIG. 4G are diagrams illustrating examples of display images. The camera
First, FIG. 4D shows a state in which the subject 111 in the distance is in focus and the subject 110 in the vicinity is not in focus (blurred). On the other hand, FIG. 4E shows a state in which the subject 110 located near is in focus and the subject 111 located far away is out of focus (blurred). FIG. 4F shows a state where both the
本実施形態では、デジタルカメラが取得した画像を、いわゆるリフォーカスが可能であるので、画像取得後にピント位置を変化させて図4(d)や図4(e)に示すように異なるピント位置の画像を生成することができる。この処理は、カメラシステム制御回路5がフォーカス指示部120を介した操作に応じて行う。図4(d)から図4(g)には測距枠130が、生成した画像にオーバーレイして表示されている。測距枠とは、画像の一部を切り取って被写体のピント状態を計算する場合に、切り取る画像の範囲に対応したものである。デジタルカメラは複数の視差の異なる像を取得しているので、三角測距の原理に基づいて被写体まで距離を測定することが可能である。これを利用すれば現在表示しているピント位置においてそれぞれの被写体はピントが合っているか否かのピント状態を判定することができる。この処理は、具体的には図5を参照して後述するSADの計算などにより判定することが可能である。
In this embodiment, since the image acquired by the digital camera can be refocused, the focus position is changed after the image is acquired, and different focus positions are obtained as shown in FIGS. 4 (d) and 4 (e). An image can be generated. This process is performed by the camera
図4(d)から図4(g)に示す例ではピントが合っている範囲をピントの合った測距枠131で示した。図4(d)から図4(g)では測距枠131を太線で示したが、ピントが合っていない範囲の測距枠との間で識別できればよく、例えば色付けをして示してもよい。図4(d)では遠くにある被写体111に対応する測距枠131が太線で示されており、図4(e)では近くにある被写体110に対応する測距枠131が太線で示されている。
In the example shown in FIGS. 4D to 4G, the in-focus range is indicated by the in-
次に、絞り値を変更する操作、いわゆる絞り込みの操作をした場合を考える。絞り込むと被写界深度が深くなり、距離の異なる被写体であっても何れもピントが合った状態になる。ここでは、ボケが許容錯乱円以下になっている場合をピントが合ったものとしている。図4(f)は絞り込んだ状態を模式的に示しており、被写体110および被写体111の何れにもピントが合うと共に、双方に対応する測距枠131が太線で示されている。図4(f)で述べたように絞り値を変化するとピントが合う範囲が変化することが分かる。すなわち、深さ方向が変化することによって画面内でのピントが合う範囲も変化する。これを直感的に示したのが図4(g)である。図4(g)では、絞り変更によってピントが合う測距枠132としてハッチングで示した。実際には、ピントが合う測距枠132は、測距枠130および測距枠131との間で識別可能に例えば異なる色などで表示することができる。図4(g)は、手前の被写体110にピントが合っているが、絞り込むことで被写体111にもピントが合うことを示している。このように、絞り値の変更によってピントが合う範囲を現在、ピントが合っている範囲とは別の方法で提示している。
Next, consider a case where an operation for changing the aperture value, that is, a so-called aperture operation is performed. When narrowed down, the depth of field becomes deep, and even subjects with different distances are in focus. Here, the case where the blur is equal to or less than the permissible circle of confusion is assumed to be in focus. FIG. 4 (f) schematically shows a narrowed state, in which both the subject 110 and the subject 111 are in focus, and the
なお、特許文献2に開示された方法では、ユーザが画像を見てピントが合っているか否かを判断する必要があったが、低解像度のモニタなどではピント状態を正確に判断することは容易ではない。一方、本実施形態では、合焦範囲をオーバーレイして表示することで、ピントが合っている範囲を直感的にわかりやすく表示する。したがって、ユーザは低解像度のモニタであってもピントが合っていることを容易に把握することができる。また、図4に示すようなピント状態の提示方法は、従来のカメラのエイミング動作時にも用いられているので、従来のカメラを使用していたユーザに対して理解しやすいものになっている。
In the method disclosed in
次に、合焦判定のための処理およびフローチャートについて図5、図6を参照して説明する。
カメラシステム制御回路5は、最初に表示するピント位置を、撮影時の設定、デフォルトの設定または前回の設定値などの値を用いて表示する。図5ではフォーカス指示部120や絞り値指示部121によって、ユーザがピント状態を変化させるように指示した場合における、評価値の計算方法や評価値に応じた表示方法を具体的に説明する。
Next, processing and flowcharts for determining the focus will be described with reference to FIGS.
The camera
図5(a)は、特定の測距枠でのピント評価値の計算方法を説明するための図である。図5(b)は、ピント評価値とピント位置の関係を示す図である。図6は、再生処理を示すフローチャートである。
図5(a)では、ある視点の像141、像141と異なる視点の像142、着目する測距枠143、対応する測距枠144、画像の切り出し位置の変化方向としての矢印145、加算器151、絶対値演算器152、加算器153をそれぞれ示している。
図5(a)に示す像141は複数の視点の異なる像のうちの特定の視点の像を示している。ここでは、図2の画素20eに対応する視点の像として説明する。同様に像142は図2の画素20aに対応する視点の像として説明する。
カメラシステム制御回路5は特定の視点の像141の測距枠143に着目する。カメラシステム制御回路5は、着目した画像を切り出し、他の視点の像142と比較する。図5(a)では、切り出した画像を下方向に拡大して表示している。
FIG. 5A is a diagram for explaining a method of calculating a focus evaluation value in a specific distance measurement frame. FIG. 5B is a diagram illustrating the relationship between the focus evaluation value and the focus position. FIG. 6 is a flowchart showing the reproduction process.
In FIG. 5A, an
An
The camera
ピント評価値を得るための比較はいくつかの方法が考えられるが、ここでは差分絶対値の積分(SAD=Sum of Absolute Difference)を用いるものとして説明を行う。SADは以下の式で定義される。 Several methods are conceivable for the comparison for obtaining the focus evaluation value. Here, the description will be made on the assumption that the difference absolute value integration (SAD = Sum of Absolute Difference) is used. SAD is defined by the following equation.
数1においてX(i)は特定の視点の像の着目した測距枠内の信号を、Y(i)は他の視点の像から切り出した信号を示している。iは比較すべき画素に対応する添え字である。例えば8×8の領域であればiは1から64までの値である。したがって、全ての画素の差分を積分するという意味になる。数1に示す定義から明らかなように、SADにおいては類似度が高い(特定の視点の像と他の視点の像がよく似ている)ときに極小値となる。ここでは、SADの値をピント評価値(ピント評価情報)として用いる。 In Equation 1, X (i) indicates a signal within a focusing frame in which an image of a specific viewpoint is focused, and Y (i) indicates a signal cut out from an image of another viewpoint. i is a subscript corresponding to the pixel to be compared. For example, in an 8 × 8 region, i is a value from 1 to 64. Therefore, this means that the differences of all the pixels are integrated. As is clear from the definition shown in Formula 1, in SAD, the minimum value is obtained when the degree of similarity is high (an image of a specific viewpoint and an image of another viewpoint are very similar). Here, the value of SAD is used as the focus evaluation value (focus evaluation information).
図5(a)では、数1をブロック図で示している。図5(a)に示すように、加算器151は、着目した測距枠143と他の視点から切り出した画像144の差を算出する。次に、絶対値演算器152が算出された差の絶対値を取得した後、加算器153が全ての画素に対して加算を行う。
先に説明したように特定の視点の像141と他の視点の像142はそれぞれ図3の画素20eおよび20aに対応している。同時に取得された視点の異なる画像間にはいわゆるエピポーラ拘束が存在するのでその方向のみに探索を行えばよい。例えば画素20aと画素20eから得られる画像を比較する場合には、視点位置がX方向のみにずれているので、探索方向をX方向に限定することができる。図5(a)では模式的に探索方向を矢印145で示している。
In FIG. 5A, Equation 1 is shown in a block diagram. As shown in FIG. 5A, the
As described above, a
したがって、カメラシステム制御回路5は、矢印145の方向に他の視点の像142から画像を切り出す位置を変化させながらSADを計算することで、どこかで極小値を得ることができる。極小値の場所が2つの像が一致しておりピントが合った位置となる。
Therefore, the camera
図5(b)は、画像の切り出しの位置とピント評価値との関係を示す図である。横軸は他の視点の像142から画像を切り出す位置を示し、縦軸はピント評価値(SAD)を示している。カメラシステム制御回路5は、上述したように画像の切り出し位置を矢印145方向に変えながらSADを計算することで、図5(b)に示すような値を取得することができる。図5(b)の例では8つの切り出し位置で計算を行い、それぞれ評価点161〜評価点168で示している。ここでは、評価点165で極小値となっている。このとき、評価点165に対応する位置が、ピントが最も合っている位置である。なお、評価点161から評価点168の値やグラフの形は被写体に依存する。
FIG. 5B is a diagram illustrating a relationship between the image cut-out position and the focus evaluation value. The horizontal axis indicates the position where the image is cut out from the
このとき、カメラシステム制御回路5は、ピントが最も合っている評価点165を中心として図5(b)における一定の横幅の範囲を、ピントが合っていると判定する合焦範囲にする。合焦範囲の横幅の大きさは、許容錯乱円とFナンバーとに基づいて決定される。カメラシステム制御回路5は、許容錯乱円を出力像の利用方法などに応じて設定することができる。例えば、カメラシステム制御回路5は、許容錯乱円を表示部9やプリントの解像度など鑑賞方法に応じて適した大きさに設定したり、予めユーザ操作による許容錯乱円の入力あるいは選択に応じて大きさを設定したりすることが好ましい。本実施形態では、カメラシステム制御回路5による許容錯乱円の設定が、ピント状態を判定するための合焦閾値を設定することに対応している。すなわち、カメラシステム制御回路5は、閾値設定手段の一例に対応する。
At this time, the camera
カメラシステム制御回路5が許容錯乱円を大きく設定した場合(低解像度モニタでの鑑賞やL版などの小さいサイズでのプリントなど)は、同じFナンバーであっても図5(b)においてピントが合っていると判定する合焦範囲(の横幅)を大きくする。一方、許容錯乱円を小さく設定した場合(高解像度モニタでの鑑賞やA4版などの大きいサイズでのプリントなど)は、同じFナンバーであっても図5(b)においてピントが合っていると判定する合焦範囲(の横幅)を小さくする。
When the camera
カメラシステム制御回路5は、図5(b)のようなピント評価値を測距枠ごとに計算することができる。また、表示画像のピント位置は必ずしも全ての測距枠においてピントが合った状態ではない。例えば、図4で説明したように、距離の異なる被写体がある場合には一方にピントが合って、他方はピントが外れていることが多くある。
図5(b)の評価値と図4のような表示の関係について述べる。ここでは説明を簡単にするために、カメラシステム制御回路5は表示画像のFナンバーがF2.8とF5.6との2つの画像を生成可能であるものとして説明する。また、表示画像のピント位置に関しては、図5(b)に示すピント位置1、ピント位置2、ピント位置3の3つの場合について説明する。
表示画像のピント位置が図5(b)のピント位置1にある場合を考える。この位置ではF2.8およびF5.6のいずれの絞り値であってもピントが合っているとみなすことができる。したがって、カメラシステム制御回路5は、表示画像の設定がF2.8であってもF5.6であってもピントが合っていると判定し、合焦を示す表示をオーバーレイして表示する。
The camera
The relationship between the evaluation value in FIG. 5B and the display in FIG. 4 will be described. Here, in order to simplify the description, the camera
Consider a case where the focus position of the display image is at the focus position 1 in FIG. At this position, it can be considered that the focus is in focus at any aperture value of F2.8 and F5.6. Therefore, the camera
次に、表示画像のピント位置が図5(b)のピント位置2にある場合を考える。この位置ではF5.6ではピントが合っているとみなすことができるが、F2.8ではピントが合っているとみなすことができない。したがって、カメラシステム制御回路5は、表示画像の設定がF5.6である場合にはピントが合っていると判定し、合焦を示す表示をオーバーレイして表示する。一方、表示画像の設定がF2.8である場合にはピントが合っていないと判定し、合焦を示す表示をオーバーレイして表示しない。ただし、カメラシステム制御回路5は、図4(g)で示したように絞り値の変更によってピントが合う範囲も表示する設定の場合には、絞り値指示部121により絞り値を変更することによりピント状態が変化する範囲として表示する。
Next, consider the case where the focus position of the display image is at the
最後に、表示画像のピント位置が図5(b)のピント位置3にある場合を考える。この位置ではF2.8およびF5.6の何れの絞り値であってもピントが合っているとみなすことができない。したがって、カメラシステム制御回路5は、表示画像の設定がF2.8であっても、F5.6であってもピントが合っていないと判定し、合焦を示す表示をオーバーレイして表示しない。
上述したような処理を施すことで、図4(d)から図4(g)に示したような表示を実現することができる。
Finally, consider the case where the focus position of the display image is at the
By performing the processing as described above, the display as shown in FIG. 4D to FIG. 4G can be realized.
図6は、本実施形態に係るデジタルカメラの処理を示すフローチャートである。
ステップS101では、カメラシステム制御回路5は、処理を開始する。
ステップS102では、カメラシステム制御回路5は、操作検出部10を介してユーザ操作による割り込みを待機する。ユーザ操作があった場合にはステップS103に進み、ユーザ操作がない場合にはステップS102にて待機する。
FIG. 6 is a flowchart showing processing of the digital camera according to the present embodiment.
In step S101, the camera
In step S <b> 102, the camera
ステップS103では、カメラシステム制御回路5は、ユーザ操作が終了操作であるか否かを判定する。終了操作の場合にはステップS104に進み処理を終了する。終了操作ではない場合にはステップS105に進む。
ステップS105では、カメラシステム制御回路5は、ユーザ操作が絞りを変更する操作またはピントを変更する操作であるか否かを判定する。具体的には、カメラシステム制御回路5は、操作検出部10を介して絞り値指示部121またはフォーカス指示部120によって絞り値またはピント位置を変更する操作であるか否かを判定する。絞りまたはピントを変更する操作があった場合にはステップS106に進み、絞りまたはピントを変更する操作ではない場合には不図示のユーザ操作に応じて処理を施してステップS102に戻る。
In step S103, the camera
In step S105, the camera
ステップS106では、カメラシステム制御回路5は、合焦閾値を例えばメモリ部8から読み込む。この合焦閾値は、ステップS107においてカメラシステム制御回路5が鑑賞方法やユーザの入力などに応じて予め設定した許容錯乱円である。
ステップS108では、カメラシステム制御回路5は、現像を施して表示画像を更新する。具体的には、カメラシステム制御回路5は、ステップS105で判断した絞りまたはピントを変更する操作に応じて画像を現像して表示部9に表示する。
In step S <b> 106, the camera
In step S108, the camera
ステップS109では、カメラシステム制御回路5は、現在の測距枠(測距点)のピント状態、すなわちピントが合っているか否かを判定する。ピントが合っている場合にはステップS110に進み、ピントが合っていない場合にはステップS111に進む。ここで、カメラシステム制御回路5は、ピントが合っているか否かを、図5(b)で説明したように、表示画像のピント位置および絞り値、許容錯乱円、当該測距枠の合焦位置の情報に基づいて判定することができる。ステップS105をステップS106に進む場合にはユーザ操作によって表示画像のピント位置および絞り値が決定され、ステップS106では許容錯乱円が設定されている。したがって、ステップS109では、カメラシステム制御回路5は図5(b)において上述したようなピント評価値の計算を行い、当該測距枠の合焦位置を求めて、ピントが合っているとみなせるか否かを判定することができる。
In step S109, the camera
ステップS110では、カメラシステム制御回路5は、合焦表示を行う。具体的には、カメラシステム制御回路5は、ピントが合っていることを識別できる測距枠131を表示画像にオーバーレイして表示部9に表示する。
ステップS111では、カメラシステム制御回路5は、絞り込むことにより測距枠のピントが合うか否かを判定する。絞り込むことによりピントが合う場合にはステップS112に進み、絞り込んでもピントが合わない場合にはステップS113に進む。ここで、カメラシステム制御回路5は、絞り込むことにより測距枠のピントが合うか否かを、図5(b)で説明したように、表示画像のピント位置および絞り値、許容錯乱円、当該測距枠の合焦位置の情報に基づいて判定することができる。例えば、図5(b)に示すように、表示画像のピント位置が“ピント位置2”であって、現在の表示画像の設定がF2.8である場合には、評価点163はピントが合っていると判定されない。しかし、絞り込むことによりピントが合っていると判定する合焦範囲が広がることにより、評価点163はピントが合っていると判定される。このように、カメラシステム制御回路5は、ユーザによる絞り値を変更する操作によってピントが合うか否かを判定する。
In step S110, the camera
In step S111, the camera
ステップS112では、カメラシステム制御回路5は、絞り込みことで合焦することが識別できる表示(絞り込み合焦表示)を行う。具体的には、カメラシステム制御回路5は、絞り込むことによりピントが合うことを識別できる測距枠132を表示画像にオーバーレイして表示部9に表示する。
ステップS113では、カメラシステム制御回路5は、全ての測距枠についてステップS109〜ステップS112までの処理を行ったか否かを判定する。全ての測距枠について処理が完了した場合にはステップS102に戻り、カメラシステム制御回路5はユーザ操作を待機する。完了していない場合にはステップS109に戻り、カメラシステム制御回路5は、次の測距枠について着目し、全ての測距枠について処理が完了するまで繰り返す。
In step S112, the camera
In step S113, the camera
このように本実施形態によれば、撮影後のフォーカスおよび絞りの変更に応じて生成された画像に、ピント状態を示す表示をオーバーレイして表示することにより、ユーザはピントが合っている範囲を直感的に容易に把握することができる。 As described above, according to the present embodiment, by displaying the focus state on the image generated in accordance with the change of the focus and the aperture after shooting, the user can select the range in focus. Intuitively and easily grasped.
なお、本実施形態では、図6のフローチャートでは絞り込むことによりピントが合うことを識別できる測距枠132を表示する場合について説明したが、この場合に限られない。例えば、現在ピントが合っている範囲のみを表示する場合には、ステップS111とステップS112とを省略し、ステップS109において“N”の場合にはステップS113に進むようにすればよい。
In the present embodiment, the case where the
以上、本発明を種々の実施形態と共に説明したが、本発明はこれらの実施形態にのみ限定されるものではなく、本発明の範囲内で変更などが可能である。
また、上述した実施形態では、本発明をデジタルカメラに適用した場合を例にして説明したが、この場合に限定されず、再生装置にも用いることができる。
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するプログラムを、ネットワークまたは各種記憶媒体を介してデジタルカメラに供給し、デジタルカメラのコンピュータ(カメラシステム制御回路5など)がプログラムを読み出して実行する処理である。
As mentioned above, although this invention was demonstrated with various embodiment, this invention is not limited only to these embodiment, A change etc. are possible within the scope of the present invention.
In the above-described embodiment, the case where the present invention is applied to a digital camera has been described as an example. However, the present invention is not limited to this case, and the present invention can also be used for a playback apparatus.
The present invention can also be realized by executing the following processing. That is, this is a process in which a program that realizes the functions of the above-described embodiments is supplied to a digital camera via a network or various storage media, and a digital camera computer (camera
1:カメラ本体 2:レンズユニット 5:カメラシステム制御回路 6:撮像素子 9:表示部 18:マイクロレンズアレイ(MLA) 20:マイクロレンズ 110:被写体 111:被写体 120:フォーカス指示部 121:絞り値指示部 130〜132:測距枠 1: Camera body 2: Lens unit 5: Camera system control circuit 6: Image sensor 9: Display unit 18: Micro lens array (MLA) 20: Micro lens 110: Subject 111: Subject 120: Focus instruction unit 121: Aperture value instruction Parts 130-132: Distance measurement frame
Claims (20)
仮想的なピント位置を含む、画像のピント位置を指示するフォーカス指示手段と、
前記ライトフィールド情報から、前記フォーカス指示手段により指示されたピント位置にしたがって画像を生成する生成手段と、
前記生成手段により生成された画像とともに、ピント状態を示す表示を表示する表示手段と、
を有することを特徴とする再生装置。 A playback device that generates and displays an image from light field information,
Focus instruction means for instructing a focus position of an image including a virtual focus position;
Generating means for generating an image from the light field information according to a focus position instructed by the focus instruction means;
Display means for displaying a display indicating a focus state together with the image generated by the generating means;
A playback apparatus comprising:
前記生成手段は、前記ライトフィールド情報から、前記フォーカス指示手段により指示されたピント位置および前記絞り指示手段により指示された絞り設定にしたがって画像を生成することを特徴とする請求項1に記載の再生装置。 Including an aperture instruction means for instructing aperture setting of an image, including a virtual aperture,
2. The reproduction according to claim 1, wherein the generation unit generates an image from the light field information according to a focus position instructed by the focus instruction unit and an aperture setting instructed by the aperture instruction unit. apparatus.
請求項1乃至12のいずれか1項に記載の再生装置と、
を有することを特徴とする撮像装置。 Imaging means;
The playback device according to any one of claims 1 to 12,
An imaging device comprising:
前記フォーカス指示手段は、前記リング部材の回転を検出することで画像のピント位置を指示することを特徴とする請求項13または14に記載の撮像装置。 A ring member rotatable along the outer periphery of a lens barrel including an imaging optical system for guiding a light beam to the imaging means;
The imaging apparatus according to claim 13 or 14, wherein the focus instruction unit instructs a focus position of an image by detecting rotation of the ring member.
仮想的なピント位置を含む、画像のピント位置を指示するフォーカス指示ステップと、
前記ライトフィールド情報から、前記フォーカス指示ステップにより指示されたピント位置にしたがって画像を生成する生成ステップと、
前記生成ステップにより生成された画像とともに、ピント状態を示す表示を表示する表示ステップと、
を有することを特徴とする再生装置の制御方法。 A control method of a playback device that generates and displays an image from light field information,
A focus instruction step for indicating a focus position of an image including a virtual focus position;
A generation step for generating an image from the light field information according to the focus position instructed by the focus instruction step;
A display step for displaying a display indicating a focus state together with the image generated by the generation step;
A control method for a playback apparatus, comprising:
仮想的な絞りを含む、画像の絞り設定を指示する絞り指示手段と、
仮想的なピント位置を含む、画像のピント位置を指示するフォーカス指示手段と、
前記ライトフィールド情報から、前記フォーカス指示手段により指示されたピント位置および前記絞り指示手段により指示された絞り設定にしたがって画像を生成する生成手段と、
前記生成手段により生成された画像とともに、ピント状態を示す表示を表示する表示手段と、
を有することを特徴とする再生装置。 A playback device that generates and displays an image from light field information,
A diaphragm instruction means for instructing an image aperture setting including a virtual diaphragm,
Focus instruction means for instructing a focus position of an image including a virtual focus position;
Generating means for generating an image from the light field information in accordance with a focus position instructed by the focus instruction means and an aperture setting instructed by the aperture instruction means;
Display means for displaying a display indicating a focus state together with the image generated by the generating means;
A playback apparatus comprising:
仮想的な絞りを含む、画像の絞り設定を指示する絞り指示ステップと、
仮想的なピント位置を含む、画像のピント位置を指示するフォーカス指示ステップと、
前記ライトフィールド情報から、前記フォーカス指示ステップにより指示されたピント位置および前記絞り指示ステップにて指示された絞り設定にしたがって画像を生成する生成ステップと、
前記生成ステップにより生成された画像とともに、ピント状態を示す表示を表示する表示ステップと、
を有することを特徴とする再生装置の制御方法。 A control method of a playback device that generates and displays an image from light field information,
An aperture instruction step for instructing aperture setting of an image including a virtual aperture,
A focus instruction step for indicating a focus position of an image including a virtual focus position;
A generation step for generating an image from the light field information according to the focus position instructed in the focus instruction step and the aperture setting instructed in the aperture instruction step;
A display step for displaying a display indicating a focus state together with the image generated by the generation step;
A control method for a playback apparatus, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017112544A JP6400152B2 (en) | 2017-06-07 | 2017-06-07 | REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017112544A JP6400152B2 (en) | 2017-06-07 | 2017-06-07 | REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013187556A Division JP6157290B2 (en) | 2013-09-10 | 2013-09-10 | REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017161941A true JP2017161941A (en) | 2017-09-14 |
JP6400152B2 JP6400152B2 (en) | 2018-10-03 |
Family
ID=59857886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017112544A Active JP6400152B2 (en) | 2017-06-07 | 2017-06-07 | REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6400152B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020064208A (en) * | 2018-10-18 | 2020-04-23 | キヤノン株式会社 | Imaging apparatus and control method thereof |
JP2020166199A (en) * | 2019-03-29 | 2020-10-08 | キヤノン株式会社 | Electronic apparatus and method of controlling the same |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004289383A (en) * | 2003-03-20 | 2004-10-14 | Seiko Epson Corp | Image pickup device, image data generating device, image data processor, and image data processing program |
JP2010177741A (en) * | 2009-01-27 | 2010-08-12 | Olympus Corp | Image capturing apparatus |
JP2011022796A (en) * | 2009-07-15 | 2011-02-03 | Canon Inc | Image processing method and image processor |
JP2013009274A (en) * | 2011-06-27 | 2013-01-10 | Canon Inc | Image processing device, image processing method, and program |
JP2013110556A (en) * | 2011-11-21 | 2013-06-06 | Olympus Corp | Prenoptic camera |
-
2017
- 2017-06-07 JP JP2017112544A patent/JP6400152B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004289383A (en) * | 2003-03-20 | 2004-10-14 | Seiko Epson Corp | Image pickup device, image data generating device, image data processor, and image data processing program |
JP2010177741A (en) * | 2009-01-27 | 2010-08-12 | Olympus Corp | Image capturing apparatus |
JP2011022796A (en) * | 2009-07-15 | 2011-02-03 | Canon Inc | Image processing method and image processor |
JP2013009274A (en) * | 2011-06-27 | 2013-01-10 | Canon Inc | Image processing device, image processing method, and program |
JP2013110556A (en) * | 2011-11-21 | 2013-06-06 | Olympus Corp | Prenoptic camera |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020064208A (en) * | 2018-10-18 | 2020-04-23 | キヤノン株式会社 | Imaging apparatus and control method thereof |
JP7175704B2 (en) | 2018-10-18 | 2022-11-21 | キヤノン株式会社 | Imaging device and its control method |
JP2020166199A (en) * | 2019-03-29 | 2020-10-08 | キヤノン株式会社 | Electronic apparatus and method of controlling the same |
JP7225004B2 (en) | 2019-03-29 | 2023-02-20 | キヤノン株式会社 | Electronic device and its control method |
Also Published As
Publication number | Publication date |
---|---|
JP6400152B2 (en) | 2018-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009115893A (en) | Image-pickup apparatus | |
JP6202910B2 (en) | Video processing apparatus, control method therefor, and program | |
JP5914192B2 (en) | Imaging apparatus and control method thereof | |
US9554054B2 (en) | Imaging apparatus and its control method and program | |
JP2014153890A (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP5784395B2 (en) | Imaging device | |
JP6525809B2 (en) | Focus detection apparatus and control method thereof | |
JP2016001853A (en) | Image processing system, imaging device, control method, and program | |
JP6400152B2 (en) | REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD | |
JP6157290B2 (en) | REPRODUCTION DEVICE, REPRODUCTION DEVICE CONTROL METHOD, AND PROGRAM | |
JP6198395B2 (en) | Imaging apparatus and control method thereof | |
JP7307592B2 (en) | Measuring device, imaging device, control method and program | |
JP6346484B2 (en) | Image processing apparatus and control method thereof | |
JP2014154981A (en) | Imaging apparatus and control method therefor | |
US20160156867A1 (en) | Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method of image capturing apparatus | |
US20190281225A1 (en) | Focus detection device and focus detection method | |
JP6381206B2 (en) | Image processing apparatus, control method thereof, and program | |
JP6257260B2 (en) | Imaging apparatus and control method thereof | |
JP6005246B2 (en) | Imaging apparatus, histogram display method, program, and image processing apparatus | |
JP2016148732A (en) | Imaging device and image display method, program, and program storage medium | |
JP2015084518A (en) | Image processing apparatus, image processing method, program and recording medium | |
JP6016567B2 (en) | Correlation calculation device, imaging device, correlation calculation method, program, and storage medium | |
JP6336284B2 (en) | Image processing apparatus, control method thereof, and program | |
JP6257201B2 (en) | FOCUS DETECTION DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND IMAGING DEVICE | |
JP6336316B2 (en) | Imaging apparatus, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180723 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180807 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180904 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6400152 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |