JP2015080168A - Image-capturing device, control method therefor, and control program - Google Patents

Image-capturing device, control method therefor, and control program Download PDF

Info

Publication number
JP2015080168A
JP2015080168A JP2013217690A JP2013217690A JP2015080168A JP 2015080168 A JP2015080168 A JP 2015080168A JP 2013217690 A JP2013217690 A JP 2013217690A JP 2013217690 A JP2013217690 A JP 2013217690A JP 2015080168 A JP2015080168 A JP 2015080168A
Authority
JP
Japan
Prior art keywords
image
subject
detected
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013217690A
Other languages
Japanese (ja)
Other versions
JP2015080168A5 (en
JP6202982B2 (en
Inventor
武範 小布施
Takenori Obuse
武範 小布施
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013217690A priority Critical patent/JP6202982B2/en
Publication of JP2015080168A publication Critical patent/JP2015080168A/en
Publication of JP2015080168A5 publication Critical patent/JP2015080168A5/en
Application granted granted Critical
Publication of JP6202982B2 publication Critical patent/JP6202982B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a user to recognize a subject with high accuracy in an image-capturing device for acquiring a light field.SOLUTION: An image-capturing device comprises a plurality of image-capturing lenses 101 and a plurality of image-capturing elements 102 in each of which an optical image is formed via the plurality of image-capturing elements. The optical image is formed in the plurality of image-capturing elements by the image-capturing lenses while differentiating a focal distance from each other, and an image corresponding to the optical image is obtained from each of the image-capturing elements and light-field data is obtained also. A video analysis unit 111 detects, under control of a system control unit 108, a subject in the image obtained from the image-capturing elements. When the subject is detected, a video selection unit 112 outputs an image that is largest in subject size among the images in which the subjects are detected under control of a system control unit, to a display unit via a light-field image processing unit 105.

Description

本発明は、デジタル一眼レフカメラ、デジタルスチルカメラ、又はデジタルビデオカメラなどの撮像装置、その制御方法、および制御プログラムに関する。   The present invention relates to an imaging apparatus such as a digital single-lens reflex camera, a digital still camera, or a digital video camera, a control method thereof, and a control program.

近年、コンピュテーショナルフォトグラフィ(Computational Photography)が搭載された撮像装置が開発されている。このコンピュテーショナルフォトグラフィでは、画像の輝度および色に関するデータ(つまり、画像データ)の他に、撮像素子から他の情報(他のデータ)を取り込んで、当該他のデータを画像データとともに保存して、画像処理LSIで様々な処理を行う。   2. Description of the Related Art In recent years, imaging devices equipped with computational photography (Computational Photography) have been developed. In this computational photography, in addition to data relating to brightness and color of an image (that is, image data), other information (other data) is taken from the image sensor, and the other data is stored together with the image data. Various processes are performed by the image processing LSI.

上述の他のデータとして、例えば、被写体からの光の入射角度に関するデータおよび奥行きに関するデータがある。そして、これら他のデータを用いて、被写体を撮像した際に一意に決定されたフォーカス、アイリスによる被写界深度、および焦点距離などを画像処理で正確に再現している。   As other data described above, for example, there are data related to the incident angle of light from the subject and data related to depth. Then, using these other data, the focus, the depth of field by the iris, the focal distance, and the like that are uniquely determined when the subject is imaged are accurately reproduced by image processing.

なお、この他のデータは、一般に被写体のライトフィールドと呼ばれる光線情報であり、この光線情報を用いれば、従来の撮像装置では実現できなかった機能を有する撮像装置を得ることができ、例えば、上記の光線情報を用いて、撮像の結果得られた画像データについて画像処理によってフォーカス位置を変更できることができる。   The other data is light ray information generally called a light field of a subject. Using this light ray information, an imaging device having a function that cannot be realized by a conventional imaging device can be obtained. Using this ray information, the focus position can be changed by image processing for image data obtained as a result of imaging.

ここで、ライトフィールド(光線情報)を取得する一例として多視点で画像データを得る場合について概説する。   Here, an outline of obtaining image data from multiple viewpoints as an example of acquiring a light field (light ray information) will be described.

いま、1台の撮像装置を用いて焦点距離を変更して複数の画像データを取得する。そして、これら画像データを合成して1枚の画像データとすると、当該画像データに含まれるライトフィールドを用いて、画像処理によって画像データにおける焦点距離を変更することができる。   Now, a plurality of image data are acquired by changing the focal length using a single imaging device. When these image data are combined into one image data, the focal length in the image data can be changed by image processing using the light field included in the image data.

さらに、撮像装置を水平又は垂直に移動させつつ、複数枚の画像データを取得すれば、これら画像データにおける視差に応じて被写体の距離を示す距離情報を得ることができる。   Furthermore, if a plurality of pieces of image data are acquired while moving the imaging apparatus horizontally or vertically, distance information indicating the distance of the subject can be obtained according to the parallax in these image data.

上述の手法では、一台の撮像装置(つまり、撮像素子)を用いているので、動的な被写体に対してライトフィールドを有効に取得することができないというデメリットがある。   The above-described method has a demerit that a light field cannot be effectively acquired for a dynamic subject because a single imaging device (that is, an imaging device) is used.

このようなデメリットを補いつつ、多視点で画像を取得するため、撮像素子又は撮像装置そのものを複数用いることが行われている(特許文献1参照)。ここでは、撮像素子又は撮像装置をアレイ状に複数配置して、撮像の結果得られる複数の画像データについて同時性を付与して、ライトフィールドに係る情報量を増やして、動的な被写体についてもライトフィールドを有効に取得するようにしている。   In order to acquire images from multiple viewpoints while compensating for such disadvantages, a plurality of imaging elements or imaging devices themselves are used (see Patent Document 1). Here, a plurality of imaging elements or imaging devices are arranged in an array, and a plurality of pieces of image data obtained as a result of imaging are given simultaneity to increase the amount of information related to the light field. The light field is acquired effectively.

特開2008−257686号公報JP 2008-257686A

ところが、特許文献1に記載の手法では、複数の撮像素子又は撮像装置が必要となる結果、不可避的に消費電力が増大するばかりでなく、撮像装置又は撮像システムそのものが大型化してしまう。   However, the technique described in Patent Document 1 requires a plurality of imaging elements or imaging devices. As a result, power consumption inevitably increases, and the imaging device or imaging system itself increases in size.

加えて、ライトフィールドを取得する撮像装置においては、ユーザに対してどのような画像を表示すればよいかという問題がある。例えば、従来の撮像装置では、特定の人物の動きを記録するため当該人物を追尾したい場合には、その人物を検出(顔などを検出)して、ユーザがその被写体を追尾しやすい位置にズームを行っている。   In addition, the imaging device that acquires the light field has a problem of what kind of image should be displayed to the user. For example, in a conventional imaging apparatus, when a person is desired to be tracked in order to record the movement of a specific person, the person is detected (a face or the like is detected) and zoomed to a position where the user can easily track the subject. It is carried out.

一方、ライトフィールドを取得する撮像装置では、画像処理によってズーム位置、フォーカス位置、および被写界深度が変更されるので、どのような画像を出力(つまり、表示)すればユーザの意図する画像となるか分からないという問題がある。   On the other hand, in an imaging device that acquires a light field, the zoom position, focus position, and depth of field are changed by image processing, so what kind of image is output (that is, displayed) There is a problem of not knowing.

このように、ライトフィールドを取得する撮像装置においては、ユーザがどのような画画像を得たいか、つまり、ユーザが認識する主被写体を判定して画像を出力する必要がある。   As described above, in an imaging apparatus that acquires a light field, it is necessary to determine what image the user wants to obtain, that is, determine the main subject recognized by the user and output the image.

従って、本発明の目的は、撮影の際にライトフィールドを取得する撮像装置において、ユーザが被写体を精度よく認識することのできる撮像装置、その制御方法、および制御プログラムを提供することにある。   Accordingly, an object of the present invention is to provide an imaging apparatus that allows a user to accurately recognize a subject, a control method thereof, and a control program in an imaging apparatus that acquires a light field at the time of shooting.

上記の目的を達成するため、本発明による撮像装置は、複数の撮像レンズと、当該複数の撮像レンズを介してそれぞれ光学像が結像される複数の撮像素子とを備え、前記撮像レンズによって前記複数の撮像素子に互いに焦点距離を異ならせて前記光学像を結像して、前記撮像素子の各々から前記光学像に応じた画像を得るとともにライトフィールドデータを得る撮像装置であって、前記撮像素子から得られる画像において被写体を検出する検出手段と、前記検出手段によって前記被写体が検出されると、前記被写体が検出された画像のうち前記被写体が最も大きい画像を表示部に表示する表示制御手段と、を有することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention includes a plurality of imaging lenses and a plurality of imaging elements on which optical images are formed through the plurality of imaging lenses, An image pickup apparatus that forms optical images on a plurality of image pickup devices at different focal lengths, obtains an image corresponding to the optical image from each of the image pickup devices, and obtains light field data. Detection means for detecting a subject in an image obtained from the element, and display control means for displaying, on the display unit, an image having the largest subject among the images in which the subject is detected when the detection means detects the subject. It is characterized by having.

本発明による制御方法は、複数の撮像レンズと、当該複数の撮像レンズを介してそれぞれ光学像が結像される複数の撮像素子とを備え、前記撮像レンズによって前記複数の撮像素子に互いに焦点距離を異ならせて前記光学像を結像して、前記撮像素子の各々から前記光学像に応じた画像を得るとともにライトフィールドデータを得る撮像装置の制御方法であって、前記撮像素子から得られる画像において被写体を検出する検出ステップと、前記検出ステップで前記被写体が検出されると、前記被写体が検出された画像のうち前記被写体が最も大きい画像を表示部に表示する表示制御ステップと、を有することを特徴とする。   The control method according to the present invention includes a plurality of imaging lenses and a plurality of imaging elements on which optical images are formed via the plurality of imaging lenses, respectively, and the plurality of imaging elements are focal lengths to each other by the imaging lens. The optical image is formed with different values to obtain an image corresponding to the optical image from each of the imaging elements and to obtain light field data. And a display control step for displaying an image having the largest subject among the images in which the subject is detected when the subject is detected in the detection step. It is characterized by.

本発明による制御プログラムは、複数の撮像レンズと、当該複数の撮像レンズを介してそれぞれ光学像が結像される複数の撮像素子とを備え、前記撮像レンズによって前記複数の撮像素子に互いに焦点距離を異ならせて前記光学像を結像して、前記撮像素子の各々から前記光学像に応じた画像を得るとともにライトフィールドデータを得る撮像装置で用いられる制御プログラムであって、前記撮像装置が備えるコンピュータに、前記撮像素子から得られる画像において被写体を検出する検出ステップと、前記検出ステップで前記被写体が検出されると、前記被写体が検出された画像のうち前記被写体が最も大きい画像を表示部に表示する表示制御ステップと、を実行させることを特徴とする。   A control program according to the present invention includes a plurality of imaging lenses and a plurality of imaging elements on which optical images are formed through the plurality of imaging lenses, respectively, and the plurality of imaging elements are focal lengths to each other by the imaging lens. A control program used in an imaging apparatus that forms the optical image by differentiating to obtain an image corresponding to the optical image from each of the imaging elements and obtains light field data. A detection step for detecting a subject in an image obtained from the image sensor on a computer, and when the subject is detected in the detection step, an image having the largest subject among the images in which the subject is detected is displayed on a display unit. And a display control step for displaying.

本発明によれば、画像において被写体が検出されると、被写体が検出された画像のうち被写体が最も大きい画像を表示部に表示するようにしたので、ユーザは被写体を良好に認識することができる。その結果、ユーザは容易に被写体の撮影を行うことができる。   According to the present invention, when the subject is detected in the image, the image having the largest subject among the images in which the subject is detected is displayed on the display unit, so that the user can recognize the subject satisfactorily. . As a result, the user can easily photograph the subject.

本発明の第1の実施形態による撮像装置の一例についてその外観を説明するための図であり、(a)は外観を示す斜視図、(b)は撮影レンズ部を正面から示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure for demonstrating the external appearance about an example of the imaging device by the 1st Embodiment of this invention, (a) is a perspective view which shows an external appearance, (b) is a figure which shows a photographic lens part from the front. 図1に示すカメラを説明するためのブロック図であり、(a)はその構成を示すブロック図、(b)は(a)に示す画像処理LSIの構成を示すブロック図である。FIG. 2 is a block diagram for explaining the camera shown in FIG. 1, (a) is a block diagram showing the configuration thereof, and (b) is a block diagram showing a configuration of the image processing LSI shown in (a). 図2に示すカメラにおける表示処理を説明するためのフローチャートである。3 is a flowchart for explaining display processing in the camera shown in FIG. 2. 本発明の第2の実施形態によるカメラにおける表示処理を説明するためのフローチャートである。It is a flowchart for demonstrating the display process in the camera by the 2nd Embodiment of this invention.

以下、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による撮像装置の一例についてその外観を説明するための図である。そして、図1(a)は外観を示す斜視図であり、図1(b)は撮影レンズ部を正面から示す図である。
[First Embodiment]
FIG. 1 is a diagram for explaining the appearance of an example of an imaging apparatus according to the first embodiment of the present invention. FIG. 1A is a perspective view showing the appearance, and FIG. 1B is a view showing the photographing lens unit from the front.

図示の撮像装置100は、所謂ビデオカメラ(以下単にカメラと呼ぶ)であり、カメラ100は、カメラ筐体201の前面には撮像レンズ部202が配置されている。この撮影レンズ部202には、例えば、16個の開口部が形成されており、これら開口部の各々には撮影レンズユニット(以下単に撮影レンズと呼ぶ)203が配置されている。そして、撮影レンズの後段には撮像センサ(図示せず)は配置され、この撮像センサは、撮影レンズに対応する撮像素子を有している。   The illustrated imaging apparatus 100 is a so-called video camera (hereinafter simply referred to as a camera), and the camera 100 has an imaging lens unit 202 disposed on the front surface of a camera housing 201. For example, sixteen openings are formed in the photographing lens unit 202, and a photographing lens unit (hereinafter simply referred to as a photographing lens) 203 is disposed in each of the openings. An imaging sensor (not shown) is disposed at the rear stage of the photographic lens, and this imaging sensor has an imaging element corresponding to the photographic lens.

なお、図示のように、カメラ筐体201の側面には、表示部109が開閉可能に配置されている。また、図示の例では、カメラ筐体201に配置された記録ボタン(つまり、シャッタボタンおよび電源スイッチなどを省略されている。   As shown in the figure, a display unit 109 is disposed on the side surface of the camera housing 201 so as to be opened and closed. Further, in the illustrated example, a recording button (that is, a shutter button, a power switch, etc.) arranged on the camera housing 201 is omitted.

図示はしないが、撮像素子の各々において、その受光面(撮像面ともいう)には、複数のマイクロレンズから構成されるマイクロレンズアレイが配置されている。このマイクロレンズアレイによって撮像素子の受光面における光の強度分布に加えて、その光の進行方向に係る情報(つまり、ライトフィールドデータ)を得る。そして、図示のカメラでは、撮像の後、ライトフィールドデータによって、任意の視点又は任意の焦点に設定された画像を再構築する。   Although not shown, in each of the imaging elements, a microlens array including a plurality of microlenses is disposed on a light receiving surface (also referred to as an imaging surface). In addition to the light intensity distribution on the light receiving surface of the image sensor, information related to the traveling direction of the light (that is, light field data) is obtained by the microlens array. In the illustrated camera, after imaging, an image set at an arbitrary viewpoint or an arbitrary focus is reconstructed by light field data.

前述の複数の撮像素子は同一の平面上にアレイ状(つまり、2次元マトリックス状)に配列されており、その個数はライトフィールドデータを得るために必要な個数であって、図示の例では、16個の撮像素子が同一平面上に配列されている。   The plurality of image sensors described above are arranged in an array (that is, a two-dimensional matrix) on the same plane, and the number thereof is a number necessary for obtaining light field data. Sixteen image sensors are arranged on the same plane.

図1(b)に示すように、16個の撮像素子は4つのグループ”1”〜”4”に分けられており、撮像レンズ203による焦点距離がグループ毎に制御される。図示の例では、グループ”1”の焦点距離は”A”、グループ”2”の焦点距離は”B”、グループ”2”の焦点距離は”C”、グループ”4”の焦点距離は”D”とされる。そして、焦点距離Aはワイド(Wide)側となり、焦点距離Dはテレ(Tele)側となる。   As shown in FIG. 1B, the 16 imaging elements are divided into four groups “1” to “4”, and the focal length by the imaging lens 203 is controlled for each group. In the illustrated example, the focal length of the group “1” is “A”, the focal length of the group “2” is “B”, the focal length of the group “2” is “C”, and the focal length of the group “4” is “ D ". The focal length A is on the wide side, and the focal length D is on the tele side.

このようにして、グループ毎に焦点距離を変えて、複数の画角で画像データを得れば、後述するライトフィールド画像処理部によって任意の焦点距離の画像データを得ることができる。さらに、同一の焦点距離である撮像素子が複数(図示の例では4刃をつ)存在するので、光の視差を用いて、被写体の距離を示す距離情報を得ることができる。そして、当該距離情報を用いれば、ピント位置および背景のぼかしの調整を行って、画像データにおける被写界深度を制御することができる。   In this way, if the focal length is changed for each group and image data is obtained at a plurality of angles of view, image data with an arbitrary focal length can be obtained by a light field image processing unit described later. Furthermore, since there are a plurality of imaging elements having the same focal length (four blades in the illustrated example), distance information indicating the distance of the subject can be obtained using the parallax of light. If the distance information is used, the depth of field in the image data can be controlled by adjusting the focus position and background blur.

図2は、図1に示すカメラを説明するためのブロック図である。そして、図2(a)は、その構成を示すブロック図であり、図2(b)は図2(a)に示す画像処理LSIの構成を示すブロック図である。   FIG. 2 is a block diagram for explaining the camera shown in FIG. FIG. 2A is a block diagram showing the configuration, and FIG. 2B is a block diagram showing the configuration of the image processing LSI shown in FIG.

図2(a)においては、図2(a)に示す撮像レンズ部202が光学系101で示されており、光学系101は被写体からの光(つまり、光学像)を撮像素子102の受光面に結像する。この光学系101(つまり、各撮像レンズ)には、例えば、ピント位置を調整するためのフォーカスレンズ、入射光を制御するアイリス部、および焦点距離を変更するためのズームレンズ部が備えられている。   In FIG. 2A, the imaging lens unit 202 shown in FIG. 2A is shown by an optical system 101, and the optical system 101 receives light from an object (that is, an optical image) and a light receiving surface of the imaging element 102. To form an image. The optical system 101 (that is, each imaging lens) includes, for example, a focus lens for adjusting the focus position, an iris unit for controlling incident light, and a zoom lens unit for changing the focal length. .

前述のように、複数の撮像素子102は所謂ライトフィールドデータを取得するため平面上にアレイ状に配列されており、撮像素子102の各々は光学像に応じた電気信号(アナログ信号)を出力する。撮像素子102の出力であるアナログ信号は画像処理LSI103に与えられる。   As described above, the plurality of image sensors 102 are arranged in an array on a plane to acquire so-called light field data, and each of the image sensors 102 outputs an electrical signal (analog signal) corresponding to the optical image. . An analog signal that is an output of the image sensor 102 is given to the image processing LSI 103.

なお、撮像素子102として、例えば、CCDイメージセンサー(Charge Coupled Device)又はCMOSイメージセンサーが用いられる。   As the image sensor 102, for example, a CCD image sensor (Charge Coupled Device) or a CMOS image sensor is used.

また、上述の例では、撮像素子102は画像信号としてアナログ信号を出力としたが、撮像素子102においてA/D変換処理を行って、LVDS(Low voltage differential signaling)などのデジタル信号を出力するようにしてもよい。   In the above example, the image sensor 102 outputs an analog signal as an image signal. However, the image sensor 102 performs an A / D conversion process and outputs a digital signal such as LVDS (Low voltage differential signaling). It may be.

図示はしないが、画像処理LSI103は、アナログフロントインド部および画像処理ブロックを備えており、アナログフロントエンド部は撮像素子102の出力であるアナログ信号をデジタル信号に変換する。そして、画像処理ブロックは当該デジタル信号に対して各種の画像処理を行って画像データを生成する。   Although not shown, the image processing LSI 103 includes an analog front window unit and an image processing block. The analog front end unit converts an analog signal output from the image sensor 102 into a digital signal. Then, the image processing block performs various kinds of image processing on the digital signal to generate image data.

なお、撮像素子102においてA/D変換処理が行われる場合には、アナログフロントエンド部は省略される。   Note that when the A / D conversion process is performed in the image sensor 102, the analog front end unit is omitted.

画像処理ブロックは、画像処理として所謂画素加算処理、ノイズリダクション処理、ガンマ補正処理、ニー処理、およびデジタルゲイン処理などを行うとともに、キズ補正処理を行う。なお、撮像素子102がCMOSイメージセンサーである場合には、画像処理ブロックはCMOSイメージセンサー特有の固定パターンノイズの除去および黒レベルクランプ処理などを行う。また、画像処理LSI103には、画像処理などに必要な設定値を記憶する記憶回路(図示せず)を備えている。   The image processing block performs so-called pixel addition processing, noise reduction processing, gamma correction processing, knee processing, digital gain processing, and the like as image processing, and also performs scratch correction processing. If the image sensor 102 is a CMOS image sensor, the image processing block performs removal of fixed pattern noise unique to the CMOS image sensor, black level clamping processing, and the like. In addition, the image processing LSI 103 includes a storage circuit (not shown) that stores setting values necessary for image processing and the like.

画像処理LSIの出力である画像データの全てが信号記録部104に記録され、さらに、後述するように、画像処理LSIの出力である画像データの1つがライトフィールド画像処理部105に与えられる。この信号記録部104には上述のライトフィールドデータも記録される。   All of the image data that is the output of the image processing LSI is recorded in the signal recording unit 104, and one of the image data that is the output of the image processing LSI is given to the light field image processing unit 105 as will be described later. The signal recording unit 104 also records the above-described light field data.

なお、信号記録部104として、例えば、HDD(ハードディスクドライブ)、SDメモリーカード、又はコンパクトフラッシュ(登録商標)メモリーカードが用いられる。   As the signal recording unit 104, for example, an HDD (Hard Disk Drive), an SD memory card, or a Compact Flash (registered trademark) memory card is used.

ライトフィールド画像処理部105は、システム制御部108の制御下で、画像データに付加されたライトフィールドデータに応じて、画像データに後述する画像処理を施してライトフィールド画像データとして出力する。そして、このライトフィード画像データは表示部109に送られる。   Under the control of the system control unit 108, the light field image processing unit 105 performs image processing, which will be described later, on the image data in accordance with the light field data added to the image data, and outputs it as light field image data. The light feed image data is sent to the display unit 109.

例えば、ライトフィールド画像処理部105はライトフィールドデータに応じて、画像データに対して光学系のピント位置、ズーム位置、および被写界深度調整など画像処理を行う。   For example, the light field image processing unit 105 performs image processing such as adjustment of the focus position, zoom position, and depth of field of the optical system on the image data in accordance with the light field data.

フォーカス制御部106は、システム制御部108の制御下で、光学系101に備えられたフォーカス機構(つまり、フォーカスレンズ)を制御してピント位置を調節する。   The focus control unit 106 adjusts the focus position by controlling a focus mechanism (that is, a focus lens) provided in the optical system 101 under the control of the system control unit 108.

撮像素子制御部107は、システム制御部107の制御下で各撮像素子102の制御を行う。例えば、撮像素子制御部107は、システム制御部108の制御下で撮像素子102の露光時間を決定して撮像素子102を駆動制御する。   The image sensor control unit 107 controls each image sensor 102 under the control of the system control unit 107. For example, the image sensor control unit 107 determines the exposure time of the image sensor 102 under the control of the system control unit 108 and drives and controls the image sensor 102.

システム制御部108は、カメラ全体の制御を司り、例えば、画像処理LSI103から露出情報を受けて、当該露出情報に応じてカメラの露出を制御する。この際には、システム制御部108は露出情報に応じてフォーカス制御部106および撮像素子制御部107を制御して、前述のように、フォーカスレンズを駆動制御するとともに、撮像素子102を駆動する。   The system control unit 108 controls the entire camera, for example, receives exposure information from the image processing LSI 103 and controls the exposure of the camera according to the exposure information. At this time, the system control unit 108 controls the focus control unit 106 and the image sensor control unit 107 in accordance with the exposure information to drive and control the focus lens and drive the image sensor 102 as described above.

表示部109には、カメラによって得られた画像データに応じた画像が表示される。この表示部109は、例えば、外部のモニター、カメラに付属する液晶モニター、又はビューファインダーである。   The display unit 109 displays an image corresponding to the image data obtained by the camera. The display unit 109 is, for example, an external monitor, a liquid crystal monitor attached to the camera, or a viewfinder.

図2(b)に示すように、画像処理LSI103は、複数の映像解析部111および映像選択部112を有しており、映像解析部111の出力は信号記録部104に接続されるとともに映像選択部112に接続されている。そして、映像選択部112の出力はライトフィールド画像処理部105に与えられる。なお、映像解析部111はそれぞれ撮像素子102に対応している。   As shown in FIG. 2B, the image processing LSI 103 includes a plurality of video analysis units 111 and a video selection unit 112, and the output of the video analysis unit 111 is connected to the signal recording unit 104 and the video selection unit. Connected to the unit 112. The output of the video selection unit 112 is given to the light field image processing unit 105. Note that each of the video analysis units 111 corresponds to the image sensor 102.

画像処理LSI103には、複数の撮像素子102の出力である画像信号が入力される。そして、映像解析部103の出力である画像データの全てが信号記録部104に記録される。   The image processing LSI 103 receives image signals that are outputs of the plurality of image sensors 102. All of the image data output from the video analysis unit 103 is recorded in the signal recording unit 104.

映像解析部111の各々は、画像信号(つまり、デジタル信号)が示す画像を解析して主被写体(ここでは、例えば、顔)を検出する。そして、映像解析部111の各々はその解析結果(つまり、主被写体検出結果)をシステム制御部108に送る。   Each of the video analysis units 111 analyzes an image indicated by an image signal (that is, a digital signal) to detect a main subject (here, for example, a face). Then, each of the video analysis units 111 sends the analysis result (that is, the main subject detection result) to the system control unit 108.

システム制御部108は解析結果に応じて映像選択部112を制御して、映像解析部111による画像処理の結果得られた画像データの1つを選択して、ライトフィールド画像処理部105に送る。つまり、システム制御部108は解析結果に応じて、いずれの撮像素子102で得られた画像データに応じた画像を表示部109に表示するかを決定する。そして、システム制御部108は映像選択部112を制御して、最も表示に適した画像データを選択して、ライトフィールド画像処理部105に出力する。   The system control unit 108 controls the video selection unit 112 according to the analysis result, selects one of the image data obtained as a result of the image processing by the video analysis unit 111, and sends it to the light field image processing unit 105. That is, the system control unit 108 determines which image sensor 102 obtains an image corresponding to the image data on the display unit 109 according to the analysis result. Then, the system control unit 108 controls the video selection unit 112 to select image data most suitable for display, and outputs it to the light field image processing unit 105.

図3は、図2に示すカメラにおける表示処理を説明するためのフローチャートである。なお、図3に示すフローチャートに係る処理は、システム制御部108の制御下で行われる。   FIG. 3 is a flowchart for explaining display processing in the camera shown in FIG. Note that the processing according to the flowchart shown in FIG. 3 is performed under the control of the system control unit 108.

表示処理が開始されると、システム制御部108はユーザによって顔検出モードが設定されたか否かを判定する(ステップS1)。   When the display process is started, the system control unit 108 determines whether or not the face detection mode is set by the user (step S1).

なお、ステップS1においては、人間の顔を検出する顔検出モードの他に、人体を検出する人体検出モード又はペットなどを検出するペット検出モータが設定されているか否かを判定するようにしてもよい。システム制御部108は、これらのモードのいずれかが設定されているかに応じて、ユーザがどのような被写体を撮影するかを判定して、フォーカス制御および露出制御を行うことになる。   In step S1, it is determined whether a human body detection mode for detecting a human body or a pet detection motor for detecting a pet is set in addition to the face detection mode for detecting a human face. Good. The system control unit 108 determines what kind of subject the user will shoot according to which of these modes is set, and performs focus control and exposure control.

顔検出モードが設定されていると(ステップS1において、YES)、システム制御部108は映像解析部111を制御して、最も焦点距離が短くかつ最広角である撮像素子の出力を解析する(ステップS2)。そして、システム制御部108は当該解析結果に応じて画像に主被写体が存在するか否かを判定する(ステップS3)。   When the face detection mode is set (YES in step S1), the system control unit 108 controls the video analysis unit 111 to analyze the output of the imaging element having the shortest focal length and the widest angle (step). S2). Then, the system control unit 108 determines whether or not the main subject exists in the image according to the analysis result (step S3).

画像に主被写体が存在すると(ステップS3において、YES)、システム制御部108は主被写体が存在する画像を出力する撮像素子102のうち最も焦点距離の長い(望遠側)撮像素子102を決定する。そして、システム制御部108はその決定結果に応じて映像選択部112を制御して、望遠側の撮像素子102の出力である画像データを選択してライトフィールド画像処理部105に与える(ステップS4)。   When the main subject exists in the image (YES in step S3), the system control unit 108 determines the image sensor 102 having the longest focal length (telephoto side) among the image sensors 102 that output the image in which the main subject exists. Then, the system control unit 108 controls the video selection unit 112 according to the determination result, selects the image data that is the output of the telephoto image sensor 102, and supplies it to the light field image processing unit 105 (step S4). .

これによって、ライトフィールド画像処理部105で画像処理された望遠側の画像データが表示部109に送られて表示される(ステップS6)。表示部109に画像が表示されると、システム制御部108は表示処理を終了する。   As a result, the telephoto image data processed by the light field image processing unit 105 is sent to the display unit 109 for display (step S6). When an image is displayed on the display unit 109, the system control unit 108 ends the display process.

顔検出モードが設定されていないと(ステップS1において、NO)、システム制御部108は映像選択部112を制御して最広角である撮像素子の出力に応じた画像データをライトフィールド画像処理部105に出力する(ステップS6)。そして、システム制御部108はステップS6の処理に進む。   If the face detection mode is not set (NO in step S1), the system control unit 108 controls the video selection unit 112 to output image data corresponding to the output of the image sensor having the widest angle to the light field image processing unit 105. (Step S6). Then, the system control unit 108 proceeds to the process of step S6.

なお、画像に主被写体が存在しないと(ステップS3において、NO)、システム制御部108はステップS6の処理に進む。   If there is no main subject in the image (NO in step S3), system control unit 108 proceeds to the process in step S6.

このように、本発明の第1の実施形態では、最も広角の焦点距離である撮像素子の出力を用いて主被写体を検出する。そして、主被写体を検出すると、当該主被写体が最も大きく写る焦点距離の撮像素子で得られた画像を表示部に出力する。この結果、主被写体を大きく、しかも鮮明に表示することができる。   As described above, in the first embodiment of the present invention, the main subject is detected by using the output of the image sensor having the widest focal length. Then, when the main subject is detected, an image obtained by the image pickup element having the focal length at which the main subject is the largest is output to the display unit. As a result, the main subject can be displayed large and clear.

一方、主被写体が検出できないと、最広角の撮像素子で得られた画像を表示部に表示する。これによって、ユーザには後で編集可能な最も広い画角の画像を表示することができる。   On the other hand, if the main subject cannot be detected, an image obtained by the widest-angle image sensor is displayed on the display unit. As a result, the user can display an image with the widest angle of view that can be edited later.

なお、ステップS1において顔検出モードなどの被写体を検出するモードは、例えば、表示部109に備えられたタッチパネルを用いて設定される。また、ステップS6においては、最広角の撮像素子で得られた画像以外の画像を出力するようにしてもよい。   Note that the mode for detecting the subject such as the face detection mode in step S1 is set using a touch panel provided in the display unit 109, for example. In step S6, an image other than the image obtained by the widest-angle image sensor may be output.

[第2の実施形態]
続いて、本発明の第2の実施形態によるカメラの一例について説明する。なお、第2の実施形態によるカメラの構成は、図1および図2に示すカメラと同様である。
[Second Embodiment]
Next, an example of a camera according to the second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIGS.

図4は、本発明の第2の実施形態によるカメラにおける表示処理を説明するためのフローチャートである。なお、図4に示すフローチャートに係る処理は、システム制御部108の制御下で行われる。   FIG. 4 is a flowchart for explaining display processing in the camera according to the second embodiment of the present invention. Note that the processing according to the flowchart shown in FIG. 4 is performed under the control of the system control unit 108.

いま、表示処理が開始されて撮像素子102の出力(つまり、画像)において主被写体が検出されている状態であるものとする。システム制御部108は映像解析部111を制御して撮像素子102によって得られた画像を解析する(ステップS11)。そして、システム制御部108は当該解析結果に応じて主被写体(例えば、顔)が未だ検出されているか否かを判定する(ステップS12)。   Now, it is assumed that the display process is started and the main subject is detected in the output (that is, the image) of the image sensor 102. The system control unit 108 controls the video analysis unit 111 to analyze the image obtained by the image sensor 102 (step S11). Then, the system control unit 108 determines whether or not a main subject (for example, a face) is still detected according to the analysis result (step S12).

主被写体が検出されていると(ステップS12において、YES)、システム制御部108は撮像素子制御部107によって撮像素子102を駆動制御して主被写体を大きくするためのデジタルズームを行う(ステップS13)。そして、システム制御部108は映像選択部112を制御してデジタルズームされた画像をライトフィールド画像処理部105に与える。   When the main subject is detected (YES in step S12), the system control unit 108 performs digital zoom for enlarging the main subject by driving the image sensor 102 by the image sensor control unit 107 (step S13). Then, the system control unit 108 controls the video selection unit 112 to give the digital zoomed image to the light field image processing unit 105.

これによって、ライトフィールド画像処理部105で画像処理された画像データが表示部109に送られて表示される(ステップS14)。表示部109に画像が表示されると、システム制御部108は表示処理を終了する。   As a result, the image data processed by the light field image processing unit 105 is sent to the display unit 109 for display (step S14). When an image is displayed on the display unit 109, the system control unit 108 ends the display process.

例えば、主被写体が動いて、現時点における焦点距離の撮像素子102で得られた画像に主被写体が存在しないと、つまり、主被写体が検出されていないと(ステップS12において、NO)、システム制御部108は当該撮像素子が最広角の撮像素子であるか否かを判定する(ステップS15)。   For example, if the main subject moves and no main subject exists in the image obtained by the imaging element 102 having the current focal length, that is, the main subject is not detected (NO in step S12), the system control unit 108 determines whether the image sensor is the widest-angle image sensor (step S15).

いままで主被写体が存在していた画像が得られた撮像素子が最広角の撮像素子102でないと(ステップS15において、NO)、システム制御部108は次に焦点距離の短い撮像素子102で得られた画像を選択する(ステップS16)。そして、システム制御部108はステップS11の処理に戻って映像解析部101を制御して、次に焦点距離の短い撮像素子102で得られた画像を解析する。   If the image sensor from which the main subject has been captured is not the widest-angle image sensor 102 (NO in step S15), the system control unit 108 can obtain the next image sensor 102 with the shortest focal length. The selected image is selected (step S16). Then, the system control unit 108 returns to the process of step S11 to control the video analysis unit 101, and then analyzes an image obtained by the imaging element 102 having a short focal length.

いままで主被写体が存在していた画像が得られた撮像素子102が最広角の撮像素子102であると(ステップS15において、YES)、システム制御部108は主被写体が存在する画像はないと判定して、映像選択部112を制御して最広角の撮像素子102で得られた画像の出力を継続する(ステップS17)。そして、システム制御部108はステップS14の処理に進む。   If the image sensor 102 from which the image in which the main subject has been present has been obtained is the widest-angle image sensor 102 (YES in step S15), the system control unit 108 determines that there is no image in which the main subject exists. Then, the video selection unit 112 is controlled to continue outputting the image obtained by the widest-angle image sensor 102 (step S17). Then, the system control unit 108 proceeds to the process of step S14.

このように、本発明の第2の実施形態では、主被写体の検出結果に応じて、望遠側の撮像素子102から広角側の撮像素子102にその画像を切り替える。そして、主被写体が検出された状態では当該主被写体を拡大して表示する。これによって、ユーザは拡大された主被写体を観察することができる結果、主被写体の撮影を容易に行うことができる。   Thus, in the second embodiment of the present invention, the image is switched from the telephoto image sensor 102 to the wide angle image sensor 102 in accordance with the detection result of the main subject. When the main subject is detected, the main subject is enlarged and displayed. As a result, the user can observe the enlarged main subject, so that the main subject can be easily captured.

上述の説明から明らかなように、図2に示す例では、システム制御部108および映像解析部111が検出手段として機能し、システム制御部108、映像選択部112、およびライトフィールド画像処理部105が表示制御手段として機能する。また、映像解析部111およびシステム制御部108は判定手段として機能する。   As is clear from the above description, in the example shown in FIG. 2, the system control unit 108 and the video analysis unit 111 function as detection means, and the system control unit 108, the video selection unit 112, and the light field image processing unit 105 It functions as a display control means. The video analysis unit 111 and the system control unit 108 function as a determination unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the imaging apparatus. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable recording medium, for example.

上記の制御方法および制御プログラムの各々は、少なくとも検出ステップおよび表示制御ステップを有している。   Each of the above control method and control program has at least a detection step and a display control step.

また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.

101 光学系
102 撮像素子
103 画像処理LSI
104 信号記録部
105 ライトフィールド画像処理部
106 フォーカス制御部
107 撮像素子制御部
108 システム制御部
109 表示部
111 映像解析部
112 映像選択部
DESCRIPTION OF SYMBOLS 101 Optical system 102 Image pick-up element 103 Image processing LSI
104 signal recording unit 105 light field image processing unit 106 focus control unit 107 image sensor control unit 108 system control unit 109 display unit 111 video analysis unit 112 video selection unit

Claims (7)

複数の撮像レンズと、当該複数の撮像レンズを介してそれぞれ光学像が結像される複数の撮像素子とを備え、前記撮像レンズによって前記複数の撮像素子に互いに焦点距離を異ならせて前記光学像を結像して、前記撮像素子の各々から前記光学像に応じた画像を得るとともにライトフィールドデータを得る撮像装置であって、
前記撮像素子から得られる画像において被写体を検出する検出手段と、
前記検出手段によって前記被写体が検出されると、前記被写体が検出された画像のうち前記被写体が最も大きい画像を表示部に表示する表示制御手段と、
を有することを特徴とする撮像装置。
A plurality of image pickup lenses and a plurality of image pickup elements on which optical images are formed through the plurality of image pickup lenses, respectively, and the plurality of image pickup elements are made to have different focal lengths by the image pickup lens, and the optical image An imaging device that obtains light field data while obtaining an image corresponding to the optical image from each of the imaging elements,
Detecting means for detecting a subject in an image obtained from the image sensor;
Display control means for displaying, on the display unit, an image having the largest subject among the images in which the subject is detected when the subject is detected by the detection means;
An imaging device comprising:
前記検出手段は、前記撮像素子から得られる画像のうち最も焦点距離の短い最広角で得られた画像において被写体を検出しており、
前記表示制御手段は、前記最広角で得られた画像において前記被写体が検出されると、前記撮像素子から得られる画像のうち最も焦点距離が長い望遠で得られた画像を表示部に表示することを特徴とする請求項1に記載の撮像装置。
The detection means detects a subject in an image obtained at the widest angle with the shortest focal length among images obtained from the image sensor,
When the subject is detected in the image obtained at the widest angle, the display control means displays on the display unit an image obtained with a telephoto having the longest focal length among images obtained from the image sensor. The imaging apparatus according to claim 1.
前記最広角で得られた画像において前記被写体が検出されないと、前記表示制御手段は、前記最広角で得られた画像を前記表示部に表示することを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein if the subject is not detected in the image obtained at the widest angle, the display control unit displays the image obtained at the widest angle on the display unit. . 前記検出手段によって前記画像において前記被写体が検出された状態で当該画像に未だ前記被写体が存在するか否かを判定する判定手段を有し、
前記判定手段によって前記画像に前記被写体が存在しないと判定された場合に、前記画像が最広角で得られた画像であると、前記表示制御手段は前記最広角の画像を前記表示部に表示することを特徴とする請求項1に記載の撮像装置。
Determination means for determining whether the subject is still present in the image in a state where the subject is detected in the image by the detection unit;
When the determination unit determines that the subject does not exist in the image, the display control unit displays the widest-angle image on the display unit when the image is an image obtained at the widest angle. The imaging apparatus according to claim 1.
前記判定手段によって前記画像に前記被写体が存在する判定された場合に、前記表示制御手段は、前記被写体を拡大した画像を前記表示部に表示することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein when the determination unit determines that the subject exists in the image, the display control unit displays an enlarged image of the subject on the display unit. . 複数の撮像レンズと、当該複数の撮像レンズを介してそれぞれ光学像が結像される複数の撮像素子とを備え、前記撮像レンズによって前記複数の撮像素子に互いに焦点距離を異ならせて前記光学像を結像して、前記撮像素子の各々から前記光学像に応じた画像を得るとともにライトフィールドデータを得る撮像装置の制御方法であって、
前記撮像素子から得られる画像において被写体を検出する検出ステップと、
前記検出ステップで前記被写体が検出されると、前記被写体が検出された画像のうち前記被写体が最も大きい画像を表示部に表示する表示制御ステップと、
を有することを特徴とする制御方法。
A plurality of image pickup lenses and a plurality of image pickup elements on which optical images are formed through the plurality of image pickup lenses, respectively, and the plurality of image pickup elements are made to have different focal lengths by the image pickup lens, and the optical image An imaging device control method for obtaining light field data while obtaining an image corresponding to the optical image from each of the imaging elements,
A detection step of detecting a subject in an image obtained from the image sensor;
A display control step of displaying, on the display unit, an image having the largest subject among the images in which the subject is detected when the subject is detected in the detection step;
A control method characterized by comprising:
複数の撮像レンズと、当該複数の撮像レンズを介してそれぞれ光学像が結像される複数の撮像素子とを備え、前記撮像レンズによって前記複数の撮像素子に互いに焦点距離を異ならせて前記光学像を結像して、前記撮像素子の各々から前記光学像に応じた画像を得るとともにライトフィールドデータを得る撮像装置で用いられる制御プログラムであって、
前記撮像装置が備えるコンピュータに、
前記撮像素子から得られる画像において被写体を検出する検出ステップと、
前記検出ステップで前記被写体が検出されると、前記被写体が検出された画像のうち前記被写体が最も大きい画像を表示部に表示する表示制御ステップと、
を実行させることを特徴とする制御プログラム。
A plurality of image pickup lenses and a plurality of image pickup elements on which optical images are formed through the plurality of image pickup lenses, respectively, and the plurality of image pickup elements are made to have different focal lengths by the image pickup lens, and the optical image A control program used in an imaging device that obtains light field data while obtaining an image corresponding to the optical image from each of the imaging elements,
In the computer provided in the imaging device,
A detection step of detecting a subject in an image obtained from the image sensor;
A display control step of displaying, on the display unit, an image having the largest subject among the images in which the subject is detected when the subject is detected in the detection step;
A control program characterized by causing
JP2013217690A 2013-10-18 2013-10-18 Image processing apparatus, control method thereof, and control program Active JP6202982B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013217690A JP6202982B2 (en) 2013-10-18 2013-10-18 Image processing apparatus, control method thereof, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013217690A JP6202982B2 (en) 2013-10-18 2013-10-18 Image processing apparatus, control method thereof, and control program

Publications (3)

Publication Number Publication Date
JP2015080168A true JP2015080168A (en) 2015-04-23
JP2015080168A5 JP2015080168A5 (en) 2016-12-01
JP6202982B2 JP6202982B2 (en) 2017-09-27

Family

ID=53011244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013217690A Active JP6202982B2 (en) 2013-10-18 2013-10-18 Image processing apparatus, control method thereof, and control program

Country Status (1)

Country Link
JP (1) JP6202982B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160350622A1 (en) * 2015-05-26 2016-12-01 Optim Corporation Augmented reality and object recognition device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010524279A (en) * 2007-03-09 2010-07-15 イーストマン コダック カンパニー Distance map generation type multi-lens camera
JP2011109427A (en) * 2009-11-18 2011-06-02 Fujifilm Corp Compound-eye imaging apparatus
US20130223759A1 (en) * 2012-02-28 2013-08-29 Canon Kabushiki Kaisha Image processing method and device, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010524279A (en) * 2007-03-09 2010-07-15 イーストマン コダック カンパニー Distance map generation type multi-lens camera
JP2011109427A (en) * 2009-11-18 2011-06-02 Fujifilm Corp Compound-eye imaging apparatus
US20130223759A1 (en) * 2012-02-28 2013-08-29 Canon Kabushiki Kaisha Image processing method and device, and program
JP2013211827A (en) * 2012-02-28 2013-10-10 Canon Inc Image processing method, device and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160350622A1 (en) * 2015-05-26 2016-12-01 Optim Corporation Augmented reality and object recognition device
JP2016220171A (en) * 2015-05-26 2016-12-22 株式会社オプティム Augmented reality object recognition device

Also Published As

Publication number Publication date
JP6202982B2 (en) 2017-09-27

Similar Documents

Publication Publication Date Title
TWI465107B (en) Image capturing apparatus capable of displaying live preview image
KR101756839B1 (en) Digital photographing apparatus and control method thereof
JP6838994B2 (en) Imaging device, control method and program of imaging device
US9208569B2 (en) Image processing apparatus and control method thereof capable of performing refocus calculation processing for light field data
JP4780205B2 (en) Imaging device, angle of view adjustment method, and program
JP2014123070A (en) Image capturing device and control method therefor
JP2012063396A (en) Focus adjustment device
JP2018174502A (en) Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program
JP2011101159A (en) Electronic camera
JP6095266B2 (en) Image processing apparatus and control method thereof
JP5611469B2 (en) Stereoscopic imaging apparatus and method
JP2011217334A (en) Imaging apparatus and method of controlling the same
JP3551932B2 (en) Distance measuring device and imaging device using the same
JP2009058762A (en) Imaging apparatus
JP2014155008A (en) Image pickup device, control method therefor, and program
JP6202982B2 (en) Image processing apparatus, control method thereof, and control program
JP6226536B2 (en) Imaging apparatus and control method thereof
JP6257316B2 (en) Imaging apparatus and control method thereof
JP6479149B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGE PROCESSING DEVICE
JP2011030123A (en) Imaging apparatus, control method of the same, and computer program
JP2015139018A (en) Electronic apparatus and control program
JP2015039242A (en) Imaging apparatus
JP6355324B2 (en) Imaging apparatus and control method thereof
JP2014131188A (en) Imaging apparatus, control method of the same, and control program
JP6087617B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161017

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170829

R151 Written notification of patent or utility model registration

Ref document number: 6202982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151