JP6202982B2 - Image processing apparatus, control method thereof, and control program - Google Patents

Image processing apparatus, control method thereof, and control program Download PDF

Info

Publication number
JP6202982B2
JP6202982B2 JP2013217690A JP2013217690A JP6202982B2 JP 6202982 B2 JP6202982 B2 JP 6202982B2 JP 2013217690 A JP2013217690 A JP 2013217690A JP 2013217690 A JP2013217690 A JP 2013217690A JP 6202982 B2 JP6202982 B2 JP 6202982B2
Authority
JP
Japan
Prior art keywords
image
image processing
images
specific subject
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013217690A
Other languages
Japanese (ja)
Other versions
JP2015080168A (en
JP2015080168A5 (en
Inventor
武範 小布施
武範 小布施
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013217690A priority Critical patent/JP6202982B2/en
Publication of JP2015080168A publication Critical patent/JP2015080168A/en
Publication of JP2015080168A5 publication Critical patent/JP2015080168A5/en
Application granted granted Critical
Publication of JP6202982B2 publication Critical patent/JP6202982B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、その制御方法、および制御プログラムに関し、特に、デジタル一眼レフカメラ、デジタルスチルカメラ、又はデジタルビデオカメラなどの画像処理置に関する。 The present invention relates to an image processing apparatus, its control method, and a control program, in particular, relates a digital single-lens reflex camera, the image processing equipment such as a digital still camera or digital video camera.

近年、コンピュテーショナルフォトグラフィ(Computational Photography)が搭載された撮像装置が開発されている。このコンピュテーショナルフォトグラフィでは、画像の輝度および色に関するデータ(つまり、画像データ)の他に、撮像素子から他の情報(他のデータ)を取り込んで、当該他のデータを画像データとともに保存して、画像処理LSIで様々な処理を行う。   2. Description of the Related Art In recent years, imaging devices equipped with computational photography (Computational Photography) have been developed. In this computational photography, in addition to data relating to brightness and color of an image (that is, image data), other information (other data) is taken from the image sensor, and the other data is stored together with the image data. Various processes are performed by the image processing LSI.

上述の他のデータとして、例えば、被写体からの光の入射角度に関するデータおよび奥行きに関するデータがある。そして、これら他のデータを用いて、被写体を撮像した際に一意に決定されたフォーカス、アイリスによる被写界深度、および焦点距離などを画像処理で正確に再現している。   As other data described above, for example, there are data related to the incident angle of light from the subject and data related to depth. Then, using these other data, the focus, the depth of field by the iris, the focal distance, and the like that are uniquely determined when the subject is imaged are accurately reproduced by image processing.

なお、この他のデータは、一般に被写体のライトフィールドと呼ばれる光線情報であり、この光線情報を用いれば、従来の撮像装置では実現できなかった機能を有する撮像装置を得ることができ、例えば、上記の光線情報を用いて、撮像の結果得られた画像データについて画像処理によってフォーカス位置を変更できることができる。   The other data is light ray information generally called a light field of a subject. Using this light ray information, an imaging device having a function that cannot be realized by a conventional imaging device can be obtained. Using this ray information, the focus position can be changed by image processing for image data obtained as a result of imaging.

ここで、ライトフィールド(光線情報)を取得する一例として多視点で画像データを得る場合について概説する。   Here, an outline of obtaining image data from multiple viewpoints as an example of acquiring a light field (light ray information) will be described.

いま、1台の撮像装置を用いて焦点距離を変更して複数の画像データを取得する。そして、これら画像データを合成して1枚の画像データとすると、当該画像データに含まれるライトフィールドを用いて、画像処理によって画像データにおける焦点距離を変更することができる。   Now, a plurality of image data are acquired by changing the focal length using a single imaging device. When these image data are combined into one image data, the focal length in the image data can be changed by image processing using the light field included in the image data.

さらに、撮像装置を水平又は垂直に移動させつつ、複数枚の画像データを取得すれば、これら画像データにおける視差に応じて被写体の距離を示す距離情報を得ることができる。   Furthermore, if a plurality of pieces of image data are acquired while moving the imaging apparatus horizontally or vertically, distance information indicating the distance of the subject can be obtained according to the parallax in these image data.

上述の手法では、一台の撮像装置(つまり、撮像素子)を用いているので、動的な被写体に対してライトフィールドを有効に取得することができないというデメリットがある。   The above-described method has a demerit that a light field cannot be effectively acquired for a dynamic subject because a single imaging device (that is, an imaging device) is used.

このようなデメリットを補いつつ、多視点で画像を取得するため、撮像素子又は撮像装置そのものを複数用いることが行われている(特許文献1参照)。ここでは、撮像素子又は撮像装置をアレイ状に複数配置して、撮像の結果得られる複数の画像データについて同時性を付与して、ライトフィールドに係る情報量を増やして、動的な被写体についてもライトフィールドを有効に取得するようにしている。   In order to acquire images from multiple viewpoints while compensating for such disadvantages, a plurality of imaging elements or imaging devices themselves are used (see Patent Document 1). Here, a plurality of imaging elements or imaging devices are arranged in an array, and a plurality of pieces of image data obtained as a result of imaging are given simultaneity to increase the amount of information related to the light field. The light field is acquired effectively.

特開2008−257686号公報JP 2008-257686A

ところが、特許文献1に記載の手法では、複数の撮像素子又は撮像装置が必要となる結果、不可避的に消費電力が増大するばかりでなく、撮像装置又は撮像システムそのものが大型化してしまう。   However, the technique described in Patent Document 1 requires a plurality of imaging elements or imaging devices. As a result, power consumption inevitably increases, and the imaging device or imaging system itself increases in size.

加えて、ライトフィールドを取得する撮像装置においては、ユーザに対してどのような画像を表示すればよいかという問題がある。例えば、従来の撮像装置では、特定の人物の動きを記録するため当該人物を追尾したい場合には、その人物を検出(顔などを検出)して、ユーザがその被写体を追尾しやすい位置にズームを行っている。   In addition, the imaging device that acquires the light field has a problem of what kind of image should be displayed to the user. For example, in a conventional imaging apparatus, when a person is desired to be tracked in order to record the movement of a specific person, the person is detected (a face or the like is detected) and zoomed to a position where the user can easily track the subject. It is carried out.

一方、ライトフィールドを取得する撮像装置では、画像処理によってズーム位置、フォーカス位置、および被写界深度が変更されるので、どのような画像を出力(つまり、表示)すればユーザの意図する画像となるか分からないという問題がある。   On the other hand, in an imaging device that acquires a light field, the zoom position, focus position, and depth of field are changed by image processing, so what kind of image is output (that is, displayed) There is a problem of not knowing.

このように、ライトフィールドを取得する撮像装置においては、ユーザがどのような画画像を得たいか、つまり、ユーザが認識する主被写体を判定して画像を出力する必要がある。   As described above, in an imaging apparatus that acquires a light field, it is necessary to determine what image the user wants to obtain, that is, determine the main subject recognized by the user and output the image.

従って、本発明の目的は、撮影の際にライトフィールドを取得する、ユーザが被写体を精度よく認識することのできる画像処理装置、その制御方法、および制御プログラムを提供することにある。 Accordingly, it is an object of the present invention to provide an image processing apparatus, a control method thereof, and a control program that allow a user to accurately recognize a subject when acquiring a light field during shooting.

上記の目的を達成するため、本発明による画像処理装置は、焦点距離が異なる光学系を含む複数の撮像レンズにそれぞれ対応する複数の撮像素子から得られる複数の画像を処理する画像処理装置であって、前記複数の画像から特定の被写体を検出する検出手段と、前記検出手段によって前記複数の画像から前記特定の被写体が検出されると、前記特定の被写体が検出された画像のうち最も焦点距離が長い最望遠で得られた画像を表示部に表示する表示制御手段と、を有することを特徴とする。 In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that processes a plurality of images obtained from a plurality of imaging elements respectively corresponding to a plurality of imaging lenses including optical systems having different focal lengths. Te, detection means for detecting a specific subject from the plurality of images, if the specific subject from the plurality of images by the detecting means is detected, the most focal length of the image that the specific subject is detected Display control means for displaying on the display unit an image obtained with a long maximum telephoto .

本発明による制御方法は、焦点距離が異なる光学系を含む複数の撮像レンズにそれぞれ対応する複数の撮像素子から得られる複数の画像を処理する画像処理装置の制御方法であって、前記複数の画像から特定の被写体を検出する検出ステップと、前記検出ステップで前記複数の画像から前記特定の被写体が検出されると、前記特定の被写体が検出された画像のうち最も焦点距離が長い最望遠で得られた画像を表示部に表示する表示制御ステップと、を有することを特徴とする。 The control method according to the present invention is a control method for an image processing apparatus that processes a plurality of images obtained from a plurality of imaging elements respectively corresponding to a plurality of imaging lenses including optical systems having different focal lengths. A detection step of detecting a specific subject from the plurality of images, and when the specific subject is detected from the plurality of images in the detection step, the image obtained with the longest focal length among the images in which the specific subject is detected is obtained. And a display control step for displaying the received image on the display unit.

本発明による制御プログラムは、焦点距離が異なる光学系を含む複数の撮像レンズにそれぞれ対応する複数の撮像素子から得られる複数の画像を処理する画像処理装置で用いられる制御プログラムであって、前記画像処理装置が備えるコンピュータに、前記複数の画像から特定の被写体を検出する検出ステップと、前記検出ステップで前記複数の画像から前記特定の被写体が検出されると、前記特定の被写体が検出された画像のうち最も焦点距離が長い最望遠で得られた画像を表示部に表示する表示制御ステップと、を実行させることを特徴とする。 A control program according to the present invention is a control program used in an image processing apparatus that processes a plurality of images obtained from a plurality of imaging elements respectively corresponding to a plurality of imaging lenses including optical systems having different focal lengths. a computer processing apparatus comprising: a detection step of detecting a specific subject from the plurality of images, if the specific subject from the plurality of images by the detecting step is detected, the specific subject is detected image And a display control step for displaying an image obtained at the maximum telephoto distance with the longest focal length on the display unit.

本発明によれば、画像において被写体が検出されると、被写体が検出された画像のうち被写体が最も大きい画像を表示部に表示するようにしたので、ユーザは被写体を良好に認識することができる。その結果、ユーザは容易に被写体の撮影を行うことができる。   According to the present invention, when the subject is detected in the image, the image having the largest subject among the images in which the subject is detected is displayed on the display unit, so that the user can recognize the subject satisfactorily. . As a result, the user can easily photograph the subject.

本発明の第1の実施形態による画像処理装置の一例である撮像装置についてその外観を説明するための図であり、(a)は外観を示す斜視図、(b)は撮影レンズ部を正面から示す図である。Are diagrams for about the imaging equipment, which is an example illustrating the appearance of an image processing apparatus according to a first embodiment of the present invention, (a) is a perspective view showing an appearance, (b) the photographic lens unit It is a figure shown from the front. 図1に示すカメラを説明するためのブロック図であり、(a)はその構成を示すブロック図、(b)は(a)に示す画像処理LSIの構成を示すブロック図である。FIG. 2 is a block diagram for explaining the camera shown in FIG. 1, (a) is a block diagram showing the configuration thereof, and (b) is a block diagram showing a configuration of the image processing LSI shown in (a). 図2に示すカメラにおける表示処理を説明するためのフローチャートである。3 is a flowchart for explaining display processing in the camera shown in FIG. 2. 本発明の第2の実施形態に係るカメラにおける表示処理を説明するためのフローチャートである。It is a flowchart for demonstrating the display process in the camera which concerns on the 2nd Embodiment of this invention.

以下、本発明の実施の形態による画像処理装置の一例について図面を参照して説明する。 Hereinafter, an example of an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による画像処理装置の一例である撮像装置についてその外観を説明するための図である。そして、図1(a)は外観を示す斜視図であり、図1(b)は撮影レンズ部を正面から示す図である。
[First Embodiment]
FIG. 1 is a diagram for explaining the external appearance with the imaging equipment, which is an example of an image processing apparatus according to a first embodiment of the present invention. FIG. 1A is a perspective view showing the appearance, and FIG. 1B is a view showing the photographing lens unit from the front.

図示の撮像装置100は、所謂ビデオカメラ(以下単にカメラと呼ぶ)であり、カメラ100は、カメラ筐体201の前面には撮像レンズ部202が配置されている。この撮影レンズ部202には、例えば、16個の開口部が形成されており、これら開口部の各々には撮影レンズユニット(以下単に撮影レンズと呼ぶ)203が配置されている。そして、撮影レンズの後段には撮像センサ(図示せず)は配置され、この撮像センサは、撮影レンズに対応する撮像素子を有している。   The illustrated imaging apparatus 100 is a so-called video camera (hereinafter simply referred to as a camera), and the camera 100 has an imaging lens unit 202 disposed on the front surface of a camera housing 201. For example, sixteen openings are formed in the photographing lens unit 202, and a photographing lens unit (hereinafter simply referred to as a photographing lens) 203 is disposed in each of the openings. An imaging sensor (not shown) is disposed at the rear stage of the photographic lens, and this imaging sensor has an imaging element corresponding to the photographic lens.

なお、図示のように、カメラ筐体201の側面には、表示部109が開閉可能に配置されている。また、図示の例では、カメラ筐体201に配置された記録ボタン(つまり、シャッタボタンおよび電源スイッチなどを省略されている。   As shown in the figure, a display unit 109 is disposed on the side surface of the camera housing 201 so as to be opened and closed. Further, in the illustrated example, a recording button (that is, a shutter button, a power switch, etc.) arranged on the camera housing 201 is omitted.

図示はしないが、撮像素子の各々において、その受光面(撮像面ともいう)には、複数のマイクロレンズから構成されるマイクロレンズアレイが配置されている。このマイクロレンズアレイによって撮像素子の受光面における光の強度分布に加えて、その光の進行方向に係る情報(つまり、ライトフィールドデータ)を得る。そして、図示のカメラでは、撮像の後、ライトフィールドデータによって、任意の視点又は任意の焦点に設定された画像を再構築する。   Although not shown, in each of the imaging elements, a microlens array including a plurality of microlenses is disposed on a light receiving surface (also referred to as an imaging surface). In addition to the light intensity distribution on the light receiving surface of the image sensor, information related to the light traveling direction (that is, light field data) is obtained by the microlens array. In the illustrated camera, after imaging, an image set at an arbitrary viewpoint or an arbitrary focus is reconstructed by light field data.

前述の複数の撮像素子は同一の平面上にアレイ状(つまり、2次元マトリックス状)に配列されており、その個数はライトフィールドデータを得るために必要な個数であって、図示の例では、16個の撮像素子が同一平面上に配列されている。   The plurality of image sensors described above are arranged in an array (that is, a two-dimensional matrix) on the same plane, and the number thereof is a number necessary for obtaining light field data. Sixteen image sensors are arranged on the same plane.

図1(b)に示すように、16個の撮像素子は4つのグループ”1”〜”4”に分けられており、撮像レンズ203による焦点距離がグループ毎に制御される。図示の例では、グループ”1”の焦点距離は”A”、グループ”2”の焦点距離は”B”、グループ”2”の焦点距離は”C”、グループ”4”の焦点距離は”D”とされる。そして、焦点距離Aはワイド(Wide)側となり、焦点距離Dはテレ(Tele)側となる。   As shown in FIG. 1B, the 16 imaging elements are divided into four groups “1” to “4”, and the focal length by the imaging lens 203 is controlled for each group. In the illustrated example, the focal length of the group “1” is “A”, the focal length of the group “2” is “B”, the focal length of the group “2” is “C”, and the focal length of the group “4” is “ D ". The focal length A is on the wide side, and the focal length D is on the tele side.

このようにして、グループ毎に焦点距離を変えて、複数の画角で画像データを得れば、後述するライトフィールド画像処理部によって任意の焦点距離の画像データを得ることができる。さらに、同一の焦点距離である撮像素子が複数(図示の例では4刃をつ)存在するので、光の視差を用いて、被写体の距離を示す距離情報を得ることができる。そして、当該距離情報を用いれば、ピント位置および背景のぼかしの調整を行って、画像データにおける被写界深度を制御することができる。   In this way, if the focal length is changed for each group and image data is obtained at a plurality of angles of view, image data with an arbitrary focal length can be obtained by a light field image processing unit described later. Furthermore, since there are a plurality of imaging elements having the same focal length (four blades in the illustrated example), distance information indicating the distance of the subject can be obtained using the parallax of light. If the distance information is used, the depth of field in the image data can be controlled by adjusting the focus position and background blur.

図2は、図1に示すカメラを説明するためのブロック図である。そして、図2(a)は、その構成を示すブロック図であり、図2(b)は図2(a)に示す画像処理LSIの構成を示すブロック図である。   FIG. 2 is a block diagram for explaining the camera shown in FIG. FIG. 2A is a block diagram showing the configuration, and FIG. 2B is a block diagram showing the configuration of the image processing LSI shown in FIG.

図2(a)においては、図2(a)に示す撮像レンズ部202が光学系101で示されており、光学系101は被写体からの光(つまり、光学像)を撮像素子102の受光面に結像する。この光学系101(つまり、各撮像レンズ)には、例えば、ピント位置を調整するためのフォーカスレンズ、入射光を制御するアイリス部、および焦点距離を変更するためのズームレンズ部が備えられている。   In FIG. 2A, the imaging lens unit 202 shown in FIG. 2A is shown by an optical system 101, and the optical system 101 receives light from an object (that is, an optical image) and a light receiving surface of the imaging element 102. To form an image. The optical system 101 (that is, each imaging lens) includes, for example, a focus lens for adjusting the focus position, an iris unit for controlling incident light, and a zoom lens unit for changing the focal length. .

前述のように、複数の撮像素子102は所謂ライトフィールドデータを取得するため平面上にアレイ状に配列されており、撮像素子102の各々は光学像に応じた電気信号(アナログ信号)を出力する。撮像素子102の出力であるアナログ信号は画像処理LSI103に与えられる。   As described above, the plurality of image sensors 102 are arranged in an array on a plane to acquire so-called light field data, and each of the image sensors 102 outputs an electrical signal (analog signal) corresponding to the optical image. . An analog signal that is an output of the image sensor 102 is given to the image processing LSI 103.

なお、撮像素子102として、例えば、CCDイメージセンサー(Charge Coupled Device)又はCMOSイメージセンサーが用いられる。   As the image sensor 102, for example, a CCD image sensor (Charge Coupled Device) or a CMOS image sensor is used.

また、上述の例では、撮像素子102は画像信号としてアナログ信号を出力としたが、撮像素子102においてA/D変換処理を行って、LVDS(Low voltage differential signaling)などのデジタル信号を出力するようにしてもよい。   In the above example, the image sensor 102 outputs an analog signal as an image signal. However, the image sensor 102 performs an A / D conversion process and outputs a digital signal such as LVDS (Low voltage differential signaling). It may be.

図示はしないが、画像処理LSI103は、アナログフロントインド部および画像処理ブロックを備えており、アナログフロントエンド部は撮像素子102の出力であるアナログ信号をデジタル信号に変換する。そして、画像処理ブロックは当該デジタル信号に対して各種の画像処理を行って画像データを生成する。   Although not shown, the image processing LSI 103 includes an analog front window unit and an image processing block. The analog front end unit converts an analog signal output from the image sensor 102 into a digital signal. Then, the image processing block performs various kinds of image processing on the digital signal to generate image data.

なお、撮像素子102においてA/D変換処理が行われる場合には、アナログフロントエンド部は省略される。   Note that when the A / D conversion process is performed in the image sensor 102, the analog front end unit is omitted.

画像処理ブロックは、画像処理として所謂画素加算処理、ノイズリダクション処理、ガンマ補正処理、ニー処理、およびデジタルゲイン処理などを行うとともに、キズ補正処理を行う。なお、撮像素子102がCMOSイメージセンサーである場合には、画像処理ブロックはCMOSイメージセンサー特有の固定パターンノイズの除去および黒レベルクランプ処理などを行う。また、画像処理LSI103には、画像処理などに必要な設定値を記憶する記憶回路(図示せず)を備えている。   The image processing block performs so-called pixel addition processing, noise reduction processing, gamma correction processing, knee processing, digital gain processing, and the like as image processing, and also performs scratch correction processing. If the image sensor 102 is a CMOS image sensor, the image processing block performs removal of fixed pattern noise unique to the CMOS image sensor, black level clamping processing, and the like. In addition, the image processing LSI 103 includes a storage circuit (not shown) that stores setting values necessary for image processing and the like.

画像処理LSIの出力である画像データの全てが信号記録部104に記録され、さらに、後述するように、画像処理LSIの出力である画像データの1つがライトフィールド画像処理部105に与えられる。この信号記録部104には上述のライトフィールドデータも記録される。   All of the image data that is the output of the image processing LSI is recorded in the signal recording unit 104, and one of the image data that is the output of the image processing LSI is given to the light field image processing unit 105 as will be described later. The signal recording unit 104 also records the above-described light field data.

なお、信号記録部104として、例えば、HDD(ハードディスクドライブ)、SDメモリーカード、又はコンパクトフラッシュ(登録商標)メモリーカードが用いられる。   As the signal recording unit 104, for example, an HDD (Hard Disk Drive), an SD memory card, or a Compact Flash (registered trademark) memory card is used.

ライトフィールド画像処理部105は、システム制御部108の制御下で、画像データに付加されたライトフィールドデータに応じて、画像データに後述する画像処理を施してライトフィールド画像データとして出力する。そして、このライトフィード画像データは表示部109に送られる。   Under the control of the system control unit 108, the light field image processing unit 105 performs image processing, which will be described later, on the image data in accordance with the light field data added to the image data, and outputs it as light field image data. The light feed image data is sent to the display unit 109.

例えば、ライトフィールド画像処理部105はライトフィールドデータに応じて、画像データに対して光学系のピント位置、ズーム位置、および被写界深度調整など画像処理を行う。   For example, the light field image processing unit 105 performs image processing such as adjustment of the focus position, zoom position, and depth of field of the optical system on the image data in accordance with the light field data.

フォーカス制御部106は、システム制御部108の制御下で、光学系101に備えられたフォーカス機構(つまり、フォーカスレンズ)を制御してピント位置を調節する。   The focus control unit 106 adjusts the focus position by controlling a focus mechanism (that is, a focus lens) provided in the optical system 101 under the control of the system control unit 108.

撮像素子制御部107は、システム制御部107の制御下で各撮像素子102の制御を行う。例えば、撮像素子制御部107は、システム制御部108の制御下で撮像素子102の露光時間を決定して撮像素子102を駆動制御する。   The image sensor control unit 107 controls each image sensor 102 under the control of the system control unit 107. For example, the image sensor control unit 107 determines the exposure time of the image sensor 102 under the control of the system control unit 108 and drives and controls the image sensor 102.

システム制御部108は、カメラ全体の制御を司り、例えば、画像処理LSI103から露出情報を受けて、当該露出情報に応じてカメラの露出を制御する。この際には、システム制御部108は露出情報に応じてフォーカス制御部106および撮像素子制御部107を制御して、前述のように、フォーカスレンズを駆動制御するとともに、撮像素子102を駆動する。   The system control unit 108 controls the entire camera, for example, receives exposure information from the image processing LSI 103 and controls the exposure of the camera according to the exposure information. At this time, the system control unit 108 controls the focus control unit 106 and the image sensor control unit 107 in accordance with the exposure information to drive and control the focus lens and drive the image sensor 102 as described above.

表示部109には、カメラによって得られた画像データに応じた画像が表示される。この表示部109は、例えば、外部のモニター、カメラに付属する液晶モニター、又はビューファインダーである。   The display unit 109 displays an image corresponding to the image data obtained by the camera. The display unit 109 is, for example, an external monitor, a liquid crystal monitor attached to the camera, or a viewfinder.

図2(b)に示すように、画像処理LSI103は、複数の映像解析部111および映像選択部112を有しており、映像解析部111の出力は信号記録部104に接続されるとともに映像選択部112に接続されている。そして、映像選択部112の出力はライトフィールド画像処理部105に与えられる。なお、映像解析部111はそれぞれ撮像素子102に対応している。   As shown in FIG. 2B, the image processing LSI 103 includes a plurality of video analysis units 111 and a video selection unit 112, and the output of the video analysis unit 111 is connected to the signal recording unit 104 and the video selection unit. Connected to the unit 112. The output of the video selection unit 112 is given to the light field image processing unit 105. Note that each of the video analysis units 111 corresponds to the image sensor 102.

画像処理LSI103には、複数の撮像素子102の出力である画像信号が入力される。そして、映像解析部103の出力である画像データの全てが信号記録部104に記録される。   The image processing LSI 103 receives image signals that are outputs of the plurality of image sensors 102. All of the image data output from the video analysis unit 103 is recorded in the signal recording unit 104.

映像解析部111の各々は、画像信号(つまり、デジタル信号)が示す画像を解析して主被写体(ここでは、例えば、顔)を検出する。そして、映像解析部111の各々はその解析結果(つまり、主被写体検出結果)をシステム制御部108に送る。   Each of the video analysis units 111 analyzes an image indicated by an image signal (that is, a digital signal) to detect a main subject (here, for example, a face). Then, each of the video analysis units 111 sends the analysis result (that is, the main subject detection result) to the system control unit 108.

システム制御部108は解析結果に応じて映像選択部112を制御して、映像解析部111による画像処理の結果得られた画像データの1つを選択して、ライトフィールド画像処理部105に送る。つまり、システム制御部108は解析結果に応じて、いずれの撮像素子102で得られた画像データに応じた画像を表示部109に表示するかを決定する。そして、システム制御部108は映像選択部112を制御して、最も表示に適した画像データを選択して、ライトフィールド画像処理部105に出力する。   The system control unit 108 controls the video selection unit 112 according to the analysis result, selects one of the image data obtained as a result of the image processing by the video analysis unit 111, and sends it to the light field image processing unit 105. That is, the system control unit 108 determines which image sensor 102 obtains an image corresponding to the image data on the display unit 109 according to the analysis result. Then, the system control unit 108 controls the video selection unit 112 to select image data most suitable for display, and outputs it to the light field image processing unit 105.

図3は、図2に示すカメラにおける表示処理を説明するためのフローチャートである。なお、図3に示すフローチャートに係る処理は、システム制御部108の制御下で行われる。   FIG. 3 is a flowchart for explaining display processing in the camera shown in FIG. Note that the processing according to the flowchart shown in FIG. 3 is performed under the control of the system control unit 108.

表示処理が開始されると、システム制御部108はユーザによって顔検出モードが設定されたか否かを判定する(ステップS1)。   When the display process is started, the system control unit 108 determines whether or not the face detection mode is set by the user (step S1).

なお、ステップS1においては、人間の顔を検出する顔検出モードの他に、人体を検出する人体検出モード又はペットなどを検出するペット検出モータが設定されているか否かを判定するようにしてもよい。システム制御部108は、これらのモードのいずれかが設定されているかに応じて、ユーザがどのような被写体を撮影するかを判定して、フォーカス制御および露出制御を行うことになる。   In step S1, it is determined whether a human body detection mode for detecting a human body or a pet detection motor for detecting a pet is set in addition to the face detection mode for detecting a human face. Good. The system control unit 108 determines what kind of subject the user will shoot according to which of these modes is set, and performs focus control and exposure control.

顔検出モードが設定されていると(ステップS1において、YES)、システム制御部108は映像解析部111を制御して、最も焦点距離が短くかつ最広角である撮像素子の出力を解析する(ステップS2)。そして、システム制御部108は当該解析結果に応じて画像に主被写体が存在するか否かを判定する(ステップS3)。   When the face detection mode is set (YES in step S1), the system control unit 108 controls the video analysis unit 111 to analyze the output of the imaging element having the shortest focal length and the widest angle (step). S2). Then, the system control unit 108 determines whether or not the main subject exists in the image according to the analysis result (step S3).

画像に主被写体が存在すると(ステップS3において、YES)、システム制御部108は主被写体が存在する画像を出力する撮像素子102のうち最も焦点距離の長い(望遠側)撮像素子102を決定する。そして、システム制御部108はその決定結果に応じて映像選択部112を制御して、望遠側の撮像素子102の出力である画像データを選択してライトフィールド画像処理部105に与える(ステップS4)。   When the main subject exists in the image (YES in step S3), the system control unit 108 determines the image sensor 102 having the longest focal length (telephoto side) among the image sensors 102 that output the image in which the main subject exists. Then, the system control unit 108 controls the video selection unit 112 according to the determination result, selects the image data that is the output of the telephoto image sensor 102, and supplies it to the light field image processing unit 105 (step S4). .

これによって、ライトフィールド画像処理部105で画像処理された望遠側の画像データが表示部109に送られて表示される(ステップS6)。表示部109に画像が表示されると、システム制御部108は表示処理を終了する。   As a result, the telephoto image data processed by the light field image processing unit 105 is sent to the display unit 109 for display (step S6). When an image is displayed on the display unit 109, the system control unit 108 ends the display process.

顔検出モードが設定されていないと(ステップS1において、NO)、システム制御部108は映像選択部112を制御して最広角である撮像素子の出力に応じた画像データをライトフィールド画像処理部105に出力する(ステップS6)。そして、システム制御部108はステップS6の処理に進む。   If the face detection mode is not set (NO in step S1), the system control unit 108 controls the video selection unit 112 to output image data corresponding to the output of the image sensor having the widest angle to the light field image processing unit 105. (Step S6). Then, the system control unit 108 proceeds to the process of step S6.

なお、画像に主被写体が存在しないと(ステップS3において、NO)、システム制御部108はステップS6の処理に進む。   If there is no main subject in the image (NO in step S3), system control unit 108 proceeds to the process in step S6.

このように、本発明の第1の実施形態では、最も広角の焦点距離である撮像素子の出力を用いて主被写体を検出する。そして、主被写体を検出すると、当該主被写体が最も大きく写る焦点距離の撮像素子で得られた画像を表示部に出力する。この結果、主被写体を大きく、しかも鮮明に表示することができる。   As described above, in the first embodiment of the present invention, the main subject is detected by using the output of the image sensor having the widest focal length. Then, when the main subject is detected, an image obtained by the image pickup element having the focal length at which the main subject is the largest is output to the display unit. As a result, the main subject can be displayed large and clear.

一方、主被写体が検出できないと、最広角の撮像素子で得られた画像を表示部に表示する。これによって、ユーザには後で編集可能な最も広い画角の画像を表示することができる。   On the other hand, if the main subject cannot be detected, an image obtained by the widest-angle image sensor is displayed on the display unit. As a result, the user can display an image with the widest angle of view that can be edited later.

なお、ステップS1において顔検出モードなどの被写体を検出するモードは、例えば、表示部109に備えられたタッチパネルを用いて設定される。また、ステップS6においては、最広角の撮像素子で得られた画像以外の画像を出力するようにしてもよい。   Note that the mode for detecting the subject such as the face detection mode in step S1 is set using a touch panel provided in the display unit 109, for example. In step S6, an image other than the image obtained by the widest-angle image sensor may be output.

[第2の実施形態]
続いて、本発明の第2の実施形態に係るカメラの一例について説明する。なお、第2の実施形態によるカメラの構成は、図1および図2に示すカメラと同様である。
[Second Embodiment]
The following describes one case of a camera according to a second embodiment of the present invention. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIGS.

図4は、本発明の第2の実施形態によるカメラにおける表示処理を説明するためのフローチャートである。なお、図4に示すフローチャートに係る処理は、システム制御部108の制御下で行われる。   FIG. 4 is a flowchart for explaining display processing in the camera according to the second embodiment of the present invention. Note that the processing according to the flowchart shown in FIG. 4 is performed under the control of the system control unit 108.

いま、表示処理が開始されて撮像素子102の出力(つまり、画像)において主被写体が検出されている状態であるものとする。システム制御部108は映像解析部111を制御して撮像素子102によって得られた画像を解析する(ステップS11)。そして、システム制御部108は当該解析結果に応じて主被写体(例えば、顔)が未だ検出されているか否かを判定する(ステップS12)。   Now, it is assumed that the display process is started and the main subject is detected in the output (that is, the image) of the image sensor 102. The system control unit 108 controls the video analysis unit 111 to analyze the image obtained by the image sensor 102 (step S11). Then, the system control unit 108 determines whether or not a main subject (for example, a face) is still detected according to the analysis result (step S12).

主被写体が検出されていると(ステップS12において、YES)、システム制御部108は撮像素子制御部107によって撮像素子102を駆動制御して主被写体を大きくするためのデジタルズームを行う(ステップS13)。そして、システム制御部108は映像選択部112を制御してデジタルズームされた画像をライトフィールド画像処理部105に与える。   When the main subject is detected (YES in step S12), the system control unit 108 performs digital zoom for enlarging the main subject by driving the image sensor 102 by the image sensor control unit 107 (step S13). Then, the system control unit 108 controls the video selection unit 112 to give the digital zoomed image to the light field image processing unit 105.

これによって、ライトフィールド画像処理部105で画像処理された画像データが表示部109に送られて表示される(ステップS14)。表示部109に画像が表示されると、システム制御部108は表示処理を終了する。   As a result, the image data processed by the light field image processing unit 105 is sent to the display unit 109 for display (step S14). When an image is displayed on the display unit 109, the system control unit 108 ends the display process.

例えば、主被写体が動いて、現時点における焦点距離の撮像素子102で得られた画像に主被写体が存在しないと、つまり、主被写体が検出されていないと(ステップS12において、NO)、システム制御部108は当該撮像素子が最広角の撮像素子であるか否かを判定する(ステップS15)。   For example, if the main subject moves and no main subject exists in the image obtained by the imaging device 102 having the current focal length, that is, the main subject is not detected (NO in step S12), the system control unit 108 determines whether the image sensor is the widest-angle image sensor (step S15).

いままで主被写体が存在していた画像が得られた撮像素子が最広角の撮像素子102でないと(ステップS15において、NO)、システム制御部108は次に焦点距離の短い撮像素子102で得られた画像を選択する(ステップS16)。そして、システム制御部108はステップS11の処理に戻って映像解析部101を制御して、次に焦点距離の短い撮像素子102で得られた画像を解析する。   If the image sensor from which the main subject has been captured is not the widest-angle image sensor 102 (NO in step S15), the system control unit 108 can obtain the next image sensor 102 with the shortest focal length. The selected image is selected (step S16). Then, the system control unit 108 returns to the process of step S11 to control the video analysis unit 101, and then analyzes an image obtained by the imaging element 102 having a short focal length.

いままで主被写体が存在していた画像が得られた撮像素子102が最広角の撮像素子102であると(ステップS15において、YES)、システム制御部108は主被写体が存在する画像はないと判定して、映像選択部112を制御して最広角の撮像素子102で得られた画像の出力を継続する(ステップS17)。そして、システム制御部108はステップS14の処理に進む。   If the image sensor 102 from which the image in which the main subject has been present has been obtained is the widest-angle image sensor 102 (YES in step S15), the system control unit 108 determines that there is no image in which the main subject exists. Then, the video selection unit 112 is controlled to continue outputting the image obtained by the widest-angle image sensor 102 (step S17). Then, the system control unit 108 proceeds to the process of step S14.

このように、本発明の第2の実施形態では、主被写体の検出結果に応じて、望遠側の撮像素子102から広角側の撮像素子102にその画像を切り替える。そして、主被写体が検出された状態では当該主被写体を拡大して表示する。これによって、ユーザは拡大された主被写体を観察することができる結果、主被写体の撮影を容易に行うことができる。   Thus, in the second embodiment of the present invention, the image is switched from the telephoto image sensor 102 to the wide angle image sensor 102 in accordance with the detection result of the main subject. When the main subject is detected, the main subject is enlarged and displayed. As a result, the user can observe the enlarged main subject, so that the main subject can be easily captured.

上述の説明から明らかなように、図2に示す例では、システム制御部108および映像解析部111が検出手段として機能し、システム制御部108、映像選択部112、およびライトフィールド画像処理部105が表示制御手段として機能する。また、映像解析部111およびシステム制御部108は判定手段として機能する。   As is clear from the above description, in the example shown in FIG. 2, the system control unit 108 and the video analysis unit 111 function as detection means, and the system control unit 108, the video selection unit 112, and the light field image processing unit 105 It functions as a display control means. The video analysis unit 111 and the system control unit 108 function as a determination unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。 For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the image processing apparatus. In addition, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the image processing apparatus. The control program is recorded on a computer-readable recording medium, for example.

また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.

101 光学系
102 撮像素子
103 画像処理LSI
104 信号記録部
105 ライトフィールド画像処理部
106 フォーカス制御部
107 撮像素子制御部
108 システム制御部
109 表示部
111 映像解析部
112 映像選択部
DESCRIPTION OF SYMBOLS 101 Optical system 102 Image pick-up element 103 Image processing LSI
104 signal recording unit 105 light field image processing unit 106 focus control unit 107 image sensor control unit 108 system control unit 109 display unit 111 video analysis unit 112 video selection unit

Claims (8)

焦点距離が異なる光学系を含む複数の撮像レンズにそれぞれ対応する複数の撮像素子から得られる複数の画像を処理する画像処理装置であって、
前記複数の画像から特定の被写体を検出する検出手段と、
前記検出手段によって前記複数の画像から前記特定の被写体が検出されると、前記特定の被写体が検出された画像のうち最も焦点距離が長い最望遠で得られた画像を表示部に表示する表示制御手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that processes a plurality of images obtained from a plurality of imaging elements respectively corresponding to a plurality of imaging lenses including optical systems having different focal lengths ,
Detecting means for detecting a specific subject from the plurality of images;
When the specific object is detected from the plurality of images by the detection means, display control for displaying on the display unit an image obtained at the maximum telephoto with the longest focal length among the images in which the specific object is detected Means,
An image processing apparatus comprising:
前記検出手段は、前記複数の撮像素子から得られる画像のうち最も焦点距離の短い最広角で得られた画像において特定の被写体を検出していることを特徴とする請求項に記載の画像処理装置。 The detecting device, the image processing according to claim 1, characterized in that detects the specific subject in the most short focal length image obtained at the top angle of the images obtained from said plurality of imaging elements apparatus. 前記複数の画像から前記特定の被写体が検出されないと、前記表示制御手段は、前記最広角で得られた画像を前記表示部に表示することを特徴とする請求項1又は2に記載の画像処理装置。 3. The image processing according to claim 1, wherein if the specific subject is not detected from the plurality of images , the display control unit displays the image obtained at the widest angle on the display unit. apparatus. 前記検出手段によって前記画像において前記特定の被写体が検出された状態で当該画像に未だ前記特定の被写体が存在するか否かを判定する判定手段を有し、
前記判定手段によって前記画像に前記特定の被写体が存在しないと判定された場合に、前記画像が最広角で得られた画像であると、前記表示制御手段は前記最広角の画像を前記表示部に表示することを特徴とする請求項に記載の画像処理装置。
Determining means for determining whether or not the specific subject still exists in the image in a state where the specific subject is detected in the image by the detecting unit;
When the determination unit determines that the specific subject does not exist in the image, the display control unit displays the image at the widest angle on the display unit when the image is an image obtained at the widest angle. The image processing apparatus according to claim 3 , wherein the image processing apparatus displays the image.
前記判定手段によって前記画像に前記特定の被写体が存在する判定された場合に、前記表示制御手段は、前記特定の被写体を拡大した画像を前記表示部に表示することを特徴とする請求項に記載の画像処理装置。 5. The display control unit according to claim 4 , wherein when the determination unit determines that the specific subject exists in the image, the display control unit displays an enlarged image of the specific subject on the display unit. The image processing apparatus described. 前記複数の撮像レンズと、
前記複数の撮像素子と、
を有することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
The plurality of imaging lenses;
The plurality of image sensors;
The image processing apparatus according to claim 1, further comprising:
焦点距離が異なる光学系を含む複数の撮像レンズにそれぞれ対応する複数の撮像素子から得られる複数の画像を処理する画像処理装置の制御方法であって、
前記複数の画像から特定の被写体を検出する検出ステップと、
前記検出ステップで前記複数の画像から前記特定の被写体が検出されると、前記特定の被写体が検出された画像のうち最も焦点距離が長い最望遠で得られた画像を表示部に表示する表示制御ステップと、
を有することを特徴とする制御方法。
A control method for an image processing apparatus that processes a plurality of images obtained from a plurality of imaging elements respectively corresponding to a plurality of imaging lenses including optical systems having different focal lengths ,
A detection step of detecting a specific subject from the plurality of images;
When the specific subject is detected from the plurality of images in the detection step, display control for displaying on the display unit an image obtained at the maximum telephoto with the longest focal length among images in which the specific subject is detected Steps,
A control method characterized by comprising:
焦点距離が異なる光学系を含む複数の撮像レンズにそれぞれ対応する複数の撮像素子から得られる複数の画像を処理する画像処理装置で用いられる制御プログラムであって、
前記画像処理装置が備えるコンピュータに、
前記複数の画像から特定の被写体を検出する検出ステップと、
前記検出ステップで前記複数の画像から前記特定の被写体が検出されると、前記特定の被写体が検出された画像のうち最も焦点距離が長い最望遠で得られた画像を表示部に表示する表示制御ステップと、
を実行させることを特徴とする制御プログラム。
A control program used in an image processing apparatus for processing a plurality of images obtained from a plurality of imaging elements respectively corresponding to a plurality of imaging lenses including optical systems having different focal lengths ,
In the computer provided in the image processing apparatus,
A detection step of detecting a specific subject from the plurality of images;
When the specific subject is detected from the plurality of images in the detection step, display control for displaying on the display unit an image obtained at the maximum telephoto with the longest focal length among images in which the specific subject is detected Steps,
A control program characterized by causing
JP2013217690A 2013-10-18 2013-10-18 Image processing apparatus, control method thereof, and control program Active JP6202982B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013217690A JP6202982B2 (en) 2013-10-18 2013-10-18 Image processing apparatus, control method thereof, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013217690A JP6202982B2 (en) 2013-10-18 2013-10-18 Image processing apparatus, control method thereof, and control program

Publications (3)

Publication Number Publication Date
JP2015080168A JP2015080168A (en) 2015-04-23
JP2015080168A5 JP2015080168A5 (en) 2016-12-01
JP6202982B2 true JP6202982B2 (en) 2017-09-27

Family

ID=53011244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013217690A Active JP6202982B2 (en) 2013-10-18 2013-10-18 Image processing apparatus, control method thereof, and control program

Country Status (1)

Country Link
JP (1) JP6202982B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6283329B2 (en) * 2015-05-26 2018-02-21 株式会社オプティム Augmented Reality Object Recognition Device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7683962B2 (en) * 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
JP4759082B2 (en) * 2009-11-18 2011-08-31 富士フイルム株式会社 Compound eye imaging device
JP6112824B2 (en) * 2012-02-28 2017-04-12 キヤノン株式会社 Image processing method and apparatus, and program.

Also Published As

Publication number Publication date
JP2015080168A (en) 2015-04-23

Similar Documents

Publication Publication Date Title
EP3328055B1 (en) Control method, control device and electronic device
TWI465107B (en) Image capturing apparatus capable of displaying live preview image
JP6838994B2 (en) Imaging device, control method and program of imaging device
JP5676988B2 (en) Focus adjustment device
US9208569B2 (en) Image processing apparatus and control method thereof capable of performing refocus calculation processing for light field data
JP4780205B2 (en) Imaging device, angle of view adjustment method, and program
JP2009284394A (en) Imaging apparatus and imaging method
US20120057034A1 (en) Imaging system and pixel signal readout method
JP2011101159A (en) Electronic camera
JP2018174502A (en) Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program
JP6095266B2 (en) Image processing apparatus and control method thereof
JP6752685B2 (en) Imaging equipment, imaging methods and programs
JPWO2013035427A1 (en) Stereoscopic imaging apparatus and method
JP6103969B2 (en) Imaging apparatus, control method thereof, and program
JP3551932B2 (en) Distance measuring device and imaging device using the same
JP2011040990A (en) Imaging apparatus
JP2009058762A (en) Imaging apparatus
JP6202982B2 (en) Image processing apparatus, control method thereof, and control program
JP5915720B2 (en) Imaging device
JP6226536B2 (en) Imaging apparatus and control method thereof
JP6257316B2 (en) Imaging apparatus and control method thereof
JP6479149B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGE PROCESSING DEVICE
JP6757245B2 (en) Video playback device, imaging device, video playback method and program
JP2015139018A (en) Electronic apparatus and control program
JP6355324B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161017

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170829

R151 Written notification of patent or utility model registration

Ref document number: 6202982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151