JP6202982B2 - Image processing apparatus, control method thereof, and control program - Google Patents
Image processing apparatus, control method thereof, and control program Download PDFInfo
- Publication number
- JP6202982B2 JP6202982B2 JP2013217690A JP2013217690A JP6202982B2 JP 6202982 B2 JP6202982 B2 JP 6202982B2 JP 2013217690 A JP2013217690 A JP 2013217690A JP 2013217690 A JP2013217690 A JP 2013217690A JP 6202982 B2 JP6202982 B2 JP 6202982B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- images
- specific subject
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Cameras In General (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Description
本発明は、画像処理装置、その制御方法、および制御プログラムに関し、特に、デジタル一眼レフカメラ、デジタルスチルカメラ、又はデジタルビデオカメラなどの画像処理装置に関する。 The present invention relates to an image processing apparatus, its control method, and a control program, in particular, relates a digital single-lens reflex camera, the image processing equipment such as a digital still camera or digital video camera.
近年、コンピュテーショナルフォトグラフィ(Computational Photography)が搭載された撮像装置が開発されている。このコンピュテーショナルフォトグラフィでは、画像の輝度および色に関するデータ(つまり、画像データ)の他に、撮像素子から他の情報(他のデータ)を取り込んで、当該他のデータを画像データとともに保存して、画像処理LSIで様々な処理を行う。 2. Description of the Related Art In recent years, imaging devices equipped with computational photography (Computational Photography) have been developed. In this computational photography, in addition to data relating to brightness and color of an image (that is, image data), other information (other data) is taken from the image sensor, and the other data is stored together with the image data. Various processes are performed by the image processing LSI.
上述の他のデータとして、例えば、被写体からの光の入射角度に関するデータおよび奥行きに関するデータがある。そして、これら他のデータを用いて、被写体を撮像した際に一意に決定されたフォーカス、アイリスによる被写界深度、および焦点距離などを画像処理で正確に再現している。 As other data described above, for example, there are data related to the incident angle of light from the subject and data related to depth. Then, using these other data, the focus, the depth of field by the iris, the focal distance, and the like that are uniquely determined when the subject is imaged are accurately reproduced by image processing.
なお、この他のデータは、一般に被写体のライトフィールドと呼ばれる光線情報であり、この光線情報を用いれば、従来の撮像装置では実現できなかった機能を有する撮像装置を得ることができ、例えば、上記の光線情報を用いて、撮像の結果得られた画像データについて画像処理によってフォーカス位置を変更できることができる。 The other data is light ray information generally called a light field of a subject. Using this light ray information, an imaging device having a function that cannot be realized by a conventional imaging device can be obtained. Using this ray information, the focus position can be changed by image processing for image data obtained as a result of imaging.
ここで、ライトフィールド(光線情報)を取得する一例として多視点で画像データを得る場合について概説する。 Here, an outline of obtaining image data from multiple viewpoints as an example of acquiring a light field (light ray information) will be described.
いま、1台の撮像装置を用いて焦点距離を変更して複数の画像データを取得する。そして、これら画像データを合成して1枚の画像データとすると、当該画像データに含まれるライトフィールドを用いて、画像処理によって画像データにおける焦点距離を変更することができる。 Now, a plurality of image data are acquired by changing the focal length using a single imaging device. When these image data are combined into one image data, the focal length in the image data can be changed by image processing using the light field included in the image data.
さらに、撮像装置を水平又は垂直に移動させつつ、複数枚の画像データを取得すれば、これら画像データにおける視差に応じて被写体の距離を示す距離情報を得ることができる。 Furthermore, if a plurality of pieces of image data are acquired while moving the imaging apparatus horizontally or vertically, distance information indicating the distance of the subject can be obtained according to the parallax in these image data.
上述の手法では、一台の撮像装置(つまり、撮像素子)を用いているので、動的な被写体に対してライトフィールドを有効に取得することができないというデメリットがある。 The above-described method has a demerit that a light field cannot be effectively acquired for a dynamic subject because a single imaging device (that is, an imaging device) is used.
このようなデメリットを補いつつ、多視点で画像を取得するため、撮像素子又は撮像装置そのものを複数用いることが行われている(特許文献1参照)。ここでは、撮像素子又は撮像装置をアレイ状に複数配置して、撮像の結果得られる複数の画像データについて同時性を付与して、ライトフィールドに係る情報量を増やして、動的な被写体についてもライトフィールドを有効に取得するようにしている。 In order to acquire images from multiple viewpoints while compensating for such disadvantages, a plurality of imaging elements or imaging devices themselves are used (see Patent Document 1). Here, a plurality of imaging elements or imaging devices are arranged in an array, and a plurality of pieces of image data obtained as a result of imaging are given simultaneity to increase the amount of information related to the light field. The light field is acquired effectively.
ところが、特許文献1に記載の手法では、複数の撮像素子又は撮像装置が必要となる結果、不可避的に消費電力が増大するばかりでなく、撮像装置又は撮像システムそのものが大型化してしまう。
However, the technique described in
加えて、ライトフィールドを取得する撮像装置においては、ユーザに対してどのような画像を表示すればよいかという問題がある。例えば、従来の撮像装置では、特定の人物の動きを記録するため当該人物を追尾したい場合には、その人物を検出(顔などを検出)して、ユーザがその被写体を追尾しやすい位置にズームを行っている。 In addition, the imaging device that acquires the light field has a problem of what kind of image should be displayed to the user. For example, in a conventional imaging apparatus, when a person is desired to be tracked in order to record the movement of a specific person, the person is detected (a face or the like is detected) and zoomed to a position where the user can easily track the subject. It is carried out.
一方、ライトフィールドを取得する撮像装置では、画像処理によってズーム位置、フォーカス位置、および被写界深度が変更されるので、どのような画像を出力(つまり、表示)すればユーザの意図する画像となるか分からないという問題がある。 On the other hand, in an imaging device that acquires a light field, the zoom position, focus position, and depth of field are changed by image processing, so what kind of image is output (that is, displayed) There is a problem of not knowing.
このように、ライトフィールドを取得する撮像装置においては、ユーザがどのような画画像を得たいか、つまり、ユーザが認識する主被写体を判定して画像を出力する必要がある。 As described above, in an imaging apparatus that acquires a light field, it is necessary to determine what image the user wants to obtain, that is, determine the main subject recognized by the user and output the image.
従って、本発明の目的は、撮影の際にライトフィールドを取得する際、ユーザが被写体を精度よく認識することのできる画像処理装置、その制御方法、および制御プログラムを提供することにある。 Accordingly, it is an object of the present invention to provide an image processing apparatus, a control method thereof, and a control program that allow a user to accurately recognize a subject when acquiring a light field during shooting.
上記の目的を達成するため、本発明による画像処理装置は、焦点距離が異なる光学系を含む複数の撮像レンズにそれぞれ対応する複数の撮像素子から得られる複数の画像を処理する画像処理装置であって、前記複数の画像から特定の被写体を検出する検出手段と、前記検出手段によって前記複数の画像から前記特定の被写体が検出されると、前記特定の被写体が検出された画像のうち最も焦点距離が長い最望遠で得られた画像を表示部に表示する表示制御手段と、を有することを特徴とする。 In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that processes a plurality of images obtained from a plurality of imaging elements respectively corresponding to a plurality of imaging lenses including optical systems having different focal lengths. Te, detection means for detecting a specific subject from the plurality of images, if the specific subject from the plurality of images by the detecting means is detected, the most focal length of the image that the specific subject is detected Display control means for displaying on the display unit an image obtained with a long maximum telephoto .
本発明による制御方法は、焦点距離が異なる光学系を含む複数の撮像レンズにそれぞれ対応する複数の撮像素子から得られる複数の画像を処理する画像処理装置の制御方法であって、前記複数の画像から特定の被写体を検出する検出ステップと、前記検出ステップで前記複数の画像から前記特定の被写体が検出されると、前記特定の被写体が検出された画像のうち最も焦点距離が長い最望遠で得られた画像を表示部に表示する表示制御ステップと、を有することを特徴とする。 The control method according to the present invention is a control method for an image processing apparatus that processes a plurality of images obtained from a plurality of imaging elements respectively corresponding to a plurality of imaging lenses including optical systems having different focal lengths. A detection step of detecting a specific subject from the plurality of images, and when the specific subject is detected from the plurality of images in the detection step, the image obtained with the longest focal length among the images in which the specific subject is detected is obtained. And a display control step for displaying the received image on the display unit.
本発明による制御プログラムは、焦点距離が異なる光学系を含む複数の撮像レンズにそれぞれ対応する複数の撮像素子から得られる複数の画像を処理する画像処理装置で用いられる制御プログラムであって、前記画像処理装置が備えるコンピュータに、前記複数の画像から特定の被写体を検出する検出ステップと、前記検出ステップで前記複数の画像から前記特定の被写体が検出されると、前記特定の被写体が検出された画像のうち最も焦点距離が長い最望遠で得られた画像を表示部に表示する表示制御ステップと、を実行させることを特徴とする。 A control program according to the present invention is a control program used in an image processing apparatus that processes a plurality of images obtained from a plurality of imaging elements respectively corresponding to a plurality of imaging lenses including optical systems having different focal lengths. a computer processing apparatus comprising: a detection step of detecting a specific subject from the plurality of images, if the specific subject from the plurality of images by the detecting step is detected, the specific subject is detected image And a display control step for displaying an image obtained at the maximum telephoto distance with the longest focal length on the display unit.
本発明によれば、画像において被写体が検出されると、被写体が検出された画像のうち被写体が最も大きい画像を表示部に表示するようにしたので、ユーザは被写体を良好に認識することができる。その結果、ユーザは容易に被写体の撮影を行うことができる。 According to the present invention, when the subject is detected in the image, the image having the largest subject among the images in which the subject is detected is displayed on the display unit, so that the user can recognize the subject satisfactorily. . As a result, the user can easily photograph the subject.
以下、本発明の実施の形態による画像処理装置の一例について図面を参照して説明する。 Hereinafter, an example of an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
[第1の実施形態]
図1は、本発明の第1の実施形態による画像処理装置の一例である撮像装置についてその外観を説明するための図である。そして、図1(a)は外観を示す斜視図であり、図1(b)は撮影レンズ部を正面から示す図である。
[First Embodiment]
FIG. 1 is a diagram for explaining the external appearance with the imaging equipment, which is an example of an image processing apparatus according to a first embodiment of the present invention. FIG. 1A is a perspective view showing the appearance, and FIG. 1B is a view showing the photographing lens unit from the front.
図示の撮像装置100は、所謂ビデオカメラ(以下単にカメラと呼ぶ)であり、カメラ100は、カメラ筐体201の前面には撮像レンズ部202が配置されている。この撮影レンズ部202には、例えば、16個の開口部が形成されており、これら開口部の各々には撮影レンズユニット(以下単に撮影レンズと呼ぶ)203が配置されている。そして、撮影レンズの後段には撮像センサ(図示せず)は配置され、この撮像センサは、撮影レンズに対応する撮像素子を有している。
The illustrated
なお、図示のように、カメラ筐体201の側面には、表示部109が開閉可能に配置されている。また、図示の例では、カメラ筐体201に配置された記録ボタン(つまり、シャッタボタンおよび電源スイッチなどを省略されている。
As shown in the figure, a
図示はしないが、撮像素子の各々において、その受光面(撮像面ともいう)には、複数のマイクロレンズから構成されるマイクロレンズアレイが配置されている。このマイクロレンズアレイによって撮像素子の受光面における光の強度分布に加えて、その光の進行方向に係る情報(つまり、ライトフィールドデータ)を得る。そして、図示のカメラでは、撮像の後、ライトフィールドデータによって、任意の視点又は任意の焦点に設定された画像を再構築する。 Although not shown, in each of the imaging elements, a microlens array including a plurality of microlenses is disposed on a light receiving surface (also referred to as an imaging surface). In addition to the light intensity distribution on the light receiving surface of the image sensor, information related to the light traveling direction (that is, light field data) is obtained by the microlens array. In the illustrated camera, after imaging, an image set at an arbitrary viewpoint or an arbitrary focus is reconstructed by light field data.
前述の複数の撮像素子は同一の平面上にアレイ状(つまり、2次元マトリックス状)に配列されており、その個数はライトフィールドデータを得るために必要な個数であって、図示の例では、16個の撮像素子が同一平面上に配列されている。 The plurality of image sensors described above are arranged in an array (that is, a two-dimensional matrix) on the same plane, and the number thereof is a number necessary for obtaining light field data. Sixteen image sensors are arranged on the same plane.
図1(b)に示すように、16個の撮像素子は4つのグループ”1”〜”4”に分けられており、撮像レンズ203による焦点距離がグループ毎に制御される。図示の例では、グループ”1”の焦点距離は”A”、グループ”2”の焦点距離は”B”、グループ”2”の焦点距離は”C”、グループ”4”の焦点距離は”D”とされる。そして、焦点距離Aはワイド(Wide)側となり、焦点距離Dはテレ(Tele)側となる。
As shown in FIG. 1B, the 16 imaging elements are divided into four groups “1” to “4”, and the focal length by the
このようにして、グループ毎に焦点距離を変えて、複数の画角で画像データを得れば、後述するライトフィールド画像処理部によって任意の焦点距離の画像データを得ることができる。さらに、同一の焦点距離である撮像素子が複数(図示の例では4刃をつ)存在するので、光の視差を用いて、被写体の距離を示す距離情報を得ることができる。そして、当該距離情報を用いれば、ピント位置および背景のぼかしの調整を行って、画像データにおける被写界深度を制御することができる。 In this way, if the focal length is changed for each group and image data is obtained at a plurality of angles of view, image data with an arbitrary focal length can be obtained by a light field image processing unit described later. Furthermore, since there are a plurality of imaging elements having the same focal length (four blades in the illustrated example), distance information indicating the distance of the subject can be obtained using the parallax of light. If the distance information is used, the depth of field in the image data can be controlled by adjusting the focus position and background blur.
図2は、図1に示すカメラを説明するためのブロック図である。そして、図2(a)は、その構成を示すブロック図であり、図2(b)は図2(a)に示す画像処理LSIの構成を示すブロック図である。 FIG. 2 is a block diagram for explaining the camera shown in FIG. FIG. 2A is a block diagram showing the configuration, and FIG. 2B is a block diagram showing the configuration of the image processing LSI shown in FIG.
図2(a)においては、図2(a)に示す撮像レンズ部202が光学系101で示されており、光学系101は被写体からの光(つまり、光学像)を撮像素子102の受光面に結像する。この光学系101(つまり、各撮像レンズ)には、例えば、ピント位置を調整するためのフォーカスレンズ、入射光を制御するアイリス部、および焦点距離を変更するためのズームレンズ部が備えられている。
In FIG. 2A, the
前述のように、複数の撮像素子102は所謂ライトフィールドデータを取得するため平面上にアレイ状に配列されており、撮像素子102の各々は光学像に応じた電気信号(アナログ信号)を出力する。撮像素子102の出力であるアナログ信号は画像処理LSI103に与えられる。
As described above, the plurality of
なお、撮像素子102として、例えば、CCDイメージセンサー(Charge Coupled Device)又はCMOSイメージセンサーが用いられる。
As the
また、上述の例では、撮像素子102は画像信号としてアナログ信号を出力としたが、撮像素子102においてA/D変換処理を行って、LVDS(Low voltage differential signaling)などのデジタル信号を出力するようにしてもよい。
In the above example, the
図示はしないが、画像処理LSI103は、アナログフロントインド部および画像処理ブロックを備えており、アナログフロントエンド部は撮像素子102の出力であるアナログ信号をデジタル信号に変換する。そして、画像処理ブロックは当該デジタル信号に対して各種の画像処理を行って画像データを生成する。
Although not shown, the
なお、撮像素子102においてA/D変換処理が行われる場合には、アナログフロントエンド部は省略される。
Note that when the A / D conversion process is performed in the
画像処理ブロックは、画像処理として所謂画素加算処理、ノイズリダクション処理、ガンマ補正処理、ニー処理、およびデジタルゲイン処理などを行うとともに、キズ補正処理を行う。なお、撮像素子102がCMOSイメージセンサーである場合には、画像処理ブロックはCMOSイメージセンサー特有の固定パターンノイズの除去および黒レベルクランプ処理などを行う。また、画像処理LSI103には、画像処理などに必要な設定値を記憶する記憶回路(図示せず)を備えている。
The image processing block performs so-called pixel addition processing, noise reduction processing, gamma correction processing, knee processing, digital gain processing, and the like as image processing, and also performs scratch correction processing. If the
画像処理LSIの出力である画像データの全てが信号記録部104に記録され、さらに、後述するように、画像処理LSIの出力である画像データの1つがライトフィールド画像処理部105に与えられる。この信号記録部104には上述のライトフィールドデータも記録される。
All of the image data that is the output of the image processing LSI is recorded in the
なお、信号記録部104として、例えば、HDD(ハードディスクドライブ)、SDメモリーカード、又はコンパクトフラッシュ(登録商標)メモリーカードが用いられる。
As the
ライトフィールド画像処理部105は、システム制御部108の制御下で、画像データに付加されたライトフィールドデータに応じて、画像データに後述する画像処理を施してライトフィールド画像データとして出力する。そして、このライトフィード画像データは表示部109に送られる。
Under the control of the
例えば、ライトフィールド画像処理部105はライトフィールドデータに応じて、画像データに対して光学系のピント位置、ズーム位置、および被写界深度調整など画像処理を行う。
For example, the light field
フォーカス制御部106は、システム制御部108の制御下で、光学系101に備えられたフォーカス機構(つまり、フォーカスレンズ)を制御してピント位置を調節する。
The
撮像素子制御部107は、システム制御部107の制御下で各撮像素子102の制御を行う。例えば、撮像素子制御部107は、システム制御部108の制御下で撮像素子102の露光時間を決定して撮像素子102を駆動制御する。
The image sensor control unit 107 controls each
システム制御部108は、カメラ全体の制御を司り、例えば、画像処理LSI103から露出情報を受けて、当該露出情報に応じてカメラの露出を制御する。この際には、システム制御部108は露出情報に応じてフォーカス制御部106および撮像素子制御部107を制御して、前述のように、フォーカスレンズを駆動制御するとともに、撮像素子102を駆動する。
The
表示部109には、カメラによって得られた画像データに応じた画像が表示される。この表示部109は、例えば、外部のモニター、カメラに付属する液晶モニター、又はビューファインダーである。
The
図2(b)に示すように、画像処理LSI103は、複数の映像解析部111および映像選択部112を有しており、映像解析部111の出力は信号記録部104に接続されるとともに映像選択部112に接続されている。そして、映像選択部112の出力はライトフィールド画像処理部105に与えられる。なお、映像解析部111はそれぞれ撮像素子102に対応している。
As shown in FIG. 2B, the
画像処理LSI103には、複数の撮像素子102の出力である画像信号が入力される。そして、映像解析部103の出力である画像データの全てが信号記録部104に記録される。
The
映像解析部111の各々は、画像信号(つまり、デジタル信号)が示す画像を解析して主被写体(ここでは、例えば、顔)を検出する。そして、映像解析部111の各々はその解析結果(つまり、主被写体検出結果)をシステム制御部108に送る。
Each of the
システム制御部108は解析結果に応じて映像選択部112を制御して、映像解析部111による画像処理の結果得られた画像データの1つを選択して、ライトフィールド画像処理部105に送る。つまり、システム制御部108は解析結果に応じて、いずれの撮像素子102で得られた画像データに応じた画像を表示部109に表示するかを決定する。そして、システム制御部108は映像選択部112を制御して、最も表示に適した画像データを選択して、ライトフィールド画像処理部105に出力する。
The
図3は、図2に示すカメラにおける表示処理を説明するためのフローチャートである。なお、図3に示すフローチャートに係る処理は、システム制御部108の制御下で行われる。
FIG. 3 is a flowchart for explaining display processing in the camera shown in FIG. Note that the processing according to the flowchart shown in FIG. 3 is performed under the control of the
表示処理が開始されると、システム制御部108はユーザによって顔検出モードが設定されたか否かを判定する(ステップS1)。
When the display process is started, the
なお、ステップS1においては、人間の顔を検出する顔検出モードの他に、人体を検出する人体検出モード又はペットなどを検出するペット検出モータが設定されているか否かを判定するようにしてもよい。システム制御部108は、これらのモードのいずれかが設定されているかに応じて、ユーザがどのような被写体を撮影するかを判定して、フォーカス制御および露出制御を行うことになる。
In step S1, it is determined whether a human body detection mode for detecting a human body or a pet detection motor for detecting a pet is set in addition to the face detection mode for detecting a human face. Good. The
顔検出モードが設定されていると(ステップS1において、YES)、システム制御部108は映像解析部111を制御して、最も焦点距離が短くかつ最広角である撮像素子の出力を解析する(ステップS2)。そして、システム制御部108は当該解析結果に応じて画像に主被写体が存在するか否かを判定する(ステップS3)。
When the face detection mode is set (YES in step S1), the
画像に主被写体が存在すると(ステップS3において、YES)、システム制御部108は主被写体が存在する画像を出力する撮像素子102のうち最も焦点距離の長い(望遠側)撮像素子102を決定する。そして、システム制御部108はその決定結果に応じて映像選択部112を制御して、望遠側の撮像素子102の出力である画像データを選択してライトフィールド画像処理部105に与える(ステップS4)。
When the main subject exists in the image (YES in step S3), the
これによって、ライトフィールド画像処理部105で画像処理された望遠側の画像データが表示部109に送られて表示される(ステップS6)。表示部109に画像が表示されると、システム制御部108は表示処理を終了する。
As a result, the telephoto image data processed by the light field
顔検出モードが設定されていないと(ステップS1において、NO)、システム制御部108は映像選択部112を制御して最広角である撮像素子の出力に応じた画像データをライトフィールド画像処理部105に出力する(ステップS6)。そして、システム制御部108はステップS6の処理に進む。
If the face detection mode is not set (NO in step S1), the
なお、画像に主被写体が存在しないと(ステップS3において、NO)、システム制御部108はステップS6の処理に進む。
If there is no main subject in the image (NO in step S3),
このように、本発明の第1の実施形態では、最も広角の焦点距離である撮像素子の出力を用いて主被写体を検出する。そして、主被写体を検出すると、当該主被写体が最も大きく写る焦点距離の撮像素子で得られた画像を表示部に出力する。この結果、主被写体を大きく、しかも鮮明に表示することができる。 As described above, in the first embodiment of the present invention, the main subject is detected by using the output of the image sensor having the widest focal length. Then, when the main subject is detected, an image obtained by the image pickup element having the focal length at which the main subject is the largest is output to the display unit. As a result, the main subject can be displayed large and clear.
一方、主被写体が検出できないと、最広角の撮像素子で得られた画像を表示部に表示する。これによって、ユーザには後で編集可能な最も広い画角の画像を表示することができる。 On the other hand, if the main subject cannot be detected, an image obtained by the widest-angle image sensor is displayed on the display unit. As a result, the user can display an image with the widest angle of view that can be edited later.
なお、ステップS1において顔検出モードなどの被写体を検出するモードは、例えば、表示部109に備えられたタッチパネルを用いて設定される。また、ステップS6においては、最広角の撮像素子で得られた画像以外の画像を出力するようにしてもよい。
Note that the mode for detecting the subject such as the face detection mode in step S1 is set using a touch panel provided in the
[第2の実施形態]
続いて、本発明の第2の実施形態に係るカメラの一例について説明する。なお、第2の実施形態によるカメラの構成は、図1および図2に示すカメラと同様である。
[Second Embodiment]
The following describes one case of a camera according to a second embodiment of the present invention. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIGS.
図4は、本発明の第2の実施形態によるカメラにおける表示処理を説明するためのフローチャートである。なお、図4に示すフローチャートに係る処理は、システム制御部108の制御下で行われる。
FIG. 4 is a flowchart for explaining display processing in the camera according to the second embodiment of the present invention. Note that the processing according to the flowchart shown in FIG. 4 is performed under the control of the
いま、表示処理が開始されて撮像素子102の出力(つまり、画像)において主被写体が検出されている状態であるものとする。システム制御部108は映像解析部111を制御して撮像素子102によって得られた画像を解析する(ステップS11)。そして、システム制御部108は当該解析結果に応じて主被写体(例えば、顔)が未だ検出されているか否かを判定する(ステップS12)。
Now, it is assumed that the display process is started and the main subject is detected in the output (that is, the image) of the
主被写体が検出されていると(ステップS12において、YES)、システム制御部108は撮像素子制御部107によって撮像素子102を駆動制御して主被写体を大きくするためのデジタルズームを行う(ステップS13)。そして、システム制御部108は映像選択部112を制御してデジタルズームされた画像をライトフィールド画像処理部105に与える。
When the main subject is detected (YES in step S12), the
これによって、ライトフィールド画像処理部105で画像処理された画像データが表示部109に送られて表示される(ステップS14)。表示部109に画像が表示されると、システム制御部108は表示処理を終了する。
As a result, the image data processed by the light field
例えば、主被写体が動いて、現時点における焦点距離の撮像素子102で得られた画像に主被写体が存在しないと、つまり、主被写体が検出されていないと(ステップS12において、NO)、システム制御部108は当該撮像素子が最広角の撮像素子であるか否かを判定する(ステップS15)。
For example, if the main subject moves and no main subject exists in the image obtained by the
いままで主被写体が存在していた画像が得られた撮像素子が最広角の撮像素子102でないと(ステップS15において、NO)、システム制御部108は次に焦点距離の短い撮像素子102で得られた画像を選択する(ステップS16)。そして、システム制御部108はステップS11の処理に戻って映像解析部101を制御して、次に焦点距離の短い撮像素子102で得られた画像を解析する。
If the image sensor from which the main subject has been captured is not the widest-angle image sensor 102 (NO in step S15), the
いままで主被写体が存在していた画像が得られた撮像素子102が最広角の撮像素子102であると(ステップS15において、YES)、システム制御部108は主被写体が存在する画像はないと判定して、映像選択部112を制御して最広角の撮像素子102で得られた画像の出力を継続する(ステップS17)。そして、システム制御部108はステップS14の処理に進む。
If the
このように、本発明の第2の実施形態では、主被写体の検出結果に応じて、望遠側の撮像素子102から広角側の撮像素子102にその画像を切り替える。そして、主被写体が検出された状態では当該主被写体を拡大して表示する。これによって、ユーザは拡大された主被写体を観察することができる結果、主被写体の撮影を容易に行うことができる。
Thus, in the second embodiment of the present invention, the image is switched from the
上述の説明から明らかなように、図2に示す例では、システム制御部108および映像解析部111が検出手段として機能し、システム制御部108、映像選択部112、およびライトフィールド画像処理部105が表示制御手段として機能する。また、映像解析部111およびシステム制御部108は判定手段として機能する。
As is clear from the above description, in the example shown in FIG. 2, the
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .
例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。 For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the image processing apparatus. In addition, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the image processing apparatus. The control program is recorded on a computer-readable recording medium, for example.
また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.
101 光学系
102 撮像素子
103 画像処理LSI
104 信号記録部
105 ライトフィールド画像処理部
106 フォーカス制御部
107 撮像素子制御部
108 システム制御部
109 表示部
111 映像解析部
112 映像選択部
DESCRIPTION OF
104
Claims (8)
前記複数の画像から特定の被写体を検出する検出手段と、
前記検出手段によって前記複数の画像から前記特定の被写体が検出されると、前記特定の被写体が検出された画像のうち最も焦点距離が長い最望遠で得られた画像を表示部に表示する表示制御手段と、
を有することを特徴とする画像処理装置。 An image processing apparatus that processes a plurality of images obtained from a plurality of imaging elements respectively corresponding to a plurality of imaging lenses including optical systems having different focal lengths ,
Detecting means for detecting a specific subject from the plurality of images;
When the specific object is detected from the plurality of images by the detection means, display control for displaying on the display unit an image obtained at the maximum telephoto with the longest focal length among the images in which the specific object is detected Means,
An image processing apparatus comprising:
前記判定手段によって前記画像に前記特定の被写体が存在しないと判定された場合に、前記画像が最広角で得られた画像であると、前記表示制御手段は前記最広角の画像を前記表示部に表示することを特徴とする請求項3に記載の画像処理装置。 Determining means for determining whether or not the specific subject still exists in the image in a state where the specific subject is detected in the image by the detecting unit;
When the determination unit determines that the specific subject does not exist in the image, the display control unit displays the image at the widest angle on the display unit when the image is an image obtained at the widest angle. The image processing apparatus according to claim 3 , wherein the image processing apparatus displays the image.
前記複数の撮像素子と、
を有することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The plurality of imaging lenses;
The plurality of image sensors;
The image processing apparatus according to claim 1, further comprising:
前記複数の画像から特定の被写体を検出する検出ステップと、
前記検出ステップで前記複数の画像から前記特定の被写体が検出されると、前記特定の被写体が検出された画像のうち最も焦点距離が長い最望遠で得られた画像を表示部に表示する表示制御ステップと、
を有することを特徴とする制御方法。 A control method for an image processing apparatus that processes a plurality of images obtained from a plurality of imaging elements respectively corresponding to a plurality of imaging lenses including optical systems having different focal lengths ,
A detection step of detecting a specific subject from the plurality of images;
When the specific subject is detected from the plurality of images in the detection step, display control for displaying on the display unit an image obtained at the maximum telephoto with the longest focal length among images in which the specific subject is detected Steps,
A control method characterized by comprising:
前記画像処理装置が備えるコンピュータに、
前記複数の画像から特定の被写体を検出する検出ステップと、
前記検出ステップで前記複数の画像から前記特定の被写体が検出されると、前記特定の被写体が検出された画像のうち最も焦点距離が長い最望遠で得られた画像を表示部に表示する表示制御ステップと、
を実行させることを特徴とする制御プログラム。 A control program used in an image processing apparatus for processing a plurality of images obtained from a plurality of imaging elements respectively corresponding to a plurality of imaging lenses including optical systems having different focal lengths ,
In the computer provided in the image processing apparatus,
A detection step of detecting a specific subject from the plurality of images;
When the specific subject is detected from the plurality of images in the detection step, display control for displaying on the display unit an image obtained at the maximum telephoto with the longest focal length among images in which the specific subject is detected Steps,
A control program characterized by causing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013217690A JP6202982B2 (en) | 2013-10-18 | 2013-10-18 | Image processing apparatus, control method thereof, and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013217690A JP6202982B2 (en) | 2013-10-18 | 2013-10-18 | Image processing apparatus, control method thereof, and control program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015080168A JP2015080168A (en) | 2015-04-23 |
JP2015080168A5 JP2015080168A5 (en) | 2016-12-01 |
JP6202982B2 true JP6202982B2 (en) | 2017-09-27 |
Family
ID=53011244
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013217690A Active JP6202982B2 (en) | 2013-10-18 | 2013-10-18 | Image processing apparatus, control method thereof, and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6202982B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6283329B2 (en) * | 2015-05-26 | 2018-02-21 | 株式会社オプティム | Augmented Reality Object Recognition Device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7683962B2 (en) * | 2007-03-09 | 2010-03-23 | Eastman Kodak Company | Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map |
JP4759082B2 (en) * | 2009-11-18 | 2011-08-31 | 富士フイルム株式会社 | Compound eye imaging device |
JP6112824B2 (en) * | 2012-02-28 | 2017-04-12 | キヤノン株式会社 | Image processing method and apparatus, and program. |
-
2013
- 2013-10-18 JP JP2013217690A patent/JP6202982B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015080168A (en) | 2015-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3328055B1 (en) | Control method, control device and electronic device | |
TWI465107B (en) | Image capturing apparatus capable of displaying live preview image | |
JP6838994B2 (en) | Imaging device, control method and program of imaging device | |
JP5676988B2 (en) | Focus adjustment device | |
US9208569B2 (en) | Image processing apparatus and control method thereof capable of performing refocus calculation processing for light field data | |
JP4780205B2 (en) | Imaging device, angle of view adjustment method, and program | |
JP2009284394A (en) | Imaging apparatus and imaging method | |
US20120057034A1 (en) | Imaging system and pixel signal readout method | |
JP2011101159A (en) | Electronic camera | |
JP2018174502A (en) | Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program | |
JP6095266B2 (en) | Image processing apparatus and control method thereof | |
JP6752685B2 (en) | Imaging equipment, imaging methods and programs | |
JPWO2013035427A1 (en) | Stereoscopic imaging apparatus and method | |
JP6103969B2 (en) | Imaging apparatus, control method thereof, and program | |
JP3551932B2 (en) | Distance measuring device and imaging device using the same | |
JP2011040990A (en) | Imaging apparatus | |
JP2009058762A (en) | Imaging apparatus | |
JP6202982B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP5915720B2 (en) | Imaging device | |
JP6226536B2 (en) | Imaging apparatus and control method thereof | |
JP6257316B2 (en) | Imaging apparatus and control method thereof | |
JP6479149B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGE PROCESSING DEVICE | |
JP6757245B2 (en) | Video playback device, imaging device, video playback method and program | |
JP2015139018A (en) | Electronic apparatus and control program | |
JP6355324B2 (en) | Imaging apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161017 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170829 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6202982 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |