JP2015103879A - Image processing apparatus and control method thereof - Google Patents

Image processing apparatus and control method thereof Download PDF

Info

Publication number
JP2015103879A
JP2015103879A JP2013241384A JP2013241384A JP2015103879A JP 2015103879 A JP2015103879 A JP 2015103879A JP 2013241384 A JP2013241384 A JP 2013241384A JP 2013241384 A JP2013241384 A JP 2013241384A JP 2015103879 A JP2015103879 A JP 2015103879A
Authority
JP
Japan
Prior art keywords
image processing
image
processing
imaging apparatus
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013241384A
Other languages
Japanese (ja)
Inventor
奥山 敦
Atsushi Okuyama
奥山  敦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013241384A priority Critical patent/JP2015103879A/en
Publication of JP2015103879A publication Critical patent/JP2015103879A/en
Pending legal-status Critical Current

Links

Landscapes

  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus which allow the photographer to confirm the effect of image processing by a plurality of images in real time.SOLUTION: An image processing apparatus (1) includes a first imaging unit (11) and a second imaging unit (21) having optical axes different from each other, image processing means (30) performing image processing for the image obtained from at least one of the first imaging unit and second imaging unit, display means (50) for displaying the image subjected to image processing by the image processing means, and recording means (60) for recording the image subjected to image processing by the image processing means. The image processing means performs first image processing when displaying an image in the display means, and performs second image processing of longer processing time than that of the first image processing when recording an image in the recording means.

Description

本発明は、複数の撮像系を有する撮像装置に関し、特に複眼の撮像装置の画像処理に関するものである。   The present invention relates to an imaging apparatus having a plurality of imaging systems, and more particularly to image processing of a compound-eye imaging apparatus.

特許文献1には、複数の撮像系で複数の画像を取得し、画像処理によって画像を加工する撮像装置が開示されている。   Patent Document 1 discloses an imaging apparatus that acquires a plurality of images with a plurality of imaging systems and processes the images by image processing.

特許文献2には、画像処理により画像にボケを付加する撮像装置が開示されている。ここで、特許文献2ではボケを付加する画像処理を付加した画像を、カメラのモニターにあたる電子ビューファインダーに表示する形態が開示されている。   Patent Document 2 discloses an imaging apparatus that adds blur to an image by image processing. Here, Patent Document 2 discloses a form in which an image to which image processing for adding blur is added is displayed on an electronic viewfinder corresponding to a camera monitor.

特開2007−288799号公報JP 2007-288799 A 特開2008−015754号公報JP 2008-015754 A

しかしながら、特許文献1では画像処理を画像の記録のときに行っており、カメラのモニターには撮影画像を表示する形態であったので、画像処理による効果を撮影者が確認することができなかった。また、特許文献2では撮影者は付加する画像処理の結果をモニターで確認することができるが、複雑な画像処理を行うために画像処理に時間がかかり、モニターに被写体の画像をリアルタイムで表示することが困難であった。このように、上述した特許文献に開示された従来技術では、撮影者は画像処理の効果をリアルタイムで確認することができなかった。   However, in Patent Document 1, image processing is performed at the time of recording an image, and since the photographed image is displayed on the camera monitor, the photographer cannot confirm the effect of the image processing. . In Patent Document 2, the photographer can check the result of the image processing to be added on the monitor. However, it takes time to perform complicated image processing, and the subject image is displayed on the monitor in real time. It was difficult. As described above, in the conventional technology disclosed in the above-described patent document, the photographer cannot confirm the effect of the image processing in real time.

本発明は、上記課題を鑑み、複数の画像による画像処理の効果を撮影者がリアルタイムに確認できる撮像装置およびその制御方法を提供することを例示的目的とする。   In view of the above problems, an object of the present invention is to provide an imaging apparatus and a control method for the imaging apparatus in which a photographer can confirm the effect of image processing using a plurality of images in real time.

本発明の一側面としての撮像装置は、互いに異なる光軸を有する第1の撮影ユニットおよび第2の撮影ユニットと、前記第1の撮影ユニットと前記第2の撮影ユニットのうち少なくとも一方から得られる画像に対し画像処理を行う画像処理手段と、前記画像処理手段により画像処理された画像を表示する表示手段と、前記画像処理手段により画像処理された画像を記録する記録手段と、を有し、前記画像処理手段は、前記表示手段に画像を表示する際は第1の画像処理を行い、前記記録手段に画像を記録する際は前記第1の画像処理の処理時間よりも処理時間が長い第2の画像処理を行う、ことを特徴とする。   An imaging apparatus according to an aspect of the present invention is obtained from at least one of a first imaging unit and a second imaging unit having different optical axes, and the first imaging unit and the second imaging unit. Image processing means for performing image processing on the image, display means for displaying the image processed by the image processing means, and recording means for recording the image processed by the image processing means, The image processing means performs first image processing when displaying an image on the display means, and has a processing time longer than the processing time of the first image processing when recording an image on the recording means. 2 image processing is performed.

本発明によれば、複数の画像による画像処理の効果を撮影者がリアルタイムに確認できる。   According to the present invention, a photographer can confirm the effect of image processing using a plurality of images in real time.

本発明の実施例にかかる撮像装置のブロック図である。It is a block diagram of the imaging device concerning the Example of this invention. 本発明の実施例にかかる撮像動作を説明する図である。It is a figure explaining the imaging operation concerning the Example of this invention. 本発明の実施例にかかる撮影画像の一例と距離情報マップの図である。It is a figure of an example of the picked-up image and distance information map concerning the Example of this invention. 第1の画像処理において距離情報マップに基づくブロックを統合した領域を表す図である。(実施例1)It is a figure showing the area | region which integrated the block based on a distance information map in 1st image processing. (Example 1) ブロックを統合した各領域における第1の画像処理を説明する図である。(実施例1)It is a figure explaining the 1st image processing in each field which integrated a block. (Example 1) 第1の画像処理により得られる画像の図である。(実施例1)It is a figure of the image obtained by 1st image processing. (Example 1) 本発明の実施例にかかる電子ズームを行う領域を示す図である。(実施例2)It is a figure which shows the area | region which performs the electronic zoom concerning the Example of this invention. (Example 2) 第1の画像処理において距離情報マップに基づくブロックを統合して領域を表す図である。(実施例2)It is a figure showing the area | region by integrating the block based on a distance information map in 1st image processing. (Example 2) ブロックを統合した各領域における第1の画像処理を説明する図である。(実施例2)It is a figure explaining the 1st image processing in each field which integrated a block. (Example 2) 第1の画像処理により得られる画像の図である。(実施例2)It is a figure of the image obtained by 1st image processing. (Example 2)

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明の実施例における撮像装置1のブロック図である。図1に示すように、本発明の実施例における撮像装置1は、第1の撮影ユニット11と、第2の撮影ユニット21を備える複眼撮像装置である。図中上段が第1の撮影ユニット11を示し、下段が第2の撮影ユニット21を示す。第1の撮影ユニット11と第2の撮影ユニット21は、互いに異なる光軸を有し、互いに共通する一部の被写体領域を撮像可能とする位置に設けられる。   FIG. 1 is a block diagram of an imaging apparatus 1 in an embodiment of the present invention. As shown in FIG. 1, the imaging device 1 in the embodiment of the present invention is a compound eye imaging device including a first imaging unit 11 and a second imaging unit 21. In the drawing, the upper part shows the first photographing unit 11, and the lower part shows the second photographing unit 21. The first photographing unit 11 and the second photographing unit 21 have optical axes different from each other, and are provided at positions where a part of a subject area that is common to each other can be imaged.

第1の撮影ユニット11は、第1の撮影レンズ12、第1の撮像素子13、第1の撮像回路14、第1のレンズ駆動装置15、第1のメモリ16等から成る。第2の撮影ユニット21は、第1の撮影ユニット11と同様に、第2の撮影レンズ22、第2の撮像素子23、第2の撮像回路24、第2のレンズ駆動装置25、第2のメモリ26等を有する。本実施例では、第1の撮影レンズ12および第2の撮影レンズ22は互いの光軸がほぼ平行になるように配置される。ここで、ほぼ平行とは、完全に平行な場合と、許容誤差の範囲内で完全に平行な場合からずれている場合とを含む意味である。以下の実施例においても同様である。   The first photographing unit 11 includes a first photographing lens 12, a first imaging element 13, a first imaging circuit 14, a first lens driving device 15, a first memory 16, and the like. Similar to the first imaging unit 11, the second imaging unit 21 includes a second imaging lens 22, a second imaging element 23, a second imaging circuit 24, a second lens driving device 25, and a second lens driving device 25. A memory 26 and the like are included. In the present embodiment, the first photographing lens 12 and the second photographing lens 22 are arranged so that their optical axes are substantially parallel to each other. Here, “substantially parallel” means that the case is completely parallel and the case where it is deviated from the case of being completely parallel within the allowable error range. The same applies to the following embodiments.

撮影レンズ(撮像光学系)12,22を介して撮像素子13,23の受光面に結像した被写体像は、撮像素子13,23において光電変換され、映像信号(画像信号)として順次読み出される。撮像素子13,23から読み出された映像信号は、A/D変換されR、G、Bの点順次のデジタル信号に変換されて出力される。   The subject images formed on the light receiving surfaces of the image sensors 13 and 23 via the imaging lenses (imaging optical systems) 12 and 22 are photoelectrically converted by the image sensors 13 and 23 and sequentially read out as video signals (image signals). Video signals read from the image sensors 13 and 23 are A / D converted, converted into R, G, and B dot-sequential digital signals and output.

制御回路30は撮像装置1全体を総括制御し、シャッター40やモード選択部41や操作部42から入力される各種入力信号に基づいて、該当する回路を制御する。ここで、モード選択部41は、撮影の条件(自動露出、絞り優先、シャッター優先など)や撮影画像の画像処理(被写体距離に基づく画像処理、色調変換、モノクロ化など)をユーザー(撮影者)が選択するための部材である。即ち、制御回路30は、撮像系の絞り、シャッター値を設定して露出制御を行い、ホワイトバランスを設定する。また、制御回路30は、レンズ駆動装置15,25を制御し、撮影レンズ12,22のフォーカス位置を設定する。この制御回路30は、画像処理回路と兼用されており、撮像回路14,24から出力される画像信号をモード選択部41および操作部42から信号に基づいてメモリ33の作業領域を利用して後述する被写体距離に基づく画像処理を行う。換言すれば、制御回路30は、第1の撮影ユニット11と第2の撮影ユニット21のうち少なくとも一方から得られる画像に対し画像処理を行う画像処理手段として機能する。   The control circuit 30 performs overall control of the entire imaging apparatus 1 and controls the corresponding circuit based on various input signals input from the shutter 40, the mode selection unit 41, and the operation unit 42. Here, the mode selection unit 41 determines the shooting conditions (automatic exposure, aperture priority, shutter priority, etc.) and image processing of the captured image (image processing based on subject distance, tone conversion, monochrome conversion, etc.) for the user (photographer). Is a member for selection. That is, the control circuit 30 sets the aperture and shutter value of the imaging system, performs exposure control, and sets the white balance. The control circuit 30 controls the lens driving devices 15 and 25 to set the focus positions of the photographing lenses 12 and 22. The control circuit 30 is also used as an image processing circuit, and will be described later using the work area of the memory 33 based on the image signals output from the imaging circuits 14 and 24 based on the signals from the mode selection unit 41 and the operation unit 42. Image processing based on the subject distance to be performed is performed. In other words, the control circuit 30 functions as an image processing unit that performs image processing on an image obtained from at least one of the first photographing unit 11 and the second photographing unit 21.

距離情報取得回路31は、デジタル信号に変換された2つの映像信号から、特徴点対応処理などにより画面上の視差(画素ズレ)を検出する。また、第1の撮影ユニット11と第2の撮影ユニット21の光軸の幅(基線長)から、被写体の距離を計算して距離情報マップを作成する。換言すれば、距離情報取得回路31は、第1の撮影ユニット11および第2の撮影ユニット21から得られる2つの画像信号に基づいて被写体距離を算出する算出手段として機能する。また、算出された被写体距離に基づいて距離情報マップを生成する生成手段として機能する。   The distance information acquisition circuit 31 detects parallax (pixel shift) on the screen from the two video signals converted into digital signals by feature point correspondence processing or the like. Further, the distance information map is created by calculating the distance of the subject from the width (base line length) of the optical axes of the first photographing unit 11 and the second photographing unit 21. In other words, the distance information acquisition circuit 31 functions as a calculation unit that calculates the subject distance based on two image signals obtained from the first photographing unit 11 and the second photographing unit 21. Also, it functions as a generating unit that generates a distance information map based on the calculated subject distance.

被写体距離に基づく画像処理は、撮影レンズを介して撮像した画像を電気的な処理で加工することであるが、画像を記録するときだけでなく、記録する前にも画像処理の効果を確認できるとよい。そのために、被写体距離に基づく画像処理に、簡易的な画像処理で演算時間の短い第1の画像処理と厳密な画像処理で演算時間の長い第2の画像処理の2つの方法を用意する。本発明では、後述するように、液晶モニター50に画像を表示する際は第1の画像処理を行い、外部記憶装置60に画像を記録する際は該第1の画像処理の処理時間よりも処理時間が長い第2の画像処理を行う。   Image processing based on subject distance is the processing of an image captured through a taking lens by electrical processing, but the effect of image processing can be confirmed not only when recording an image but also before recording. Good. For this purpose, two methods are prepared for the image processing based on the subject distance: the first image processing with a short calculation time by simple image processing and the second image processing with a long calculation time by strict image processing. In the present invention, as will be described later, the first image processing is performed when an image is displayed on the liquid crystal monitor 50, and the processing time is longer than the processing time of the first image processing when the image is recorded in the external storage device 60. Second image processing with a long time is performed.

画像再生装置32は、距離情報マップに基づいて処理された画像データを制御回路(画像処理回路)30において第1の画像処理されたのち画像表示手段である液晶モニター50に供給する。こうして、撮像素子で捉えた映像が液晶モニター50の画面に表示される。換言すれば、液晶モニター50は、第1の画像処理された画像を表示する表示手段として機能する。   The image reproducing device 32 supplies the image data processed based on the distance information map to the liquid crystal monitor 50 which is an image display means after the first image processing in the control circuit (image processing circuit) 30. In this way, an image captured by the image sensor is displayed on the screen of the liquid crystal monitor 50. In other words, the liquid crystal monitor 50 functions as a display unit that displays the first image processed image.

シャッター40の押圧操作等によって発せられる撮影開始信号を受信する前は、液晶モニター50に(例えば、第1の画像処理が施された)プレビュー画像が表示され、撮影開始信号を受信すると液晶モニター50の画面が静止する。そして、撮影開始信号の受信に呼応して、撮像回路14,24から読み出された画像信号は、制御回路(画像処理回路)30で第2の画像処理されたのち、必要に応じて圧縮処理され、記録手段(記録媒体)である外部記憶装置60に記録される。換言すれば、外部記憶装置60は、第2の画像処理された画像を記録する記録手段として機能する。また、制御回路30は、シャッター40(操作手段)の状態を判別する判別手段として機能する。   Before receiving a shooting start signal generated by pressing the shutter 40 or the like, a preview image is displayed on the liquid crystal monitor 50 (for example, the first image processing has been performed). Screen freezes. In response to the reception of the imaging start signal, the image signals read from the imaging circuits 14 and 24 are subjected to second image processing by the control circuit (image processing circuit) 30 and then subjected to compression processing as necessary. Then, it is recorded in the external storage device 60 which is a recording means (recording medium). In other words, the external storage device 60 functions as a recording unit that records the image subjected to the second image processing. The control circuit 30 functions as a determination unit that determines the state of the shutter 40 (operation unit).

なお、記録媒体の形態は、着脱自在な外部記憶装置60に限らず撮像装置1に内蔵した内部メモリでもよい。また、撮影開始信号はリモコンや外部接続機器などのシャッター機能を有する操作手段により撮像装置1の外部から加えられる場合もある。さらに液晶モニター50の画面上がタッチパネルとなっており、タッチパネルへの撮影者のタッチによって発せられてもよい。   Note that the form of the recording medium is not limited to the detachable external storage device 60, but may be an internal memory built in the imaging device 1. In addition, the shooting start signal may be applied from the outside of the imaging apparatus 1 by an operation unit having a shutter function such as a remote controller or an externally connected device. Furthermore, the screen of the liquid crystal monitor 50 is a touch panel, and may be emitted by the photographer's touch on the touch panel.

上述の記録処理が完了すると、画面のフリーズを解除してプレビュー画像表示に戻る。   When the above recording process is completed, the screen freeze is released and the display returns to the preview image display.

同期信号発生回路34は、第1の撮影ユニット11と第2の撮影ユニット21に対して信号処理の同期信号を与える。   The synchronization signal generation circuit 34 provides a synchronization signal for signal processing to the first imaging unit 11 and the second imaging unit 21.

つぎに、被写体距離に基づく画像処理(第1の画像処理および第2の画像処理)に関して説明する。   Next, image processing based on subject distance (first image processing and second image processing) will be described.

被写体距離に基づく画像処理は第1の撮影ユニット11からの映像信号に対して、距離情報マップの距離の情報に応じて画像を加工する画像処理である。特に撮影ユニットにおける撮影レンズの仕様(焦点距離、Fナンバー)などを仮想的に設定できるような画像処理に有効である。このような画像処理を行うモードを、光学パラメーター拡張モードとする。光学パラメーター拡張モードは、撮像装置1の撮影条件を選択できるモード選択部41によって選択できる。   The image processing based on the subject distance is image processing for processing an image according to the distance information of the distance information map for the video signal from the first photographing unit 11. This is particularly effective for image processing in which the specifications (focal length, F number), etc., of the photographing lens in the photographing unit can be virtually set. A mode for performing such image processing is an optical parameter expansion mode. The optical parameter expansion mode can be selected by the mode selection unit 41 that can select the imaging condition of the imaging device 1.

本実施例における画像処理は操作部42からのFナンバーの指示に従い、画像に被写体の距離情報に応じたボケ効果を付加する画像処理である。   The image processing in the present embodiment is image processing in which a blur effect corresponding to subject distance information is added to an image in accordance with an F number instruction from the operation unit 42.

つぎに、図2のフローチャートを用いて、被写体距離に基づく画像処理の制御の流れについて説明する。図2のフローチャートは、制御回路30の指令に基づいて実行される。   Next, the flow of image processing control based on the subject distance will be described with reference to the flowchart of FIG. The flowchart of FIG. 2 is executed based on a command from the control circuit 30.

まず、撮像装置1に電源が供給されると、それぞれの撮影ユニット11,21が駆動制御され撮像素子13,23からの映像信号が取得できる状態になる(不図示)。   First, when power is supplied to the image pickup apparatus 1, the respective photographing units 11 and 21 are driven and controlled so that video signals from the image pickup elements 13 and 23 can be acquired (not shown).

S201では、第1の撮像素子13から第1の撮影レンズ12による画像の第1の映像信号を取得する。   In S <b> 201, a first video signal of an image from the first imaging lens 12 is acquired from the first image sensor 13.

S202では、取得した第1の映像信号を第1のメモリ16に格納する。   In S <b> 202, the acquired first video signal is stored in the first memory 16.

S203では、第2の撮像素子23から第2の撮影レンズ22による画像の第2の映像信号を取得する。   In S <b> 203, a second video signal of an image obtained by the second photographing lens 22 is acquired from the second image sensor 23.

S204では、取得した第2の映像信号を第2のメモリ26に格納する。   In S <b> 204, the acquired second video signal is stored in the second memory 26.

S205では、制御回路30はモード選択部41が光学パラメーター拡張モードになっているかどうかを判別する。   In S205, the control circuit 30 determines whether or not the mode selection unit 41 is in the optical parameter expansion mode.

S205にて、光学パラメーター拡張モードではないときには(S205のNo)、S206で通常撮影モードに移行し、以下の画像処理は実行しない。   If the optical parameter expansion mode is not set in S205 (No in S205), the process shifts to the normal shooting mode in S206, and the following image processing is not executed.

S205にて、光学パラメーター拡張モードのときには(S205のYes)、S207に進む。   If the optical parameter expansion mode is set in S205 (Yes in S205), the process proceeds to S207.

S207では、操作部42から撮影者が設定したFナンバー情報を操作部情報として取得する。また、各撮影ユニットそれぞれの撮影レンズ12,22のFナンバーを被写界深度が増大するFナンバーに変更する。   In S207, F number information set by the photographer is acquired from the operation unit 42 as operation unit information. Further, the F number of the photographing lenses 12 and 22 of each photographing unit is changed to an F number that increases the depth of field.

S208では、第1のメモリ16から第1の映像信号を読み出す。   In S208, the first video signal is read from the first memory 16.

S209では、第2のメモリ26から第2の映像信号を読み出す。   In S209, the second video signal is read from the second memory 26.

S210では、制御回路30はシャッター40が切られたどうかを判別する。   In S210, the control circuit 30 determines whether or not the shutter 40 has been cut.

S210にて、シャッター40が切られていないときには(S210のNo)、第1の画像処理を行うフローであるS211へ進む。   If the shutter 40 is not cut in S210 (No in S210), the process proceeds to S211 which is a flow for performing the first image processing.

S210にて、シャッター40が切られているときには(S210のYes)、第2の画像処理を行うフローであるS216へ進む。   In S210, when the shutter 40 is off (Yes in S210), the process proceeds to S216, which is a flow for performing the second image processing.

まず、第1の画像処理を行うフローについて説明する。   First, a flow for performing the first image processing will be described.

S211では、制御回路30は画面に所定の領域のブロックを設定する。ここで、所定の領域のブロックは、少なくとも画像の画素よりも大きい領域を有するものであるとする。   In S211, the control circuit 30 sets a block of a predetermined area on the screen. Here, it is assumed that the block in the predetermined area has an area larger than at least the pixels of the image.

そして、ブロックの代表画素(例えば中央の画素)の距離情報を距離情報取得回路31において2つの映像信号から計算し、距離情報マップを作成する。   Then, the distance information acquisition circuit 31 calculates distance information of the representative pixel (for example, the center pixel) of the block from the two video signals, and creates a distance information map.

S212では、制御回路30はブロックごとの距離情報からブロックを統合する。   In S212, the control circuit 30 integrates blocks from the distance information for each block.

S213では、制御回路30は統合したブロックごとに距離情報に応じたボケ付加の第1の画像処理を行い、全ての領域(統合したブロック領域)の画像処理を実行した結果の映像信号をメモリ33に格納する。   In S213, the control circuit 30 performs the first image processing with blur added according to the distance information for each integrated block, and the video signal as a result of executing the image processing for all the regions (integrated block regions) is stored in the memory 33. To store.

S214では、メモリ33から第1の画像処理後の映像信号を読み出す。   In S214, the video signal after the first image processing is read from the memory 33.

S215では、読み出した映像信号を、液晶モニター50に表示し、S201へ戻る。   In S215, the read video signal is displayed on the liquid crystal monitor 50, and the process returns to S201.

つぎに、第2の画像処理を行うフローについて説明する。   Next, a flow for performing the second image processing will be described.

S216では、第1の撮影ユニット11からの映像信号の画素の距離情報を距離情報取得回路31において2つの映像信号から計算し、距離情報マップを作成する。   In S216, the distance information of the pixel of the video signal from the first photographing unit 11 is calculated from the two video signals in the distance information acquisition circuit 31, and a distance information map is created.

S217では、制御回路30は画素の距離情報に応じたボケ付加の第2の画像処理をメモリ33を使って行い、全ての画素の画像処理を実行した結果の映像信号をメモリ33に格納する。   In S <b> 217, the control circuit 30 performs the second image processing with blurring according to the pixel distance information using the memory 33, and stores the video signal as a result of executing the image processing for all the pixels in the memory 33.

S218では、メモリ33から第2の画像処理後の映像信号を読み出す。   In S218, the video signal after the second image processing is read from the memory 33.

S219では、読み出した映像信号を、外部記憶装置60に記録し、S201へ戻る。   In S219, the read video signal is recorded in the external storage device 60, and the process returns to S201.

ここで、第1の画像処理に関して、以下で詳細に説明する。   Here, the first image processing will be described in detail below.

図3(a)は第1の撮影ユニット11から得られる画像の一例で、図3(b)は第1および第2の撮影ユニット11,21から得られる2つの画像から求められた距離情報マップを模式的に表した図である。   FIG. 3A is an example of an image obtained from the first photographing unit 11, and FIG. 3B is a distance information map obtained from two images obtained from the first and second photographing units 11 and 21. FIG. FIG.

図3(b)ではピントを合わせている被写体の距離を0として撮像装置1に近づく方向を正、遠ざかる方向を負として表している。なお、単位はmであり、無限遠相当の距離を*で表している。図3(b)に示す被写体距離情報は画面を適当なブロックに分割したブロックごとに求められる。図3(b)では説明のためにブロック数が少ないが、実際にはもっと多くのブロック(例えば撮像エリアの辺の1/100から1/1000程度)に分割するのが望ましい。なおここで、分割した所定の領域を有するブロックは、少なくとも画像の画素よりも大きい領域を有するものであるとする。   In FIG. 3B, the distance from the focused subject is 0, and the direction approaching the imaging apparatus 1 is positive, and the direction away from the imaging apparatus 1 is negative. The unit is m, and the distance corresponding to infinity is represented by *. The subject distance information shown in FIG. 3B is obtained for each block obtained by dividing the screen into appropriate blocks. In FIG. 3B, the number of blocks is small for the sake of explanation, but it is actually desirable to divide into more blocks (for example, about 1/100 to 1/1000 of the sides of the imaging area). Here, it is assumed that the block having the divided predetermined area has an area larger than at least the pixels of the image.

図4に、上述した距離情報により統合されたブロック(すなわち、図3(b)の太線で区切られたブロック)からなる分割された領域の状態を示す。ここでピントを合わせている被写体から所定の距離以内をインフォーカスI、それ以外をアウトフォーカスの領域として分割する。さらにアウトフォーカスの領域はそれぞれの被写体の距離に応じて4つの領域O1,O2,O3,O4に分割している。   FIG. 4 shows a state of a divided area composed of blocks integrated based on the above-described distance information (that is, blocks separated by bold lines in FIG. 3B). Here, the area within a predetermined distance from the object being focused is divided into an in-focus area I and the other area is divided into an out-focus area. Further, the out-of-focus area is divided into four areas O1, O2, O3, and O4 according to the distance of each subject.

それぞれの距離範囲についてまとめたものを表1に示す。   Table 1 summarizes each distance range.

Δはピントを合わせている被写体からの距離である。Δ’は実際に画像処理を行う時に使用する距離情報である。ここで、画像処理を行う時に実際に使用する距離情報Δ’とは、各領域I,O1,O2,O3,O4を代表する距離のことである。各距離を代表する距離は、領域ごとに算出した平均値であってもよいし、予め設定された代表距離であってもよい。   Δ is the distance from the subject in focus. Δ ′ is distance information used when image processing is actually performed. Here, the distance information Δ ′ actually used when image processing is performed is a distance representing each of the regions I, O1, O2, O3, and O4. The distance representing each distance may be an average value calculated for each region or may be a preset representative distance.

撮像装置1から最も離れた領域O4の画像に対して、領域を代表する距離(Δ’)と操作部42からのFナンバーに応じたボケ関数をコンボリューションする。これを表したものが図5(a)である。これによって得られた画像をメモリ33に記録する。   A blur function corresponding to the distance (Δ ′) representing the region and the F number from the operation unit 42 is convolved with respect to the image of the region O4 farthest from the imaging device 1. This is shown in FIG. 5 (a). The image thus obtained is recorded in the memory 33.

次に撮像装置1から領域O4の次に最も離れた領域O3の画像に対して、領域を代表する距離(Δ’)と操作部42からのFナンバーに応じたボケ関数をコンボリューションする。これを表したものが図5(b)である。これによって得られた画像をメモリ33に上書きして記録する。   Next, a blur function corresponding to the distance (Δ ′) representing the region and the F number from the operation unit 42 is convolved with respect to the image of the region O3 farthest from the imaging device 1 next to the region O4. This is shown in FIG. 5 (b). The image thus obtained is overwritten and recorded in the memory 33.

次に撮像装置1から領域O3の次に最も離れた領域Iの画像はピントが合っている領域であるので処理しない。これを表したものが図5(c)である。これをメモリ33に上書きして記録する。   Next, the image of the region I that is the farthest from the image capturing device 1 next to the region O3 is an in-focus region and is not processed. This is shown in FIG. 5 (c). This is overwritten in the memory 33 and recorded.

次に撮像装置1から領域Iの次に最も離れた領域O2の画像に対して、領域を代表する距離(Δ’)と操作部42からのFナンバーに応じたボケ関数をコンボリューションする。これを表したものが図5(d)である。これによって得られた画像をメモリ33に上書きして記録する。   Next, a blur function corresponding to the distance (Δ ′) representing the region and the F number from the operation unit 42 is convolved with respect to the image of the region O2 farthest from the imaging device 1 next to the region I. This is shown in FIG. 5 (d). The image thus obtained is overwritten and recorded in the memory 33.

次に撮像装置1から領域O2の次に最も離れた領域O1の画像に対して、領域を代表する距離(Δ’)と操作部42からのFナンバーに応じたボケ関数をコンボリューションする。これを表したものが図5(e)である。これによって得られた画像をメモリ33に上書きして記録する。   Next, a blur function corresponding to the distance (Δ ′) representing the region and the F number from the operation unit 42 is convolved with respect to the image of the region O1 farthest from the imaging device 1 next to the region O2. This is shown in FIG. 5 (e). The image thus obtained is overwritten and recorded in the memory 33.

これらの画像処理によって得られた画像を画像再生装置32は、メモリ33から読み出し液晶モニター50に表示する。これを表したものが図6である。   The image reproduction device 32 reads the image obtained by these image processings from the memory 33 and displays it on the liquid crystal monitor 50. This is shown in FIG.

次に、第2の画像処理に関して、以下で詳細に説明する。   Next, the second image processing will be described in detail below.

第2の画像処理では、距離情報は画素ごとに求められる。被写体の距離の符号は第1の画像処理と同じである。   In the second image processing, distance information is obtained for each pixel. The sign of the subject distance is the same as in the first image processing.

ここで第1の画像処理と同様に距離と操作部42からのFナンバーに応じたボケ関数をコンボリューションする。   Here, as in the first image processing, the blur function corresponding to the distance and the F number from the operation unit 42 is convolved.

第2の画像処理では画面内の画素ごとに撮像装置1から最も遠い領域から順番にコンボリューションによるボケ付加の処理を行い、逐次メモリ33に上書きして記録する。   In the second image processing, blur addition processing by convolution is sequentially performed for each pixel in the screen from an area farthest from the imaging device 1 and sequentially overwritten and recorded in the memory 33.

この画像処理を全ての画素に対して実行したあと、外部記憶装置60に記録する。   After this image processing is executed for all pixels, it is recorded in the external storage device 60.

このように撮影中に液晶モニターに表示するときには画像処理を簡略化し、撮影者が指示した効果を示しつつリアルタイムに画像を表示できるようにし、撮影者が撮影を指示して記録する時には、詳細な画像処理を実行しきれいなボケを付加する。   In this way, image processing is simplified when displaying on a liquid crystal monitor during shooting, and an image can be displayed in real time while showing the effect instructed by the photographer. Execute image processing and add beautiful blur.

第1の画像処理は画像の領域を5つの領域に限定し、4つの領域に同一のボケ関数をコンボリューションするだけの処理とすることで、第2の画像処理のように精密な画像処理よりも処理時間を大幅に短縮することが可能となる。これによってボケを付加するというような複雑な画像処理の効果をリアルタイムで液晶モニターで確認することができ、撮影者の意図する効果を適切に設定して画像を記録することができるようになる。   In the first image processing, the area of the image is limited to five areas, and the same blur function is simply convolved in the four areas. Thus, the first image processing is more precise than the second image processing. However, the processing time can be greatly shortened. As a result, the effect of complicated image processing such as adding blur can be confirmed in real time on a liquid crystal monitor, and an image intended by the photographer can be appropriately set and recorded.

なお、上記の説明では、距離情報をピントが合わせられている被写体からの実距離で距離情報マップを作製したが、実距離の逆数で距離情報マップを作成し、実距離の逆数に応じて画像処理をする方法でもよい。   In the above description, the distance information map is created with the actual distance from the subject in which the distance information is in focus, but the distance information map is created with the reciprocal of the actual distance, and the image is displayed according to the inverse of the actual distance. The method of processing may be used.

また画像を記録する時の画像は撮影レンズ12,22の絞りを調節してパンフォーカス状態で画像を取得して、イメージサイズが35mmフルサイズとして計算したボケを付加するようにするとより良い画像が得られる。   In addition, when the image is recorded, a better image can be obtained by adjusting the apertures of the photographing lenses 12 and 22 and acquiring the image in the pan focus state and adding the blur calculated as the image size of 35 mm full size. can get.

また、記録した後に記録した映像信号を圧縮して液晶モニター50に表示してもよい。   Alternatively, the recorded video signal may be compressed and displayed on the liquid crystal monitor 50 after recording.

これにより撮像装置1に設けられた撮影レンズ12,22のFナンバーよりも明るいFナンバーを指示したとき、指示したFナンバーに応じたボケ効果を画像に持たせ光学的にぼかしたのと同様な効果を液晶モニター50で確認しながら撮影することが可能となる。   As a result, when an F-number brighter than the F-number of the photographing lenses 12 and 22 provided in the image pickup apparatus 1 is designated, the image is given a blurring effect corresponding to the designated F-number and optically blurred. It is possible to take a picture while checking the effect on the liquid crystal monitor 50.

以下、画像処理で効果的に電子ズーミングする本発明の第2の実施例について説明する。   Hereinafter, a second embodiment of the present invention that effectively performs electronic zooming by image processing will be described.

第2の実施例における撮像装置の構成は図1で示した実施例1の構成と同じである。   The configuration of the image pickup apparatus in the second embodiment is the same as that of the first embodiment shown in FIG.

本実施例では、図7に示すように取得した画像の一部(点線で囲まれた領域)を拡大して仮想的にズーミングを行う。本実施例における画像処理は操作部42からの焦点距離の指示に従い、画像に被写体の距離情報に応じた拡大処理を行う画像拡大処理である。   In the present embodiment, as shown in FIG. 7, a part of the acquired image (area surrounded by a dotted line) is enlarged to perform virtual zooming. The image processing in the present embodiment is image enlargement processing in which an enlargement process is performed on an image according to subject distance information in accordance with an instruction of a focal length from the operation unit 42.

以下、第2の実施例における第1の画像処理に関して説明する。   Hereinafter, the first image processing in the second embodiment will be described.

距離情報マップは実施例1と同様にして作成され、画面を適当なブロックに分割したブロックごとに求められた距離情報で、図4と同様に図8のようにブロックを統合した領域を定義する。   The distance information map is created in the same manner as in the first embodiment, and the distance information obtained for each block obtained by dividing the screen into appropriate blocks is used to define a block integrated region as in FIG. .

ここでピントを合わせている被写体からの距離に応じて画面を5つの領域P1、P2、P3、P4、P5に分割している。撮像装置1から最も離れた領域P5の画像に対して、領域を代表する距離と操作部42からの焦点距離に応じて画像を拡大し、画素と画素の間のデータはリニア補間して生成する。このとき拡大の処理を単純に画像を拡大するのではなく、焦点距離による縦倍率も考慮して画像を作成することで、レンズの焦点距離を長くした効果を加えることができるようになる。これを表したのが図9(a)である。これによって得られた画像をメモリ33に記録する。このとき必要な画像の大きさからはみ出した画像は無視する。   Here, the screen is divided into five regions P1, P2, P3, P4, and P5 according to the distance from the subject that is in focus. The image of the region P5 farthest from the imaging device 1 is enlarged according to the distance representing the region and the focal length from the operation unit 42, and data between the pixels is generated by linear interpolation. . At this time, the enlargement process does not simply enlarge the image, but the image is created in consideration of the vertical magnification according to the focal length, so that the effect of increasing the focal length of the lens can be added. This is shown in FIG. 9 (a). The image thus obtained is recorded in the memory 33. At this time, the image that protrudes from the necessary image size is ignored.

次に撮像装置1から領域P5の次に最も離れた領域P4の画像に対して、領域を代表する距離と操作部42からの焦点距離に応じて画像を拡大し、画素と画素の間のデータはリニア補間して生成する。これを表したのが図9(b)である。これによって得られた画像をメモリ33に記録する。このとき必要な画像の大きさからはみ出した画像は無視する。   Next, with respect to the image of the region P4 farthest after the region P5 from the imaging device 1, the image is enlarged according to the distance representing the region and the focal length from the operation unit 42, and data between the pixels Is generated by linear interpolation. This is shown in FIG. 9 (b). The image thus obtained is recorded in the memory 33. At this time, the image that protrudes from the necessary image size is ignored.

次に撮像装置1から領域P4の次に最も離れた領域P3の画像に対して、領域を代表する距離と操作部42からの焦点距離に応じて画像を拡大し、画素と画素の間のデータはリニア補間して生成する。これを表したのが図9(c)である。これによって得られた画像をメモリ33に記録する。このとき必要な画像の大きさからはみ出した画像は無視する。   Next, with respect to the image of the region P3 farthest after the region P4 from the imaging device 1, the image is enlarged according to the distance representing the region and the focal length from the operation unit 42, and data between the pixels Is generated by linear interpolation. This is shown in FIG. 9 (c). The image thus obtained is recorded in the memory 33. At this time, the image that protrudes from the necessary image size is ignored.

次に撮像装置1から領域P3の次に最も離れた領域P2の画像に対して、領域を代表する距離と操作部42からの焦点距離に応じて画像を拡大し、画素と画素の間のデータはリニア補間して生成する。これを表したのが図9(d)である。これによって得られた画像をメモリ33に記録する。このとき必要な画像の大きさからはみ出した画像は無視する。   Next, with respect to the image of the region P2 farthest after the region P3 from the imaging device 1, the image is enlarged according to the distance representing the region and the focal length from the operation unit 42, and data between the pixels Is generated by linear interpolation. This is shown in FIG. 9 (d). The image thus obtained is recorded in the memory 33. At this time, the image that protrudes from the necessary image size is ignored.

次に撮像装置1から領域P2の次に最も離れた領域P1の画像に対して、領域を代表する距離と操作部42からの焦点距離に応じて画像を拡大し、画素と画素の間のデータはリニア補間して生成する。これを表したのが図9(e)である。これによって得られた画像をメモリ33に記録する。このとき必要な画像の大きさからはみ出した画像は無視する。   Next, with respect to the image of the region P1 farthest after the region P2 from the imaging device 1, the image is enlarged according to the distance representing the region and the focal length from the operation unit 42, and data between the pixels Is generated by linear interpolation. This is shown in FIG. 9 (e). The image thus obtained is recorded in the memory 33. At this time, the image that protrudes from the necessary image size is ignored.

この画像処理によって得られた画像を図10に示す。画像再生装置32は、メモリ33から画像の映像信号を読み出し液晶モニター50に表示する。   An image obtained by this image processing is shown in FIG. The image reproducing device 32 reads out the video signal of the image from the memory 33 and displays it on the liquid crystal monitor 50.

次に第2の画像処理に関して説明する。   Next, the second image processing will be described.

第2の画像処理では距離情報は画素ごとに求められる。第2の画像処理でも、第1の画像処理と同様に距離と操作部42からの焦点距離に応じて画像を拡大する。   In the second image processing, distance information is obtained for each pixel. Also in the second image processing, the image is enlarged according to the distance and the focal length from the operation unit 42 as in the first image processing.

第2の画像処理では、画面内の画素ごとに撮像装置1から最も遠い領域からから順番に拡大し、逐次メモリ33に上書きする。さらに拡大した画素間をバイキュービック補間などの方法で第1の画像処理より滑らかに補間を行い、最終的に画像処理した結果の画像の映像信号を外部記憶装置60に記録する。   In the second image processing, each pixel in the screen is enlarged in order from the area farthest from the imaging device 1 and sequentially overwritten in the memory 33. Further, the enlarged pixels are interpolated more smoothly than the first image processing by a method such as bicubic interpolation, and the video signal of the image obtained as a result of the final image processing is recorded in the external storage device 60.

このように撮影中に液晶モニターに表示するときには画像処理を簡略化し、撮影者が指示した効果を示しつつリアルタイムに画像を表示できるようにし、撮影者が撮影を指示して記録する時には、詳細な画像処理を実行しレンズで拡大したような遠近感を付加する。   In this way, image processing is simplified when displaying on a liquid crystal monitor during shooting, and an image can be displayed in real time while showing the effect instructed by the photographer. Performs image processing and adds a sense of perspective that is magnified by a lens.

この説明において距離情報をピントが合わせられている被写体からの実距離でマップを作製したが、実距離の逆数でマップを作成し、実距離の逆数に応じて画像処理をする方法でもよい。   In this description, the map is created with the actual distance from the subject whose distance information is in focus, but a map may be created with the inverse of the actual distance, and image processing may be performed according to the inverse of the actual distance.

これにより撮像装置に設けられた撮影レンズの望遠側の焦点距離よりも長い焦点距離を指示したとき、指示した焦点距離に応じたバース効果を画像に持たせ光学的に拡大したのと同様な効果を液晶モニターで確認しながら撮影することが可能となる。   As a result, when a focal length longer than the focal length on the telephoto side of the photographic lens provided in the imaging apparatus is designated, the same effect as that obtained by optically enlarging the image with a burst effect corresponding to the designated focal length is provided. It becomes possible to take a picture while confirming on the LCD monitor.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

本発明の複眼撮像装置は、ビデオカメラやコンパクトデジタルカメラなどの光学装置に好適に利用できる。   The compound eye imaging device of the present invention can be suitably used for an optical device such as a video camera or a compact digital camera.

第1の撮影ユニット 11
第2の撮影ユニット 21
制御回路 30
液晶モニター 50
外部記憶装置 60
First shooting unit 11
Second shooting unit 21
Control circuit 30
LCD monitor 50
External storage device 60

Claims (13)

互いに異なる光軸を有する第1の撮影ユニットおよび第2の撮影ユニットと、
前記第1の撮影ユニットと前記第2の撮影ユニットのうち少なくとも一方から得られる画像に対し画像処理を行う画像処理手段と、
前記画像処理手段により画像処理された画像を表示する表示手段と、
前記画像処理手段により画像処理された画像を記録する記録手段と、を有し、
前記画像処理手段は、前記表示手段に画像を表示する際は第1の画像処理を行い、前記記録手段に画像を記録する際は前記第1の画像処理の処理時間よりも処理時間が長い第2の画像処理を行う、
ことを特徴とする撮像装置。
A first photographing unit and a second photographing unit having different optical axes;
Image processing means for performing image processing on an image obtained from at least one of the first photographing unit and the second photographing unit;
Display means for displaying the image processed by the image processing means;
Recording means for recording the image processed by the image processing means,
The image processing means performs first image processing when displaying an image on the display means, and has a processing time longer than the processing time of the first image processing when recording an image on the recording means. 2 image processing,
An imaging apparatus characterized by that.
シャッター機能を有する操作手段と、
前記操作手段の状態を判別する判別手段と、をさらに有し、
前記画像処理手段は、前記操作手段の状態に基づいて前記第1の画像処理または前記第2の画像処理を行うことを特徴とする請求項1に記載の撮像装置。
Operating means having a shutter function;
Discriminating means for discriminating the state of the operating means,
The imaging apparatus according to claim 1, wherein the image processing unit performs the first image processing or the second image processing based on a state of the operation unit.
前記画像処理手段は、前記判別手段により前記操作手段が操作されていないと判別された場合は前記第1の画像処理を行い、前記判別手段により前記操作手段が操作されたと判別された場合は前記第2の画像処理を行うことを特徴とする請求項2に記載の撮像装置。   The image processing means performs the first image processing when the determining means determines that the operating means is not operated, and when the determining means determines that the operating means is operated, The imaging apparatus according to claim 2, wherein second image processing is performed. 前記第1の撮影ユニットおよび前記第2の撮影ユニットから得られる2つの画像信号に基づいて被写体距離を算出する算出手段をさらに有し、
前記第1の画像処理および前記第2の画像処理は、前記被写体距離に基づいて画像処理を行うことを特徴とする請求項1ないし3のいずれか一項に記載の撮像装置。
A calculation unit that calculates a subject distance based on two image signals obtained from the first imaging unit and the second imaging unit;
4. The imaging apparatus according to claim 1, wherein the first image processing and the second image processing perform image processing based on the subject distance. 5.
前記第1の画像処理は、前記得られた画像を所定の領域を有するブロックで分割し、該分割されたブロックごとに前記被写体距離を算出し、該ブロックごとに算出された被写体距離に応じてブロックを統合することを特徴とする請求項4に記載の撮像装置。   In the first image processing, the obtained image is divided into blocks each having a predetermined area, the subject distance is calculated for each of the divided blocks, and the subject distance calculated for each block is calculated. The image pickup apparatus according to claim 4, wherein the blocks are integrated. 前記所定の領域は、前記得られた画像の画素よりも大きい領域であることを特徴とする請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the predetermined area is an area larger than a pixel of the obtained image. 前記算出手段は、前記ブロックの代表画素の被写体距離を算出することを特徴とする請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the calculation unit calculates a subject distance of a representative pixel of the block. 前記第2の画像処理は、前記得られた画像の画素ごとに前記被写体距離を算出することを特徴とする請求項4ないし7のいずれか一項に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the second image processing calculates the subject distance for each pixel of the obtained image. 前記第1の画像処理および前記第2の画像処理は、前記被写体距離に応じたボケ効果を画像に付加する処理であることを特徴とする請求項4ないし8のいずれか一項に記載の撮像装置。   The imaging according to any one of claims 4 to 8, wherein the first image processing and the second image processing are processing for adding a blur effect corresponding to the subject distance to an image. apparatus. 前記第1の画像処理は、前記統合されたブロックごとに前記被写体距離に応じたボケ効果を付加する処理を行うことを特徴とする請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the first image processing performs a process of adding a blur effect corresponding to the subject distance for each of the integrated blocks. 前記第1の画像処理および前記第2の画像処理は、前記被写体距離と焦点距離に基づく画像拡大処理であることを特徴とする請求項4ないし8のいずれか一項に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the first image processing and the second image processing are image enlargement processing based on the subject distance and focal length. 前記第1の画像処理は、前記統合されたブロックごとに前記被写体距離と焦点距離に基づく画像拡大処理を行うことを特徴とする請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the first image processing performs image enlargement processing based on the subject distance and focal length for each integrated block. 互いに異なる光軸を有する第1の撮影ユニットおよび第2の撮影ユニットを備えた撮像装置の制御方法であって、
前記第1の撮影ユニットと前記第2の撮影ユニットのうち少なくとも一方から得られる画像に対し画像処理を行う画像処理ステップと、
前記画像処理ステップにより画像処理された画像を表示する表示ステップと、
前記画像処理ステップにより画像処理された画像を記録する記録ステップと、を有し、
前記画像処理ステップは、前記表示ステップで画像を表示する際は第1の画像処理を行い、前記記録ステップで画像を記録する際は前記第1の画像処理の処理時間よりも処理時間が長い第2の画像処理を行う、
ことを特徴とする撮像装置の制御方法。
A method of controlling an imaging apparatus including a first imaging unit and a second imaging unit having different optical axes,
An image processing step of performing image processing on an image obtained from at least one of the first photographing unit and the second photographing unit;
A display step for displaying the image processed by the image processing step;
A recording step of recording the image processed by the image processing step,
The image processing step performs first image processing when displaying an image in the display step, and processing time longer than processing time of the first image processing when recording an image in the recording step. 2 image processing,
And a method of controlling the imaging apparatus.
JP2013241384A 2013-11-21 2013-11-21 Image processing apparatus and control method thereof Pending JP2015103879A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013241384A JP2015103879A (en) 2013-11-21 2013-11-21 Image processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013241384A JP2015103879A (en) 2013-11-21 2013-11-21 Image processing apparatus and control method thereof

Publications (1)

Publication Number Publication Date
JP2015103879A true JP2015103879A (en) 2015-06-04

Family

ID=53379281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013241384A Pending JP2015103879A (en) 2013-11-21 2013-11-21 Image processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP2015103879A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019033491A (en) * 2016-06-12 2019-02-28 アップル インコーポレイテッドApple Inc. User interface for camera effect

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007124282A (en) * 2005-10-28 2007-05-17 Nikon Corp Imaging apparatus
JP2009212899A (en) * 2008-03-05 2009-09-17 Ricoh Co Ltd Imaging device
JP2010226694A (en) * 2009-02-24 2010-10-07 Ricoh Co Ltd Image processor and method of image processing
JP2012044319A (en) * 2010-08-16 2012-03-01 Fujifilm Corp Image processing device, image processing method and stereoscopic imaging device
JP2012160863A (en) * 2011-01-31 2012-08-23 Sanyo Electric Co Ltd Imaging apparatus, image reproducing apparatus, and image processing apparatus
JP2012173830A (en) * 2011-02-18 2012-09-10 Sharp Corp Image processing device, image processing method, and program
JP2013030895A (en) * 2011-07-27 2013-02-07 Sony Corp Signal processing apparatus, imaging apparatus, signal processing method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007124282A (en) * 2005-10-28 2007-05-17 Nikon Corp Imaging apparatus
JP2009212899A (en) * 2008-03-05 2009-09-17 Ricoh Co Ltd Imaging device
JP2010226694A (en) * 2009-02-24 2010-10-07 Ricoh Co Ltd Image processor and method of image processing
JP2012044319A (en) * 2010-08-16 2012-03-01 Fujifilm Corp Image processing device, image processing method and stereoscopic imaging device
JP2012160863A (en) * 2011-01-31 2012-08-23 Sanyo Electric Co Ltd Imaging apparatus, image reproducing apparatus, and image processing apparatus
JP2012173830A (en) * 2011-02-18 2012-09-10 Sharp Corp Image processing device, image processing method, and program
JP2013030895A (en) * 2011-07-27 2013-02-07 Sony Corp Signal processing apparatus, imaging apparatus, signal processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019033491A (en) * 2016-06-12 2019-02-28 アップル インコーポレイテッドApple Inc. User interface for camera effect

Similar Documents

Publication Publication Date Title
JP5036599B2 (en) Imaging device
JP5706654B2 (en) Imaging device, image display method and program
KR20100039430A (en) Image processor, image processing method, digital camera, and imaging apparatus
JP5262417B2 (en) Image processing apparatus, image processing method, and image processing program
KR101359714B1 (en) Apparatus and method for photographing
JP2011188481A (en) Imaging device
JP2007104248A (en) Electronic camera and program
JP6389342B2 (en) Imaging apparatus and control method thereof
JP2013247543A (en) Imaging device, display device, image processing method and program
JP4355371B2 (en) camera
JP2015194680A (en) Imaging apparatus
JP2013121050A (en) Imaging method, imaging apparatus, and program
JP2015103879A (en) Image processing apparatus and control method thereof
JP4710351B2 (en) Digital camera and program
JP6961423B2 (en) Image processing equipment, imaging equipment, control methods for image processing equipment, programs and recording media
JP5637491B2 (en) Imaging apparatus, imaging method, and program
JP2002305676A (en) Electronic camera
JP2008067168A (en) Digital camera
JP2008067136A (en) Imaging device and imaging method
JP2020160773A (en) Image processing device, imaging device, image processing method, and program
JP2007264250A (en) Photographing device and program
JP2001136429A (en) Electronic camera
JP6828069B2 (en) Imaging equipment, imaging methods and programs
JP2014066959A (en) Imaging apparatus
JP6257715B2 (en) Display device and method of operating display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180213