JP2011015228A - Image processing device, image processing device, image processing method, and control program of image processor - Google Patents

Image processing device, image processing device, image processing method, and control program of image processor Download PDF

Info

Publication number
JP2011015228A
JP2011015228A JP2009158022A JP2009158022A JP2011015228A JP 2011015228 A JP2011015228 A JP 2011015228A JP 2009158022 A JP2009158022 A JP 2009158022A JP 2009158022 A JP2009158022 A JP 2009158022A JP 2011015228 A JP2011015228 A JP 2011015228A
Authority
JP
Japan
Prior art keywords
component
resolution
color component
image
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009158022A
Other languages
Japanese (ja)
Inventor
Takeo Azuma
健夫 吾妻
Taro Imagawa
太郎 今川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009158022A priority Critical patent/JP2011015228A/en
Publication of JP2011015228A publication Critical patent/JP2011015228A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging processing device and a method capable of generating a moving image at a high frame rate with a high resolution.SOLUTION: The image processing device is provided with: a separation part 102 which separates visible light into at least first and second color components; a first imaging part 103 which photographs a moving image of the first color component; and a second imaging part 104 which photographs a moving image of the second color component. The first imaging part 103 performs exposure in a first charge accumulation period, and photographs each image of the moving image with a first spatial resolution and a first time resolution. The second imaging part 104 performs the exposure in a second charge accumulation period longer than the first charge accumulation period, and photographs each image of the moving image with a second spatial resolution higher than the first spatial resolution and a second time resolution lower than the first time resolution. The image processing device is further provided with: a control part 120 which controls imaging conditions in the first and the second imaging parts 103, 104; and an up-converter 106 which generates the moving image of the second component raised in time resolution on the basis of information on each moving image of the first color component and the second color component.

Description

本発明は、動画像の画像処理に関する。より具体的には、撮影された動画像の解像度およびフレームレートの少なくとも一方を画像処理によって高くした動画像を生成する技術に関する。   The present invention relates to image processing of moving images. More specifically, the present invention relates to a technique for generating a moving image in which at least one of resolution and frame rate of a captured moving image is increased by image processing.

近年、映像入力の分野では、携帯電話用カメラやデジタルスチルカメラの多画素化、画素の小型化が進んでいる。   In recent years, in the field of video input, the number of pixels and the size of pixels in mobile phone cameras and digital still cameras are increasing.

空間解像度は、撮像機器に求められる画質に応じて大きく異なる。例えばTV電話の解像度は、QCIF(Quarter Common Intermediate Format、横176画素、縦144画素)程度、または、QVGA(Quarter Video Graphics Array、横320画素、縦144画素)程度の比較的低い画素数である。一方、デジタル一眼レフカメラの解像度は、1000万画素を超えている。   The spatial resolution varies greatly depending on the image quality required for the imaging device. For example, the resolution of a TV phone is a relatively low number of pixels of about QCIF (Quarter Common Intermediate Format, horizontal 176 pixels, vertical 144 pixels) or QVGA (Quarter Video Graphics Array, horizontal 320 pixels, vertical 144 pixels). . On the other hand, the resolution of a digital single-lens reflex camera exceeds 10 million pixels.

時間解像度も使い分けられている。例えば、HDTVまでの画素数の時間解像度については、民生機器によるビデオレート(30フレーム/秒)での撮像が実現されている。しかしながら、それ以上の画素数での撮像については、そのフレームレートは、デジタルスチルカメラに搭載されている連写機能による毎秒数フレームにとどまっている。   Time resolution is also properly used. For example, regarding the time resolution of the number of pixels up to HDTV, imaging at a video rate (30 frames / second) by a consumer device is realized. However, for imaging with a larger number of pixels, the frame rate is limited to a few frames per second by the continuous shooting function installed in the digital still camera.

一方、映像表示の分野では、フラットパネルディスプレイが急激な勢いで普及している。これに伴い、今後、様々な解像度のカメラとディスプレイの組み合わせにより、ユーザが映像を視聴することが予測される。   On the other hand, in the field of video display, flat panel displays are rapidly spreading. Along with this, it is predicted that the user will view videos by combining various resolution cameras and displays in the future.

入力側のカメラの時空間解像度(「時間解像度および空間解像度」を意味する。以下同様)と出力側のディスプレイの時空間解像度とを比較すると、現状の民生機器では出力側のディスプレイの方が高い。そのため、出力側の性能を最大限に発揮させる映像を一般ユーザが手軽に入力できる状況にない。このような状況になった理由として、これまでは読み出しスピードがボトルネックとなっていたことが挙げられる。高空間解像度の撮影は毎秒5フレーム程度までに限られ、逆に、毎秒30フレームの撮影はHDTVの空間解像度までに限られていた。したがって、高い空間解像度画像で、かつ高いフレームレートでの撮像は困難であった。   Comparing the spatio-temporal resolution of the input-side camera (meaning “temporal resolution and spatial resolution”; the same applies hereinafter) and the spatio-temporal resolution of the output-side display, the current consumer device has a higher output-side display. . Therefore, there is no situation in which a general user can easily input an image that maximizes the performance on the output side. The reason for this situation is that the reading speed has been a bottleneck until now. High spatial resolution shooting is limited to about 5 frames per second, and conversely, 30 frame shooting per second is limited to HDTV spatial resolution. Therefore, it is difficult to capture a high spatial resolution image at a high frame rate.

上記の課題に対し、特許文献1から3は、高空間解像度と高フレームレートの撮像を両立するための方式として、2系統のカメラにより時間解像度と空間解像度の異なる画像を入力し、信号処理によって高空間解像度で高フレームレートの画像を生成する方式を提案している。これらの特許文献には図20に示す構成が記載されている。   In response to the above problems, Patent Documents 1 to 3 disclose, as a method for achieving both high spatial resolution and high frame rate imaging, images with different temporal resolution and spatial resolution are input by two cameras, and signal processing is performed. A method for generating images with high spatial resolution and high frame rate has been proposed. These patent documents describe the configuration shown in FIG.

図20は、従来の撮像装置の構成を示す。撮像装置に入射した光は、その一部がハーフミラー171を透過し、第1カメラ172に入射する。その結果、低解像度、高フレームレートの動画像が撮影される。一方、撮像装置に入射した光のうち、ハーフミラー171で反射した光は、第2カメラ173に入射する。その結果、高解像度、低フレームレートの動画像が撮影される。   FIG. 20 shows a configuration of a conventional imaging apparatus. A part of the light incident on the imaging device passes through the half mirror 171 and enters the first camera 172. As a result, a moving image with a low resolution and a high frame rate is captured. On the other hand, of the light incident on the imaging device, the light reflected by the half mirror 171 enters the second camera 173. As a result, a moving image with a high resolution and a low frame rate is captured.

アップコンバータ174は、第1カメラ172および第2カメラ173で撮影された各動画像を受け取り、画像処理を行って高解像度かつ高フレームレートの動画像を出力する。   The up-converter 174 receives each moving image taken by the first camera 172 and the second camera 173, performs image processing, and outputs a moving image having a high resolution and a high frame rate.

特開平7−143439号公報JP-A-7-143439 特表2005−515675号公報JP 2005-515675 A 特開2005―318548号公報JP 2005-318548 A 特許3934151号Japanese Patent No. 3934151

しかしながら、上述の撮像装置は、基本的にはモノクロ画像に対する処理を想定して構成されているため、赤(R),緑(G),青(B)の3チャネルからなるカラー画像に適用すると、処理量が3倍必要になる。また、処理後の画像中のエッジ付近でR,G,Bの各色に相関がなくなるために偽色が発生することがあり、画質低下を引き起こしていた。   However, since the above-described imaging apparatus is basically configured assuming processing for a monochrome image, it is applied to a color image composed of three channels of red (R), green (G), and blue (B). The amount of processing is required 3 times. Further, since there is no correlation between the R, G, and B colors in the vicinity of the edge in the processed image, a false color may occur, causing a reduction in image quality.

本発明は上述の課題を解決するものであって、その目的は、演算量を低減させ、かつ、偽色の発生を抑えて、カラー画像の高解像度化を行うことのできる画像処理装置、撮像処理装置、画像処理方法、および、画像処理装置の制御プログラムを提供することにある。   The present invention solves the above-described problems, and an object of the present invention is to provide an image processing apparatus capable of reducing the amount of calculation and suppressing the generation of false colors and increasing the resolution of a color image, and imaging A processing apparatus, an image processing method, and a control program for the image processing apparatus are provided.

本発明の画像処理装置は、第1空間解像度で、かつ、第1時間解像度で撮影された第1色成分および第3色成分の動画像の情報と、前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影された第2色成分の動画像の情報とを受け取り、処理を行う画像処理装置であって、前記第1色成分の動画像の情報および前記第3色成分の動画像の情報に基づいて、時間解像度を高めた前記第2成分の動画像を生成する第1アップコンバータと、前記第1色成分および前記第3色成分の各動画像の情報、および、時間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を生成する第2アップコンバータとを備え、前記第1アップコンバータは、撮像過程で決まる拘束条件と、色間にまたがる滑らかさの拘束条件とを含む評価値に基づいて時間解像度を高めた前記第2成分の動画像を生成する。   The image processing apparatus according to the present invention provides information on moving images of the first color component and the third color component captured at the first spatial resolution and at the first temporal resolution, and the second higher than the first spatial resolution. An image processing apparatus for receiving and processing moving image information of a second color component captured at a second temporal resolution that is spatial resolution and lower than the first temporal resolution, wherein the first color component A first up-converter that generates a moving image of the second component with increased time resolution based on the moving image information of the second color component and the moving image information of the third color component; and the first color component and the third color component Based on the information on each color component moving image and the information on the second component moving image with increased temporal resolution, the first color component and third color component moving images with increased spatial resolution are generated. And a second up-converter that Upconverter generates a constraint determined by the imaging process, a moving image of the second component with an increased time resolution based on evaluation values including the constraints of smoothness spanning between colors.

好ましい実施形態において、前記第1色成分、前記第2色成分、および前記第3色成分は、それぞれ、赤、緑、および青である。   In a preferred embodiment, the first color component, the second color component, and the third color component are red, green, and blue, respectively.

好ましい実施形態において、前記色間にまたがる滑らかさの拘束条件は、前記第1から第3色成分によって定まる色空間内における近傍画素値間の連続性を規定する式によって表現される。   In a preferred embodiment, the smoothness constraint condition between the colors is expressed by an expression that defines continuity between neighboring pixel values in a color space determined by the first to third color components.

好ましい実施形態において、前記色空間における画素値の3つの座標成分は、それぞれ、前記第1から第3色成分の線形和である。   In a preferred embodiment, each of the three coordinate components of the pixel value in the color space is a linear sum of the first to third color components.

好ましい実施形態において、前記第1アップコンバータは、前記評価値が最小化するように、前記第2成分の動画像を構成する画素値を算出する。   In a preferred embodiment, the first up-converter calculates a pixel value constituting the moving image of the second component so that the evaluation value is minimized.

好ましい実施形態において、前記評価値は、撮像したシーン中の動きに沿った画素値変化についての拘束条件を含む。   In a preferred embodiment, the evaluation value includes a constraint condition for a change in pixel value along with movement in the captured scene.

好ましい実施形態において、前記評価値の最小化は、疎な係数行列の連立方程式を、係数が固定のフィルタ演算と係数が画像の内容に応じて変化するフィルタ演算とに分解して演算することによって行う。   In a preferred embodiment, the evaluation value is minimized by dividing a simultaneous equation of a sparse coefficient matrix into a filter operation in which the coefficient is fixed and a filter operation in which the coefficient changes according to the content of the image. Do.

好ましい実施形態において、前記第1アップコンバータでの前記第2成分の動画像の時空間高解像度化は、シーン中の動きの大きさがしきい値以上の領域についてのみ演算することによって行う。   In a preferred embodiment, the space-time resolution enhancement of the second component moving image in the first up-converter is performed by calculating only a region where the magnitude of motion in the scene is equal to or greater than a threshold value.

好ましい実施形態において、前記第1アップコンバータでの前記第2成分の動画像の時空間高解像度化は、シーン中の動きの小さい領域では、時間方向の滑らかさ拘束を強めることによって行う。   In a preferred embodiment, the space-time resolution enhancement of the second component moving image by the first up-converter is performed by increasing the temporal smoothness constraint in a region where the motion is small in the scene.

好ましい実施形態において、第1アップコンバータは、前記動画像の動きの大きさに応じて前記評価値を変化させる。   In a preferred embodiment, the first up-converter changes the evaluation value according to the magnitude of the moving image.

本発明の撮像処理装置は、第1色成分、第2色成分および第3色成分を含む可視光から前記第2成分を分離する分離部と、前記第1色成分および第3色成分の動画像を撮影する第1撮像部であって、第1電荷蓄積期間で露光して、前記動画像を構成する各画像を第1空間解像度で、かつ、第1時間解像度で撮影する第1撮像部と、前記第2色成分の動画像を撮影する第2撮像部であって、前記第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光して、前記動画像を構成する各画像を前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影する第2撮像部と、前記第1撮像部および前記第2撮像部における撮影条件を制御する制御部と、上記いずれかの画像処理装置とを備える。   The imaging processing apparatus of the present invention includes a separation unit that separates the second component from visible light including the first color component, the second color component, and the third color component, and a moving image of the first color component and the third color component. A first imaging unit that captures an image, the first imaging unit that performs exposure in a first charge accumulation period and captures each image constituting the moving image at a first spatial resolution and at a first temporal resolution. And a second imaging unit that captures a moving image of the second color component, wherein each image constituting the moving image is exposed in a second charge accumulation period longer than the first charge accumulation period. A second imaging unit that shoots at a second spatial resolution that is higher than the first spatial resolution and at a second temporal resolution that is lower than the first temporal resolution; and imaging conditions in the first imaging unit and the second imaging unit And a control unit that controls the image processing apparatus and any one of the image processing apparatuses described above.

本発明の他の撮像処理装置は、第1色成分、第2色成分および第3色成分を含む可視光を受け、前記第1色成分および第3色成分の光については第1電荷蓄積期間で露光することにより前記第1色成分および第3色成分の前記動画像を構成する各画像を第1空間解像度で、かつ、前記第2色成分の光については前記第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光することにより前記第2色成分の前記動画像を構成する各画像を前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影する撮像部と、前記撮像部における撮影条件を制御する制御部と、上記いずれかの画像処理装置とを備える。   Another imaging processing apparatus of the present invention receives visible light including a first color component, a second color component, and a third color component, and a first charge accumulation period for the light of the first color component and the third color component. The images constituting the moving image of the first color component and the third color component are exposed at the first spatial resolution, and the light of the second color component is lighter than the first charge accumulation period. Each image constituting the moving image of the second color component is exposed at a long second charge accumulation period with a second spatial resolution higher than the first spatial resolution and lower than the first temporal resolution. An imaging unit that captures images at a second time resolution, a control unit that controls imaging conditions in the imaging unit, and any one of the image processing apparatuses described above are provided.

本発明の画像処理方法は、第1空間解像度で、かつ、第1時間解像度で撮影された第1色成および第3色成分の動画像の情報と、前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影された第2色成分の動画像の情報とを受け取るステップと、前記第1色成分および第3色成分の動画像の情報に基づいて、時間解像度を高めた前記第2成分の動画像の情報を生成する第1アップコンバートステップと、前記第1色成分および第3色成分の動画像の情報、および、時間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および第3色成分の動画像の情報を生成する第2アップコンバートステップとを含む画像処理方法であって、前記第1アップコンバートステップは、撮像過程で決まる拘束条件と、色間にまたがる滑らかさの拘束条件とを含む評価値に基づいて時間解像度を高めた前記第2成分の動画像の情報を生成する。   The image processing method of the present invention provides information on moving images of the first color composition and the third color component captured at the first spatial resolution and at the first temporal resolution, and the second higher than the first spatial resolution. Receiving information of a moving image of a second color component captured at a spatial resolution and a second temporal resolution lower than the first temporal resolution; and moving images of the first color component and the third color component A first up-conversion step for generating information on the moving image of the second component with an increased temporal resolution based on the information of the moving image, information on moving images of the first color component and the third color component, and time resolution And a second up-conversion step for generating information on the moving image of the first color component and the third color component with enhanced spatial resolution based on the information of the moving image of the second component with enhanced And the first up Emissions Bart step generates a constraint determined by the imaging process, the information of the moving image of the second component with an increased time resolution based on evaluation values including the constraints of smoothness spanning between colors.

本発明による画像処理装置の制御プログラムは、第1空間解像度で、かつ、第1時間解像度で撮影された第1色成および第3色成分の動画像の情報と、前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影された第2色成分の動画像の情報とを受け取るステップと、前記第1色成分および第3色成分の動画像の情報に基づいて、時間解像度を高めた前記第2成分の動画像の情報を生成する第1アップコンバートステップと、前記第1色成分および第3色成分の動画像の情報、および、時間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および第3色成分の動画像の情報を生成する第2アップコンバートステップとを前記画像処理装置に実行させ、前記第1アップコンバートステップは、撮像過程で決まる拘束条件と、色間にまたがる滑らかさの拘束条件とを含む評価値に基づいて時間解像度を高めた前記第2成分の動画像の情報を生成する。   The control program of the image processing apparatus according to the present invention includes information on moving images of first color components and third color components captured at a first spatial resolution and at a first temporal resolution, and more than the first spatial resolution. Receiving information of a moving image of a second color component captured at a second temporal resolution that is higher and lower than the first temporal resolution; and the first color component and the third color component A first up-conversion step for generating information on the second component moving image with an increased temporal resolution based on the information on the moving image of the first color component, information on the moving image of the first color component and the third color component, and A second up-conversion step for generating information on the moving image of the first color component and the third color component with increased spatial resolution based on the information of the moving image of the second component with increased temporal resolution, Real for image processing equipment In the first up-conversion step, the information on the moving image of the second component whose temporal resolution is increased based on an evaluation value including a constraint condition determined in the imaging process and a constraint condition of smoothness across colors is obtained. Generate.

本発明の撮像処理装置によれば、解像度とフレームレートが異なる複数の色成分の動画像から、解像度とフレームレートがともに高い多色動画像を生成することが可能になる。複数の色成分の動画像の各々は、ハーフミラーなどを用いることなく、例えばダイクロイックミラーを用いて、入射光を色成分ごとに分離して撮影される。そのため、HDTV以上に高解像度化したカラー画像を動画として得るという効果や、HDTV用のカラーカメラをより小型化できる。   According to the imaging processing apparatus of the present invention, it is possible to generate a multi-color moving image having a high resolution and a high frame rate from moving images having a plurality of color components having different resolutions and frame rates. Each of the moving images of a plurality of color components is photographed by separating incident light for each color component using, for example, a dichroic mirror without using a half mirror or the like. Therefore, the effect of obtaining a color image with higher resolution than that of HDTV as a moving image and the color camera for HDTV can be further reduced in size.

実施形態1による撮像処理装置の構成を示す図である。It is a figure which shows the structure of the imaging processing apparatus by Embodiment 1. FIG. G用アップコンバータ106の構成をより詳細に示す図である。It is a figure which shows the structure of the up converter 106 for G in detail. (a)および(b)は、それぞれ、ブロックマッチングによって動き検出を行うときの基準フレームおよび参照フレームとを示す図である。(A) And (b) is a figure which respectively shows the base frame and reference frame when performing motion detection by block matching. G用アップコンバータにおける積和演算のフィルタ実装の説明図である。It is explanatory drawing of the filter mounting of the product-sum calculation in the up converter for G. R,B用アップコンバータ107の構成をより詳細に示す図である。It is a figure which shows the structure of the upconverter 107 for R, B in detail. 他の例によるR,B用アップコンバータ107の構成を詳細に示す図である。It is a figure which shows the structure of the upconverter 107 for R and B by another example in detail. 相関値ρと重みW2との関係の例を示す図である。It is a figure which shows the example of the relationship between correlation value (rho) and weight W2. R,B用アップコンバータ107の構成の変形例を示す図である。FIG. 10 is a diagram showing a modification of the configuration of the upconverter 107 for R and B. 実施形態1の変形例による撮像処理装置11の構成を示す図である。It is a figure which shows the structure of the imaging processing apparatus 11 by the modification of Embodiment 1. FIG. 撮像処理装置1を一般化した撮像処理装置13の構成を示す図である。It is a figure which shows the structure of the imaging processing apparatus 13 which generalized the imaging processing apparatus 1. FIG. 実施形態2の撮像処理装置におけるG用アップコンバータ106の他の構成例を示す図である。FIG. 10 is a diagram illustrating another configuration example of the G upconverter 106 in the imaging processing apparatus according to the second embodiment. 実施形態2における領域分割部172による領域分割の一例を示す。An example of area division by the area division unit 172 according to the second embodiment will be described. 実施形態2における時間解像度アップコンバータの構成例を示す図である。It is a figure which shows the structural example of the time resolution up converter in Embodiment 2. FIG. 実施形態3による撮像装置901、ネットワーク902および処理装置903で構成された画像処理システムの例を示す図である。FIG. 10 is a diagram illustrating an example of an image processing system including an imaging device 901, a network 902, and a processing device 903 according to a third embodiment. 本発明の入力画像の構成を示すデータ図である。It is a data diagram which shows the structure of the input image of this invention. コンピュータによって構成された画像処理装置のハードウェアを示す図である。It is a figure which shows the hardware of the image processing apparatus comprised by the computer. 本発明の処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process of this invention. 図17に示すステップS103の詳細な処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the detailed process of step S103 shown in FIG. 他の例によるステップS103の詳細な処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the detailed process of step S103 by another example. 従来の撮像装置の構成を示す図である。It is a figure which shows the structure of the conventional imaging device.

以下、図面を参照しながら、本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施形態1)
図1は、本実施形態による撮像処理装置1の構成を示す図である。
(Embodiment 1)
FIG. 1 is a diagram illustrating a configuration of an imaging processing apparatus 1 according to the present embodiment.

撮像処理装置1は、レンズ系101と、ダイクロイックミラー102と、第1撮像部103と、第2撮像部104と、画像処理部105と、制御部120とを有している。以下、まず各構成要素の機能を概説し、その後、撮像処理装置1の動作に関連して各構成要素の動作を詳述する。   The imaging processing device 1 includes a lens system 101, a dichroic mirror 102, a first imaging unit 103, a second imaging unit 104, an image processing unit 105, and a control unit 120. Hereinafter, first, the function of each component will be outlined, and then the operation of each component will be described in detail in relation to the operation of the imaging processing apparatus 1.

レンズ系101は、撮像処理装置1の外部から入射した光、すなわち被写体の像を集束させる。ダイクロイックミラー102は、光の赤(R)成分および青(B)成分を透過させ、光の緑(G)成分を反射する色分離部として機能する。すなわちダイクロイックミラー102は、入射した光を、「赤(R)成分および青(B)成分」と「緑(G)成分」とに分離する。なお、本明細書では、赤成分を「R成分」、緑成分を「G成分」、青成分を「B成分」とも記述する。   The lens system 101 focuses light incident from the outside of the imaging processing apparatus 1, that is, an image of a subject. The dichroic mirror 102 functions as a color separation unit that transmits the red (R) component and blue (B) component of light and reflects the green (G) component of light. That is, the dichroic mirror 102 separates the incident light into a “red (R) component and a blue (B) component” and a “green (G) component”. In this specification, the red component is also described as “R component”, the green component as “G component”, and the blue component as “B component”.

第1撮像部103は、入射光(ここでは光のR成分およびB成分)に基づいて、短時間の露光時間、低解像度および高フレームレートでR成分およびB成分の動画像をそれぞれ撮影する。そして、得られたデータを出力する。なお、R成分の動画像およびB成分の動画像をそれぞれ取得するために、第1撮像部103は、内部にダイクロイックミラーを有し、かつ、R成分およびB成分をそれぞれ検出する2つの撮像素子を備えていてもよい。第1撮像素子103の他の例は、R成分およびB成分の両方を含む光が1つの撮像素子(単板式)に入射する構成を有していても良い。その場合、その撮像素子の前面に、R成分を透過しB成分を透過しないRフィルタと、B成分を透過しR成分を透過しないBフィルタが2次元的に交互に配列されていても良い。カラーフィルタを用いると、光の利用効率が低下するため、後述するように入射光の波長に応じてフォトダイオードに進入する光の深さが異なることを利用して色信号を生成するフィルタレス撮像素子を用いても良い。   The first imaging unit 103 captures moving images of the R component and the B component based on incident light (here, the R component and the B component of light) with a short exposure time, a low resolution, and a high frame rate, respectively. Then, the obtained data is output. Note that in order to acquire the R component moving image and the B component moving image, the first imaging unit 103 has two dichroic mirrors inside, and two image sensors for detecting the R component and the B component, respectively. May be provided. Another example of the first image sensor 103 may have a configuration in which light including both the R component and the B component is incident on one image sensor (single plate type). In that case, an R filter that transmits the R component and does not transmit the B component and a B filter that transmits the B component and does not transmit the R component may be alternately arranged two-dimensionally on the front surface of the imaging device. Since the use efficiency of light decreases when a color filter is used, filterless imaging that generates a color signal using the fact that the depth of light entering the photodiode differs according to the wavelength of incident light, as will be described later. An element may be used.

第2撮像部104は、入射光(ここでは光のG成分)に基づいて、長時間の露光時間、高解像度および低フレームレートで動画像を撮影し、G成分の動画像のデータを出力する。   The second imaging unit 104 shoots a moving image with a long exposure time, high resolution, and low frame rate based on incident light (here, the G component of light), and outputs G component moving image data. .

画像処理部105は、R成分およびB成分の光に対応する動画像のデータ、およびG成分の光に対応する動画像のデータを受け取り、それぞれを、画像処理によって高解像度および高フレームレートの動画像に変換して出力する。   The image processing unit 105 receives moving image data corresponding to light of the R component and B component and moving image data corresponding to light of the G component, and each of them receives a moving image having a high resolution and a high frame rate by image processing. Convert to image and output.

画像処理部105は、G用アップコンバータ106およびRB用アップコンバータ107を備えている。   The image processing unit 105 includes a G upconverter 106 and an RB upconverter 107.

G用アップコンバータ106は、G成分のフレームレートを高めた高解像度、高フレームレートの動画像のデータを生成する。R,B用アップコンバータ107は、R成分およびB成分の解像度を高め、高解像度、高フレームレートの動画像のデータを生成する。動画像は、1枚または複数枚の画像を所定のフレームレートで連続して切り替えて表示される。R,B用アップコンバータ107による解像度を高める処理は、動画像を構成する各画像の画素数を増加させることを意味する。   The G up-converter 106 generates moving image data with a high resolution and a high frame rate in which the frame rate of the G component is increased. The upconverter 107 for R and B increases the resolution of the R component and the B component, and generates high resolution and high frame rate moving image data. A moving image is displayed by switching one or more images continuously at a predetermined frame rate. The process of increasing the resolution by the R and B upconverters 107 means increasing the number of pixels of each image constituting the moving image.

G用アップコンバータ106およびR,B用アップコンバータ107の詳細は後述する。   Details of the G upconverter 106 and the R and B upconverters 107 will be described later.

制御部120は、第1撮像部103および第2撮像部104を利用して動画像を撮影するときの撮像条件を制御する。そしてその制御情報を、G用アップコンバータ106およびR,B用アップコンバータ107に出力する。   The control unit 120 controls imaging conditions when a moving image is captured using the first imaging unit 103 and the second imaging unit 104. The control information is output to the G upconverter 106 and the R and B upconverters 107.

次に、撮像処理装置1の動作とともに各構成要素の動作を詳述する。   Next, the operation of each component will be described in detail along with the operation of the imaging processing apparatus 1.

レンズ系101は、被写体の像が、第1撮像部103および第2撮像部104の撮像素子上に結ばれるように、その位置が調整される。レンズ系101を通った光は、ダイクロイックミラー102によって「R成分およびB成分」と「G成分」とに分離される。   The position of the lens system 101 is adjusted so that the image of the subject is connected to the imaging elements of the first imaging unit 103 and the second imaging unit 104. The light passing through the lens system 101 is separated into “R component and B component” and “G component” by the dichroic mirror 102.

上記R成分およびB成分の動画像は、制御部120から指示された撮像条件、すなわち、短時間露光、低空間解像度、高フレームレートで、第1撮像部103によって撮影される。ここで、「低空間解像度」とは、例えば、NTSCの1フレームの画素数(水平720画素×垂直480画素)程度か、もしくは、それ以下のVGA(Video Graphics Array:水平640画素×垂直480画素)程度の画素数の空間解像度をいう。「高フレームレート」とは、30fps(フレーム/秒)ないし60fps程度をいう。「短時間露光」とは、最長でもフレームレートで決まる上限値(本実施形態の場合、30分の1秒ないし60分の1秒)以下の時間で露光することをいう。   The moving images of the R component and the B component are photographed by the first imaging unit 103 under the imaging conditions instructed from the control unit 120, that is, short-time exposure, low spatial resolution, and high frame rate. Here, the “low spatial resolution” is, for example, the number of pixels of one frame of NTSC (horizontal 720 pixels × vertical 480 pixels) or less VGA (Video Graphics Array: horizontal 640 pixels × vertical 480 pixels). ) Spatial resolution of about the number of pixels. “High frame rate” refers to about 30 fps (frames / second) to about 60 fps. “Short-time exposure” refers to exposure for a time equal to or shorter than the upper limit (in the present embodiment, 1/30 second to 1/60 second) determined by the frame rate at the longest.

上記G成分の動画像についても、制御部120から指示された撮像条件、すなわち、長時間露光、高空間解像度、低フレームレートの撮像条件で、第2の撮影部104によって撮影される。ここで、「高空間解像度」とは、例えば、一般的なデジタルスチルカメラの画素数(例えば水平約4000画素、垂直約3000画素)の空間解像度をいう。「低フレームレート」とは、第1撮像部103の数分の1から10分の1ないし20分の1程度のフレームレート(例えば3fps(フレーム/秒))をいう。「長時間露光」とは、前記低フレームレートの値で決まる時間(例えば1/3秒)を上限として露出することをいう。   The G component moving image is also captured by the second imaging unit 104 under the imaging conditions instructed by the control unit 120, that is, imaging conditions of long exposure, high spatial resolution, and low frame rate. Here, “high spatial resolution” refers to, for example, a spatial resolution of the number of pixels of a general digital still camera (for example, about 4000 pixels horizontally and about 3000 pixels vertically). The “low frame rate” refers to a frame rate (for example, 3 fps (frame / second)) that is about 1/10 to 1/20 of the first imaging unit 103. “Long exposure” refers to exposure with a time determined by the value of the low frame rate (for example, 1/3 second) as an upper limit.

本実施形態においては、第1撮像部103および第2撮像部104は、制御部120によって同期制御されて動作する。しかしながら、同期して動作することは必須ではない。   In the present embodiment, the first image capturing unit 103 and the second image capturing unit 104 operate under synchronous control by the control unit 120. However, it is not essential to operate synchronously.

なお、上述した露光時間の長短、空間解像度の高低、フレームレート(時間解像度)の高低は、第1撮像部103および第2撮像部104における相対的な撮像条件を意味する。カラー画像のR成分およびB成分の露光時間は、G成分の露光時間よりも短ければよい。R成分およびB成分の空間解像度(ここでは画素数に対応)は、G成分のそれよりも低ければよい。R成分およびB成分のフレームレートは、G成分のそれよりも高ければよい。例示した上述の数値範囲に限定されることはない。   Note that the above-described exposure time length, spatial resolution level, and frame rate (time resolution) level mean relative imaging conditions in the first imaging unit 103 and the second imaging unit 104. The exposure time of the R component and B component of the color image may be shorter than the exposure time of the G component. The spatial resolution (corresponding to the number of pixels here) of the R component and the B component only needs to be lower than that of the G component. The frame rate of the R component and the B component only needs to be higher than that of the G component. It is not limited to the above-mentioned numerical range illustrated.

以下、本明細書では、空間解像度が高く(H)フレームレートが低い(L)、Gの色成分の動画像をGHLと標記する。そして、空間解像度が低く(L)、フレームレートが高い(H)、RおよびBの色成分の動画像を、それぞれ、RLH、BLHと表記する。これらの各符号において、1文字目が色成分を表し、2文字目(第1の添え字)が空間解像度を表し、3文字目(第2の添え字)がフレームレート(時間解像度)を表す。 Hereinafter, in this specification, a moving image having a high spatial resolution (H), a low frame rate (L), and a G color component is denoted as G HL . The moving images having the low spatial resolution (L), the high frame rate (H), and the R and B color components are denoted as R LH and B LH , respectively. In each of these codes, the first character represents the color component, the second character (first subscript) represents the spatial resolution, and the third character (second subscript) represents the frame rate (temporal resolution). .

G用アップコンバータ106は、長時間露光、高空間解像度、低フレームレートで撮像されたG画像GHLのデータと、短時間露光、低空間解像度、高フレームレートで撮像されたR画像RLHおよびB画像BLHのデータを受け取る。そして、G用アップコンバータ106は、G画像GHL、R画像RLH、およびB画像BLHのデータに基づいて、G画像GHLの時間解像度を高めたG画像GHHを生成し、出力する。すなわち、G用アップコンバータ106は、同じ解像度でフレームレート(時間解像度)を高めた合成動画像を生成する。 The G up-converter 106 includes data of a G image G HL captured at a long exposure, high spatial resolution, and a low frame rate, and an R image R LH captured at a short exposure, a low spatial resolution, and a high frame rate. The data of B image B LH is received. Then, the G up-converter 106 generates and outputs a G image G HH in which the time resolution of the G image G HL is increased based on the data of the G image G HL , the R image R LH , and the B image B LH. . That is, the G up-converter 106 generates a synthesized moving image with the same resolution and an increased frame rate (time resolution).

本発明の好ましい実施形態では、空間解像度の低い領域(低空間周波数域)でのGB間、GR間の局所的な相関関係をゲイン係数として用いて、G画像の高域成分(空間周波数の高い成分)をR、Bに重畳する。色間の相関関係は、色間の波長差が小さいほど高くなるため、R画像またはB画像を高空間解像度・低フレームレートで取得すよりも、G画像を高空間解像度・低フレームレートで取得する方が、色間の相関関係が高まり、高域成分の重畳が効率よく行える。このため、本実施形態では、長時間露光、高空間解像度、低フレームレートでG画像GHLの撮像を行っている。 In a preferred embodiment of the present invention, a local correlation between GB and GR in a low spatial resolution region (low spatial frequency region) is used as a gain coefficient, and a high frequency component (high spatial frequency) of the G image is used. Component) is superimposed on R and B. Since the correlation between colors increases as the wavelength difference between colors decreases, the G image is acquired at a high spatial resolution and a low frame rate rather than the R image or the B image at a high spatial resolution and a low frame rate. By doing so, the correlation between colors increases, and high frequency components can be superimposed efficiently. For this reason, in this embodiment, the G image GHL is imaged with long exposure, high spatial resolution, and low frame rate.

図2は、G用アップコンバータ106の構成をより詳細に示す。図2において、図1の撮像処理装置の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。   FIG. 2 shows the configuration of the G upconverter 106 in more detail. In FIG. 2, the same reference numerals are given to components common to the components of the imaging processing apparatus in FIG. 1, and description thereof is omitted.

G用アップコンバータ106は、動き検出部108および時間解像度アップコンバータ109を有している。   The G upconverter 106 includes a motion detection unit 108 and a time resolution upconverter 109.

動き検出部108は、ブロックマッチング、勾配法、位相相関法等の既存の公知技術によって、RLH、BLHから動き(オプティカルフロー)を検出する。公知技術として、例えばJ. L. Barron, D. J. Fleet, S. S. Beauchemin, and T. A. Burkitt. "Performance of Optical Flow Techniques", In Proc. Computer Vision and Pattern Recognition, pp. 236-242, 1992が知られている。 The motion detection unit 108 detects motion (optical flow) from R LH and B LH by existing known techniques such as block matching, gradient method, and phase correlation method. Known techniques include, for example, J. L. Barron, D. J. Fleet, S. S. Beauchemin, and T. A. Burkitt. "Performance of Optical Flow Technologies", In Proc. P. 36. -242, 1992 is known.

図3(a)および(b)は、それぞれ、ブロックマッチングによって動き検出を行うときの基準フレームおよび参照フレームを示している。動き検出部108は、基準とするフレーム(動きを求めるべく着目している時刻tにおける画像)内に、図3(a)に示す窓領域Aを設定する。そして、窓領域内のパターンと類似するパターンを参照フレーム内で探索する。参照フレームとして、例えば着目フレームの次のフレームが利用されることが多い。   FIGS. 3A and 3B show a base frame and a reference frame when motion detection is performed by block matching, respectively. The motion detection unit 108 sets a window region A shown in FIG. 3A in a reference frame (image at time t when attention is given to obtain motion). Then, a pattern similar to the pattern in the window area is searched for in the reference frame. As the reference frame, for example, a frame next to the frame of interest is often used.

探索範囲は、図3(b)に示すように、通常、移動量ゼロの位置Bを基準に予め一定の範囲(同図3(b)中のC)が設定される。また、パターンの類似の度合い(程度)は、(数1)に示す残差平方和(SSD:Sum of Square Differrences)や、(数2)に示す残差絶対値和(SAD:Sum ofAbsoluted Differences)を評価値として計算することによって評価する。

Figure 2011015228
Figure 2011015228
As shown in FIG. 3B, the search range is normally set in advance with a predetermined range (C in FIG. 3B) based on the position B where the movement amount is zero. In addition, the similarity (degree) of the pattern is determined by the residual sum of squares (SSD: Sum of Differences) shown in (Equation 1) or the absolute sum of residuals (SAD: Sum of Absorbed Differences) shown in (Equation 2). Is evaluated as an evaluation value.
Figure 2011015228
Figure 2011015228

(数1)および(数2)において、x,y∈Wは、基準フレームの窓領域内に含まれる画素の座標値を意味する。   In (Equation 1) and (Equation 2), x, yεW means the coordinate value of the pixel included in the window region of the reference frame.

動き検出部108は、探索範囲内で(u,v)を変化させることにより、上記評価値を最小とする(u,v)の組を探索し、これをフレーム間での動きベクトルVとする。窓領域の設定位置を順次シフトさせることによって、動きを画素毎もしくはブロック毎(例えば8画素×8画素)に求める。   The motion detection unit 108 searches for a pair (u, v) that minimizes the evaluation value by changing (u, v) within the search range, and sets this as a motion vector V between frames. . By sequentially shifting the set position of the window area, the movement is obtained for each pixel or for each block (for example, 8 pixels × 8 pixels).

再び図2を参照する。時間解像度アップコンバータ109は、第1撮像部103によって撮像されたR画像RLHおよびB画像BLH、第2の撮影部104によって撮像されたG画像GHL、および、動き検出部108によって検出された動きベクトルVの各データを受け取り、GHLを高解像度化しGHHとして出力する。 Refer to FIG. 2 again. The temporal resolution upconverter 109 is detected by the R image R LH and the B image B LH captured by the first imaging unit 103, the G image G HL captured by the second imaging unit 104, and the motion detection unit 108. Each data of the motion vector V is received, and the resolution of GH is increased and output as GHH .

ここで、GHLの高解像度化は、下記の(数3)を最小化するGHHを求めることによって行われる。

Figure 2011015228
Here, the resolution of G HL is increased by obtaining G HH that minimizes the following (Equation 3).
Figure 2011015228

(数3)の右辺における第1項はGHHとGHLの対応画素間の輝度差を示す項、第2項は「動き拘束」を示す項であり、第3項、第4項および第5項は「滑らか拘束」を示す項である。ここで、GHH、GHL、RLH、BLHは動画像の各画素を要素とする縦ベクトル、HTは長時間露光による光の加算をモデル化した行列、λmは動き拘束に対する重み、λsC1、λsC2、λsC3は滑らかさ拘束に対する重み、C1、C2、C3は3次元の色空間中に定義したRGBとは異なる3色の成分の縦ベクトル(動画像の各画素を要素とする縦ベクトル)、QsH、QsVは水平および垂直方向の滑らかさ拘束(色空間中に定義した3軸、C1、C2、C3についてそれぞれ評価する)、Qmは動き拘束を、それぞれ表している。なお、GHHのフレームレートがGHLのフレームレートよりも高いため、GHHの画素数(縦ベクトルの要素数)はGHLの画素数(縦ベクトルの要素数)よりも大きい。 The first term on the right side of (Equation 3) is a term indicating the luminance difference between the corresponding pixels of G HH and G HL , the second term is a term indicating “motion constraint”, and the third, fourth and Item 5 is a term indicating “smooth constraint”. Here, G HH , G HL , R LH , and B LH are vertical vectors having each pixel of the moving image as elements, H T is a matrix that models addition of light by long exposure, λm is a weight for motion constraint, λ sC1 , λ sC2 , and λ sC3 are weights for smoothness constraint, and C 1 , C 2 , and C 3 are vertical vectors of three color components different from RGB defined in the three-dimensional color space (each pixel of the moving image column vector) whose elements, Q sH, Q sV evaluates each three axes defined in smoothness constraints in the horizontal and vertical directions (the color space, the C 1, C 2, C 3 ), Qm is motion constraint Respectively. Since the frame rate of the G HH is higher than the frame rate of the G HL, the number of pixels of G HH (the number of elements of the column vector) is larger than the number of pixels of G HL (the number of elements of the column vector).

制御部120によって第1撮像部103よび第2撮像部104に設定される撮影条件は、少なくとも上記HT、Qm、λsC1、λsC2、λsC3に反映される。なお、数3の左辺Jはスカラーである。上記の「撮影条件」は、第1撮像部103および第2撮像部104の各々の空間解像度または露光時間、あるいは、空間解像度の比または露光時間の比である。これらのことから、(数3)の第1項は、「撮像過程で決まる拘束条件」であると言える。 The imaging conditions set in the first imaging unit 103 and the second imaging unit 104 by the control unit 120 are reflected in at least the above H T , Qm, λ sC1 , λ sC2 , and λ sC3 . Note that the left side J of Equation 3 is a scalar. The “imaging condition” is the spatial resolution or exposure time of each of the first imaging unit 103 and the second imaging unit 104, or the spatial resolution ratio or the exposure time ratio. From these, it can be said that the first term of (Equation 3) is “a constraint condition determined by the imaging process”.

上記(数3)を最小化するGHHとは、与えられた拘束条件の線形和をもっともよく満足するGHHを意味する。右辺の各項の導出過程は後述する。 G HH that minimizes the above (Equation 3) means G HH that best satisfies the linear sum of given constraints. The process of deriving each term on the right side will be described later.

上記、C1、C2、C3は、それぞれ、RLH、GHH、BLHから以下の式によって計算される。

Figure 2011015228
C 1 , C 2 , and C 3 are calculated from R LH , G HH , and B LH according to the following equations, respectively.
Figure 2011015228

ここで、c11からc33は、R、G、B色空間からR、G、B色空間とは異なる別の色空間C1、C2、C3への色変換係数、Mは空間的な拡大(いわゆる補間拡大)を行う係数行列である。すなわち、(数4)は、C1、C2、C3が補間拡大されたRLH、BLHとGHHの線形和で表されることを示している。 Here, c 11 to c 33 are color conversion coefficients from the R, G, B color space to other color spaces C 1 , C 2 , C 3 different from the R, G, B color space, and M is the spatial This is a coefficient matrix for performing large expansion (so-called interpolation expansion). That is, (Equation 4) indicates that C 1 , C 2 , and C 3 are represented by a linear sum of R LH , B LH, and G HH that have been interpolated and expanded.

時間解像度アップコンバータ109は、下記(数5)に基づいて(数3)を最小化するGHHを得る。(数5)は、上記(数4)を(数3)に代入し、GHHで偏微分することによって得られる。

Figure 2011015228
The temporal resolution upconverter 109 obtains GHH that minimizes (Equation 3) based on (Equation 5) below. (Equation 5) is obtained by substituting the above (Equation 4) into (Equation 3) and performing partial differentiation with GHH .
Figure 2011015228

その結果、時間解像度アップコンバータ109は、(数6)に示す連立方程式を解くことによってGHHを得る。

Figure 2011015228
As a result, the time resolution upconverter 109 obtains GHH by solving the simultaneous equations shown in (Expression 6).
Figure 2011015228

(数6)は共役勾配法や最急降下法等の既存の数値計算法(連立方程式の解法)を用いることによって解くことができる。   (Expression 6) can be solved by using an existing numerical calculation method (solution of simultaneous equations) such as a conjugate gradient method or a steepest descent method.

時間解像度アップコンバータ109が、入力されたGHLの時間解像度を上述の手順によって高めたGHHを求める処理は、単位時間当たりのフレーム数を多くする処理(すなわち時間解像度を高める処理)だけではなく、ぼけた画像をくっきりした(シャープな)画像に変換する処理も含んでいる。G成分の動画像は、第2撮像部104によって高空間解像度で撮影されているが、長時間露光の影響で画像の一部がぼけていることもありえる。このため、低フレームレートで撮影された画像のフレームレートを高めると、時間解像度のみならず空間解像度も高められるという効果(シャープ化)が生じる。従って、時間解像度のアップコンバートを行うと、時間解像度および空間解像度の両方が向上するため、これらを総称して「(時空間)解像度が高められる」と表現することが可能である。 The time resolution upconverter 109 obtains GHH in which the time resolution of the input GH is increased by the above-described procedure is not only a process for increasing the number of frames per unit time (that is, a process for increasing the time resolution). Also included is a process of converting a blurred image into a sharp (sharp) image. The G component moving image is captured at a high spatial resolution by the second imaging unit 104, but a part of the image may be blurred due to the effect of long exposure. For this reason, when the frame rate of an image shot at a low frame rate is increased, not only the temporal resolution but also the spatial resolution is increased (sharpening). Accordingly, when the temporal resolution up-conversion is performed, both the temporal resolution and the spatial resolution are improved. Therefore, these can be collectively expressed as “(spatiotemporal) resolution can be increased”.

以下に、(数3)の各項の意味、働きについてより詳細に説明する。   In the following, the meaning and function of each item in (Equation 3) will be described in more detail.

(数3)の第1項は、解像度が高められたGHHから予測される長時間露光画像(HTHH)と、実際の観測によって得た長時間露光画像GHLとの差異を示す。これは、解像度が高められたGHHと、長時間露光画像GHLとの時空間的な対応関係を表している。ここで、HTでは行の数が列の数より少ない。これは、GHLが長時間露光画像であって、GHHよりもフレームレートが低い(すなわち、トータルの画素数が少ない)ことからも理解できる。そのため、仮に(数3)の左辺を第1項だけにすると、解くべき問題(すなわち連立方程式)が一意に解けない不良設定問題となる。 The first term of (Equation 3) indicates the difference between the long-exposure image (H T G HH ) predicted from G HH with increased resolution and the long-exposure image G HL obtained by actual observation. . This represents a spatio-temporal correspondence between GHH whose resolution has been increased and the long-time exposure image GH . Here, the number of rows in H T is less than the number of columns. This can be understood from the fact that GH is a long-exposure image and has a lower frame rate than GHH (that is, the total number of pixels is small). Therefore, if the left side of (Equation 3) is only the first term, a problem to be solved (that is, simultaneous equations) will be a defective setting problem that cannot be solved uniquely.

この不良設定問題を良設定問題に変更するために、(数3)の第1項には第2項、第3項、第4項、第5項が付加されている。   In order to change this failure setting problem to a good setting problem, the second term, the third term, the fourth term, and the fifth term are added to the first term of (Equation 3).

(数3)の第2項は、画像中の動きに関する拘束を規定する項である。ここでは、動画像中の各点が明るさを変えずに移動していくことを仮定している。第2項中の行列Qmは、動画像中で検出された動きベクトルの始点と終点の画素に関係する要素だけが、それぞれ1と−1になっている。そのため(QmGHH2は、動きベクトルの始点と終点間の差の2乗の動画像全体に関する総和となる。 The second term of (Equation 3) is a term that prescribes constraints relating to movement in the image. Here, it is assumed that each point in the moving image moves without changing the brightness. In the matrix Qm in the second term, only elements related to the start and end pixels of the motion vector detected in the moving image are 1 and −1, respectively. Therefore, (QmG HH ) 2 is the total sum of the whole moving image of the square of the difference between the start point and the end point of the motion vector.

(数3)の第3、4、5項は、画像が一般的に満たしている特性、すなわち近傍画素間の局所的な滑らかさを示す。モノクロ(単色)の動画像をI(x,y,t)とすると、局所的な滑らかさは、

Figure 2011015228
として表すことができる。ここで、積分範囲は動画像の占める時空間全体であり、数7の被積分関数中の||・||はベクトルのノルムを示す。(数3)の第3、4、5項は、(数7)を差分展開し、IをC1、C2、C3に置き換えて、行列QsとベクトルGHHの積の形で表している。 The third, fourth, and fifth terms of (Expression 3) indicate characteristics generally satisfied by the image, that is, local smoothness between neighboring pixels. When a monochrome (single color) moving image is I (x, y, t), the local smoothness is
Figure 2011015228
Can be expressed as Here, the integration range is the entire time space occupied by the moving image, and || · || in the integrand of Equation 7 represents the norm of the vector. The third, fourth, and fifth terms of (Equation 3) are expressed in the form of a product of the matrix Qs and the vector G HH by differentially expanding (Equation 7) and replacing I with C 1 , C 2 , and C 3. Yes.

滑らかさ拘束を色間にまたがる形で定義することにより、G成分の時間解像度を高めることに、R成分、B成分の情報を反映させることができる。本発明では、R、G、B成分を異なる時空間解像度で撮影しているため、このような拘束条件を用いた画像復元を行うことが有効である。ここで、RGBとは異なる色空間(C123)に分解することの利点を説明する。 By defining the smoothness constraint in such a manner as to span between colors, it is possible to reflect the information of the R component and the B component in increasing the time resolution of the G component. In the present invention, since the R, G, and B components are captured at different spatiotemporal resolutions, it is effective to perform image restoration using such constraint conditions. Here, the advantage of decomposing into a color space (C 1 C 2 C 3 ) different from RGB will be described.

人の視覚特性の観点から、3次元の色空間をなすRGB信号は、解像感に大きく寄与する成分と、解像感にあまり寄与しない成分とに分けられる。そのため、前者についての正則化パラメータλを小さく設定し、後者についての正則化パラメータλを大きく設定することによって、解像感のある画像を復元することができる。   From the viewpoint of human visual characteristics, RGB signals forming a three-dimensional color space are divided into components that greatly contribute to the sense of resolution and components that do not contribute much to the sense of resolution. Therefore, an image with a sense of resolution can be restored by setting the regularization parameter λ for the former small and setting the regularization parameter λ for the latter large.

また、復元すべきデータの分布という観点からは、解の変動の大きな方向についての正則化パラメータλを小さく設定し、解の変動の小さな方向についての正則化パラメータλを大きく設定することによって、復元精度を高めることができる。   From the viewpoint of the distribution of data to be restored, the regularization parameter λ is set to be small for the direction in which the solution variation is large, and the regularization parameter λ is set to be large for the direction in which the solution variation is small. Accuracy can be increased.

自然画像を撮影した画像では、大部分の画像において、輝度成分の変動が大きく、色成分の変動が小さくなる傾向がある。   In an image obtained by capturing a natural image, the luminance component variation tends to be large and the color component variation tends to be small in most images.

3色への分離の方法は、例えば、数8により、RGBからYCbCrという輝度式差信号への変換を行う。

Figure 2011015228
As a method of separation into three colors, for example, conversion from RGB to a luminance-type difference signal of YCbCr is performed by Equation 8.
Figure 2011015228

また、3色への分離の方法は上記の方法に限らず、予め用意した画像についてRGB空間での主成分分析により、第1主成分、第2主成分、第3主成分を求め、3次元色空間中での3つの軸を決めるようにしてもよい。通常、自然画像から主成分分析によって求めた第1主成分は、輝度成分とおおむね等しくなり、第2主成分と第3主成分は色信号に相当する成分となる。   Further, the method of separation into three colors is not limited to the above method, and the first principal component, the second principal component, and the third principal component are obtained by principal component analysis in the RGB space for an image prepared in advance. Three axes in the color space may be determined. Usually, the first principal component obtained by principal component analysis from a natural image is substantially equal to the luminance component, and the second principal component and the third principal component are components corresponding to color signals.

なお、色間にまたがる滑らかさ拘束については、C3を色空間においてGと垂直に選ぶようにすることで、3色間にまたがるものから2色間にまたがるもので置き換えても、同様の画質の処理結果を得ることができる。その場合、(数3)の代わりに以下の式を用いる。

Figure 2011015228
As for the smoothness constraint between the colors, the same image quality can be obtained even if C 3 is selected to be perpendicular to G in the color space and replaced with a color spanning between 3 colors to a color spanning between 2 colors. The processing result can be obtained. In that case, the following equation is used instead of (Equation 3).
Figure 2011015228

また、GHHを得るのに、(数6)の代わりに以下の式を解けばよい。

Figure 2011015228
In order to obtain G HH , the following equation may be solved instead of (Equation 6).
Figure 2011015228

以上説明した方法および手順により、GHHは(数6)もしくは(数10)の連立方程式の解として得られる。連立方程式を解く計算は、変数の数(解くべき未知数の数)が多くなると、必要な演算量が莫大になる。大規模な連立方程式の効率的解法については種々提案されているが、演算効率の最適化は問題に依存するところが大きい。以下に、今回取り扱う問題の効率的な計算について説明する。 By the method and procedure described above, G HH is obtained as a solution of simultaneous equations of (Equation 6) or (Equation 10). The calculation for solving the simultaneous equations requires a large amount of calculation as the number of variables (the number of unknowns to be solved) increases. Various methods for efficiently solving large-scale simultaneous equations have been proposed, but optimization of calculation efficiency largely depends on the problem. Below, the efficient calculation of the problem dealt with this time is explained.

図4は、GHHを計算するための共役勾配法の手順と、共役勾配法において最も演算量を要する係数行列Aと更新ベクトルpkとの積の演算を効率的に行うブロック図の一例を示す。図4においては、解くべき連立方程式を

Figure 2011015228
として表している。なお、後述するように、拘束条件として(数3)の右辺の全ての項を用いる必要は無い。図4の例では、(数3)の右辺第5項を省略している。 Figure 4 shows a procedure of the conjugate gradient method for calculating the G HH, an example of a block diagram efficiently performing calculation of a product of a coefficient matrix A takes the longest amount of computation in the conjugate gradient method and the update vector pk . In FIG. 4, the simultaneous equations to be solved are
Figure 2011015228
It represents as. As will be described later, it is not necessary to use all the terms on the right side of (Equation 3) as constraint conditions. In the example of FIG. 4, the fifth term on the right side of (Equation 3) is omitted.

共役勾配法では、残差rが小さくなるように、更新量pを計算し、これを用いて解xの更新を繰り返す。収束に必要な繰り返し数は、係数行列Aの条件(数値的な安定性)や変数数に依存する。本実施形態の場合、100回程度の繰り返しを行う。   In the conjugate gradient method, the update amount p is calculated so that the residual r becomes small, and the update of the solution x is repeated using this. The number of iterations required for convergence depends on the condition (numerical stability) of the coefficient matrix A and the number of variables. In the case of this embodiment, the repetition is performed about 100 times.

この繰り返し計算においては、係数行列Aと更新量ベクトルpの積の計算が、最も演算量を必要とする。ベクトルpは解の更新量であるので、その要素数(次元)は動画像中のGの画素数になる。例えば、HDTV信号の空間解像度で4フレーム分の処理を行おうとすると、Gの画素数(すなわちpの要素数)は、1920×1080×4=8294400となる。係数行列Aは正方行列であるため、さらにこれの2乗の要素数となる。このような莫大なメモリアクセスと積和演算は、このままでは、現在通常に入手できる計算環境では計算することができない。   In this iterative calculation, calculation of the product of the coefficient matrix A and the update amount vector p requires the most amount of calculation. Since the vector p is the update amount of the solution, the number of elements (dimensions) is the number of G pixels in the moving image. For example, if processing for four frames is performed with the spatial resolution of the HDTV signal, the number of G pixels (that is, the number of elements of p) is 1920 × 1080 × 4 = 8294400. Since the coefficient matrix A is a square matrix, the coefficient matrix A has a square element number. Such an enormous memory access and product-sum operation cannot be calculated in a calculation environment that is normally available at present.

しかしながら、係数行列Aは、(数6)もしくは(数10)に示すように、長時間露光の過程HT、動き拘束Qm、滑らかさ総則QsH、QsVの2乗(自身の転置との積)の線形和になっている。これらの項は、着目画素とその近傍画素のみとの演算であるため、係数行列全体としては大部分が0となる。このような行列は疎行列と呼ばれる。係数行列中のどの画素が0になるのか、また、0でない係数の割合がどれ位になるのかということが問題により異なるため、効率的な解き方が個々の問題に依存することになる。 However, the coefficient matrix A, as shown in (6) or (number 10), the process H T long exposure, motion constraint Qm, smoothness General Q sH, 2 squared Q sV (with its transpose Product). Since these terms are calculations of the pixel of interest and only its neighboring pixels, most of the terms are 0 for the entire coefficient matrix. Such a matrix is called a sparse matrix. The problem of which pixel in the coefficient matrix becomes 0 and how much the ratio of non-zero coefficients varies depends on the problem, and the efficient solution depends on the individual problem.

長時間露光過程HTは、図4中の参照符号401で示す用に、係数が全て1の時間方向の蓄積フィルタと考えることができる。拘束条件としてはHTの転置とHTの積になるが、HTの転置は、1画素の値を蓄積画素数分の画素に出力する作用を表す。そのため、(HTTTは、入力を複数フレーム蓄積した値を、入力画素に相当する画素位置に出力するフィルタと解釈できる。 Long exposure process H T can be considered to use indicated by the reference numeral 401 in FIG. 4, coefficients all of the time direction of the storage filter. Although the product of the transpose and H T of H T is as a constraint condition, the transpose of H T represents the function of outputting the value of one pixel to pixel number storage pixel minutes. Therefore, (H T ) T H T can be interpreted as a filter that outputs a value obtained by accumulating a plurality of input frames to a pixel position corresponding to an input pixel.

もしくは、長時間露光過程HTを、係数が全て1/4の時間方向の平均化フィルタとしてもよい(4フレーム加算の場合)。なお、長時間露光過程HTの係数を全て1とする場合と、加算フレーム数分の1とする場合の処理の違いは、次のようになる。   Alternatively, the long exposure process HT may be an averaging filter in the time direction in which all the coefficients are ¼ (in the case of adding four frames). The difference in processing between the case where all the coefficients of the long-time exposure process HT are 1 and the case where the coefficient is 1 / the number of added frames is as follows.

前者の場合の処理は、長時間露光画像に含まれる動きブレを除去するとともに、長時間露光した光量を各フレームの画像に分配する。その結果、処理結果が入力画像よりも暗くなる。一方、後者の場合の処理は、長時間露光画像に含まれる動きブレを除去するだけであり、処理結果は入力画像と同じ明るさになる。そのため前者の場合、Gの復元結果を使ってR,Bを高解像度化する前に、図示していない乗算器によって、Gの明るさ(レベル)をR、Bと揃える必要がある(本実施例の場合、4倍する必要がある)。   In the former case, the motion blur included in the long-time exposure image is removed, and the light amount exposed for a long time is distributed to the image of each frame. As a result, the processing result is darker than the input image. On the other hand, the processing in the latter case only removes motion blur included in the long-time exposure image, and the processing result has the same brightness as the input image. Therefore, in the former case, before increasing the resolution of R and B using the restoration result of G, it is necessary to align the brightness (level) of G with R and B by a multiplier (not shown) (this embodiment). In the case of the example, it is necessary to multiply by 4).

次に、滑らかさ拘束について説明する。Qsは、2階微分の作用素であり、差分展開すると、以下の式で表せる。

Figure 2011015228
Next, the smoothness constraint will be described. Qs is a second-order differential operator, and can be expressed by the following equation when the difference is expanded.
Figure 2011015228

(数12)はGHHを入力、∂GHH/∂xと∂GHH/∂yを出力とみると、フィルタとしては、水平もしくは垂直の係数が(−1,2,−1)の3タップのフィルタと解釈できる。これを係数行列として見ると、Qsは対角成分が2で、左右1画素もしくは上下1ラインが−1、それ以外は全て0の対角行列となる。 (Equation 12) assumes that G HH is input and ∂G HH / ∂x and ∂G HH / ∂y are output. As a filter, the horizontal or vertical coefficient is (−1, 2, −1) 3. It can be interpreted as a tap filter. When this is viewed as a coefficient matrix, Qs is a diagonal matrix with a diagonal component of 2, one pixel on the left or right or one line on the upper and lower sides is -1, and all others are 0.

これらは、対角行列であるために、転置行列も自身と等しくなり、転置と自身の積は、係数が(1,−4,6,−4,1)の5タップのフィルタとなる。すなわち、滑らかさ拘束(QsHTQsH、(QsVTQsVは、図4中に402で示すように、水平5タップのフィルタと垂直5タップのフィルタとして計算できる。 Since these are diagonal matrices, the transpose matrix is also equal to itself, and the product of the transpose and itself is a 5-tap filter with coefficients (1, -4, 6, -4, 1). In other words, it smoothness constraint (Q sH) T Q sH, (Q sV) T Q sV , as indicated by 402 in FIG. 4, can be calculated as a filter and a vertical 5 tap horizontal 5 tap filter.

最後に、動き拘束Qmは、動きベクトルの始点に相当する要素が1、終点に相当する要素が−1のデータ対の集まりである。行列としては、対角成分が全て1で、各行に−1の要素をひとつずつ持つ。そのため、(Qm)TQmは、対角成分がすべて1で、Qmで−1になっている要素と、その転置位置の要素が−1の値を持つ。このような行列演算は、フィルタとしては、動きベクトルの探索範囲で決まる空間サイズを持つフレーム間フィルタとして実装できる。例えば、動きの検出範囲が高解像度側で縦横±n画素の範囲の場合、着目画素を含めて縦横(1+2n)画素×2フレームのフィルタとして実装できる。 Finally, the motion constraint Qm is a collection of data pairs in which the element corresponding to the start point of the motion vector is 1 and the element corresponding to the end point is -1. As a matrix, all diagonal components are 1, and each row has one element of -1. Therefore, (Qm) T Qm has all the diagonal components of 1 and the element whose Qm is −1 and the element at the transposition position thereof have a value of −1. Such a matrix operation can be implemented as an interframe filter having a spatial size determined by a motion vector search range as a filter. For example, when the motion detection range is a range of ± n pixels in the vertical and horizontal directions on the high resolution side, it can be implemented as a filter of vertical and horizontal (1 + 2n) pixels × 2 frames including the target pixel.

以上述べたフィルタ実装により、共役勾配法で最も演算量を必要とする行列Aとベクトルpの積の演算を、係数が0の演算を省略して、数個のフィルタ演算の線形和として、必要最小限の演算量で計算することができる。これらのフィルタ演算のうち、動き拘束以外のものは、処理する画像の内容によらず固定の係数のフィルタを事前に用意できる。一方、動き拘束はシーンの動きに依存するので、処理する画像の内容(本実施形態の場合、動き検出の結果)に応じてフィルタ係数を都度決定する必要がある。   With the filter implementation described above, computation of the product of matrix A and vector p, which requires the most amount of computation in the conjugate gradient method, is necessary as a linear sum of several filter computations, omitting computation with a coefficient of 0. It is possible to calculate with a minimum amount of calculation. Among these filter operations, those other than motion constraints can be prepared in advance with fixed coefficient filters regardless of the contents of the image to be processed. On the other hand, since the motion constraint depends on the motion of the scene, it is necessary to determine the filter coefficient each time according to the content of the image to be processed (in the present embodiment, the result of motion detection).

なお、共役勾配法によるGHHの計算について、本実施形態では全ての画素において計算する場合について述べたが、動き検出結果(Gの露光時間に相当するフレーム分の動きベクトルの長さの総和)に応じて、動きのある領域についてのみGHHの計算を行い、動きがほとんどない領域については、Gの入力画像をそのままGHHとすることにより、一層の演算量低減を図ることができる。 In this embodiment, the calculation of GHH by the conjugate gradient method has been described for all pixels. However, the motion detection result (the sum of the lengths of motion vectors for frames corresponding to the exposure time of G) is described. Accordingly, the calculation amount G HH is calculated only for a region with motion, and for a region with little motion, the G input image is directly used as G HH , thereby further reducing the amount of calculation.

また、共役勾配法によるGHHの計算において、動きの小さい領域では、時間方向の滑らかさ拘束を強めるようにしてもよい。これにより、定性的には、Gの入力画像をそのままGHHとすることと同様のこととなるとともに、数値的に安定化させることができ、繰り返し計算の収束を早めることができる。 Further, in the calculation of GHH by the conjugate gradient method, smoothness constraint in the time direction may be strengthened in a region where the motion is small. Thus, qualitatively, with the same thing as it is directly and G HH the input image G, it is possible to numerically stabilized, it is possible to accelerate the convergence of the iterative calculation.

なお、上述の(数3)および(数9)に関しては、右辺の拘束条件は、必ずしもそれら全てを同時に用いる必要はない。以下のような変形例を用いてもよい。すなわち、(数3)および(数9)の右辺第2項を利用せずに

Figure 2011015228
としたり、
Figure 2011015228
としてもよい。 In addition, regarding the above (Equation 3) and (Equation 9), it is not always necessary to use all of the constraint conditions on the right side at the same time. The following modifications may be used. That is, without using the second term on the right side of (Equation 3) and (Equation 9)
Figure 2011015228
Or
Figure 2011015228
It is good.

これらの変形例によれば、全ての拘束条件を用いて(数3)もしくは(数9)によって計算するよりも少ない演算量でG成分の高解像度化を実現できる。ただし、拘束条件を緩和することになるため、生成される画像の高解像度感が多少低下することがある。   According to these modified examples, it is possible to realize high resolution of the G component with a smaller amount of calculation than that calculated by (Equation 3) or (Equation 9) using all the constraint conditions. However, since the constraint condition is relaxed, the high-resolution feeling of the generated image may be slightly reduced.

また、動き検出が難しいシーンでは、動き検出の結果を用いない数式((数11)または(数12))によって高解像度化処理を行うことにより、出力される画像の画質に関して、動きの誤検出によるアーティファクト(画像の乱れ、ノイズ)の発生を抑えることができる。シーンからの動き検出が難しいか否かは、(a)時間的に双方向に動き検出を行った結果の差異から判断したり、(b)(数1)、(数2)に示した動き検出時の評価値の探索範囲内での最小値から判断することができる。   Further, in a scene where motion detection is difficult, by performing high resolution processing using a mathematical expression ((Equation 11) or (Equation 12)) that does not use the result of motion detection, erroneous detection of motion with respect to the image quality of the output image It is possible to suppress the occurrence of artifacts (disturbances of images, noise) due to. Whether motion detection from a scene is difficult is determined from (a) the difference in the results of motion detection in both directions in time, or (b) the motion shown in (Equation 1) and (Equation 2). It can be judged from the minimum value within the search range of the evaluation value at the time of detection.

前者(a)の場合、基準フレームの画像中の(x,y)において、時間的に順方向の動き検出結果が(u,v)であるとすると、次に順方向の動き検出時の参照フレームを基準に逆方向に動き検出をして、(x+u,y+v)における動き検出結果が(−u,−v)であれば、双方向の動き検出において一貫性があり信頼できる。一方、(−u,−v)と異なる場合、例えば一定のしきい値以上の差異がある場合には、動き検出が難しい状況であると判断できる。   In the case of the former (a), if the forward motion detection result is (u, v) in time in (x, y) in the image of the reference frame, the reference for the next forward motion detection is performed. If motion detection is performed in the reverse direction with reference to the frame and the motion detection result at (x + u, y + v) is (−u, −v), the motion detection in both directions is consistent and reliable. On the other hand, when it is different from (−u, −v), for example, when there is a difference greater than a certain threshold value, it can be determined that it is difficult to detect motion.

また、後者(b)の場合も同様に、SSDやSADの動き検出時の評価値の探索範囲内での最小値について、例えば予め定めたしきい値以上である場合、動き検出が難しい状況であると判断できる。   Similarly, in the case of the latter (b), when the minimum value within the search range of the evaluation value at the time of motion detection of SSD or SAD is equal to or greater than a predetermined threshold, for example, motion detection is difficult. It can be judged that there is.

再び図1を参照する。R,B用アップコンバータ107は、G用アップコンバータ106によって高解像度化されたG成分の動画像を用いて、第1撮像部103によって、短時間露光、低解像度、高フレームレートの撮像条件で撮像されたR,B成分の動画像を高解像度化する。   Refer to FIG. 1 again. The R and B up-converters 107 use the G component moving image that has been increased in resolution by the G up-converter 106, and the first imaging unit 103 performs imaging with short-time exposure, low resolution, and high frame rate. The resolution of the captured moving image of the R and B components is increased.

以下、図5を参照しながら、R,B成分の動画像を高解像度化する処理を詳細に説明する。   Hereinafter, a process for increasing the resolution of a moving image of the R and B components will be described in detail with reference to FIG.

図5は、R,B用アップコンバータ107の構成をより詳細に示す。図5において、図1の撮像処理装置の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。   FIG. 5 shows the configuration of the upconverter 107 for R and B in more detail. In FIG. 5, the same reference numerals are given to components common to the components of the imaging processing apparatus in FIG. 1, and description thereof is omitted.

R,B用アップコンバータ107は、ダウンコンバータ110と、係数推定部111と、復元フィルタ112とを有している。   The R and B up converter 107 includes a down converter 110, a coefficient estimation unit 111, and a restoration filter 112.

ダウンコンバータ110は、G用アップコンバータ106によって高解像度化されたG成分(GHH)を空間的に低解像化し、GLHを出力する。係数推定部111は、GHHとGLHから復元フィルタ112(復元フィルタH+)のフィルタ係数を推定する。復元フィルタ112として、ウィーナフィルタや一般逆フィルタ等の公知のフィルタを用いることができる。これらの復元フィルタは、GHHとGLHの関係を用いて、低解像度側の信号から高解像度側の信号を推定するものである。復元フィルタ112は、係数推定部111によって推定されたフィルタ係数を用いて、RLH,BLHからRHH,BHHを復元する。 The down-converter 110 spatially reduces the resolution of the G component (G HH ) that has been increased in resolution by the G up-converter 106 and outputs G LH . The coefficient estimation unit 111 estimates the filter coefficient of the restoration filter 112 (restoration filter H +) from GHH and GLH . As the restoration filter 112, a known filter such as a Wiener filter or a general inverse filter can be used. These restoration filters estimate the high-resolution signal from the low-resolution signal using the relationship between GHH and GLH . The restoration filter 112 restores R HH and B HH from R LH and B LH using the filter coefficient estimated by the coefficient estimation unit 111.

なお、R,B用アップコンバータ107におけるR,Bの高解像度化処理は、上述の処理に限る必要はなく、他の高解像度化処理によって行ってもよい。他の例による高解像度化処理を以下に説明する。   Note that the R and B resolution enhancement processing in the R and B up converter 107 is not limited to the above-described processing, and may be performed by other resolution enhancement processing. The resolution enhancement process according to another example will be described below.

図6は、他の例によるR,B用アップコンバータ107の構成を詳細に示す。ここで、R,B用アップコンバータ107は、RとBの相関に応じてGの高域成分を、補間拡大したR成分およびB成分に重畳することにより、R成分およびB成分を高解像度化する。   FIG. 6 shows in detail the configuration of the upconverter 107 for R and B according to another example. Here, the upconverter 107 for R and B increases the resolution of the R component and the B component by superimposing the G high frequency component on the R component and the B component that have been interpolated and expanded according to the correlation between R and B. To do.

図6に示されるR,B用アップコンバータ107は、ダウンコンバータ113と、補間拡大部114と、局所相関演算部115と、重み生成部116と、カウンタ117と、画像メモリ118と、正規化部119とを有している。   The R and B up-converter 107 shown in FIG. 6 includes a down converter 113, an interpolation enlargement unit 114, a local correlation calculation unit 115, a weight generation unit 116, a counter 117, an image memory 118, and a normalization unit. 119.

R,B用アップコンバータ107は、動画像を構成するフレーム単位で処理を行う。まず、各フレーム処理の初めに、カウンタ117の内容と画像メモリ118の内容を、例えば0で埋めることにより、クリアする。   The R and B up-converters 107 perform processing in units of frames constituting a moving image. First, at the beginning of each frame process, the contents of the counter 117 and the contents of the image memory 118 are cleared by filling them with 0, for example.

低解像度化部113はG用アップコンバータ106によって高解像度化されたG成分(GHH)を空間的に低解像化し、GLHを出力する。 Resolution reduction unit 113 high resolution has been G component (G HH) spatially Teikai Zoka by G Upconverter 106, and outputs the G LH.

補間拡大部114は、低解像度、高フレームレートで撮像されたRLH,BLHと撮影条件とを受け取り、RLHとBLHとをGHHと同じ画素数になるように補間拡大する。 Interpolation based expansion section 114, a low resolution, R LH captured at a high frame rate, receives a B LH and imaging conditions, the R LH and B LH interpolating enlargement to be the same number of pixels as G HH.

局所相関演算部115は、2×2画素や3×3画素程度の局所的な領域に関し、RLHとBLHの局所的な相関値を計算する。2×2画素について局所的な相関値ρを計算するときは、局所相関演算部115は、例えば(数15)を利用することができる。

Figure 2011015228
The local correlation calculation unit 115 calculates a local correlation value between R LH and B LH for a local region of about 2 × 2 pixels or 3 × 3 pixels. When calculating the local correlation value ρ for 2 × 2 pixels, the local correlation calculation unit 115 can use, for example, (Equation 15).
Figure 2011015228

重み生成部116は、局所相関演算部115によって計算された相関値に応じた重みを生成する。図7は、相関値ρと重みW2との関係の例を示す。重み生成部116は、相関値ρと図7に示す関係とに基づいて、重みW2を求める。   The weight generation unit 116 generates a weight according to the correlation value calculated by the local correlation calculation unit 115. FIG. 7 shows an example of the relationship between the correlation value ρ and the weight W2. The weight generation unit 116 obtains the weight W2 based on the correlation value ρ and the relationship shown in FIG.

図6に示されるように、重み生成部116によって生成され、出力された重みと、GHHとGLHの差(すなわちGの高域成分)とが乗算され、画像メモリ118が更新される。より詳しくは、乗算が行われた後、画像メモリ118内の画素データの格納位置に応じたアドレスが特定される。そして、乗算結果とそのアドレスに保持されていた値とが加算され、そのアドレスの値が加算結果に書き換えられる。 As shown in FIG. 6, the weight generated and output by the weight generation unit 116 is multiplied by the difference between GHH and GLH (that is, the high frequency component of G), and the image memory 118 is updated. More specifically, after multiplication is performed, an address corresponding to the storage position of the pixel data in the image memory 118 is specified. Then, the multiplication result and the value held at the address are added, and the value at the address is rewritten to the addition result.

このとき、画像メモリ118に書き込みを行う対象は、1画素でもよく、または、局所的な相関値を計算した範囲でもよい。ただし、後者のように複数画素について高域成分を重畳する場合、局所相関を計算する領域の設定の仕方(すなわち画像内でのインクリメントの仕方)によっては、同一画素に複数回、高域成分を重畳することになる。そのような場合を考慮して、図6のR,B用アップコンバータ107では、カウンタ117を利用する。カウンタ117は、高域成分を重畳した回数を各画素について記憶する。   At this time, the object to be written in the image memory 118 may be one pixel or a range in which a local correlation value is calculated. However, when the high frequency component is superimposed on a plurality of pixels as in the latter case, depending on the setting method of the region for calculating the local correlation (that is, the increment method in the image), the high frequency component is applied to the same pixel a plurality of times. It will be superimposed. In consideration of such a case, the R and B up converter 107 in FIG. 6 uses the counter 117. The counter 117 stores the number of times that the high frequency component is superimposed for each pixel.

正規化部119は、複数回重畳した高域成分を、カウンタ117に1画素毎に記憶されている書き込み回数値で除算する。正規化された高域成分は、補間拡大部114によって補間拡大されたR,B画像に重畳され、RHH,BHHとして出力される。 The normalization unit 119 divides the high frequency component superimposed a plurality of times by the write count value stored in the counter 117 for each pixel. The normalized high frequency component is superimposed on the R and B images that have been interpolated and enlarged by the interpolation enlarging unit 114, and is output as R HH and B HH .

以上述べた方法によって、R,Bを高解像度化することにより、局所的な色バランスを保った状態でRとBとを高解像度化することができ、その結果、偽色の発生を抑えた高解像度化を行うことができる。   By increasing the resolution of R and B by the method described above, it is possible to increase the resolution of R and B while maintaining local color balance, and as a result, the generation of false colors is suppressed. High resolution can be achieved.

なお、図7には相関値と重みの関係の一例として線形な関係の場合を示した。しかしこれは例であり、撮像時や表示時のγ特性を考慮して非線形な関係にしてもよい。また、前記の重みを、Rについては(Rの局所平均)/(Gの局所平均)で正規化し、Bについては(Bの局所平均)/(Gの局所平均)で正規化してもよい。この正規化により、R、G、Bの画素値に応じて、RとB重畳するGの高域成分の振幅を調節することができ、過度な高域の重畳による観察時の違和感を低減できる。ここで、R、G、Bの局所平均としては、補間拡大したRLH、BLHや図6のダウンコンバータ113でGHHをダウンコンバートしたGLHの画素値を用いればよい。 FIG. 7 shows a linear relationship as an example of the relationship between the correlation value and the weight. However, this is an example, and a non-linear relationship may be used in consideration of the γ characteristic at the time of imaging or display. The weights may be normalized by (local average of R) / (local average of G) for R and normalized by (local average of B) / (local average of G) for B. By this normalization, it is possible to adjust the amplitude of the G high-frequency component to be superimposed on R and B according to the R, G, and B pixel values, and to reduce the uncomfortable feeling during observation due to excessive high-frequency superimposition. . Here, as the local average of R, G, and B, pixel values of R LH and B LH expanded by interpolation or G LH obtained by down-converting GHH by the down converter 113 in FIG. 6 may be used.

なお、補間拡大したR、B画像に対する高域成分の重畳を1画素につき1回だけ行うように動作させるとすると、図6の画像メモリ118、カウンタ117、正規化部119は不要であり、図8に示す構成を採用することができる。図8は、R,B用アップコンバータ107の構成の変形例を示す。図8に示すように、図6と比較するとより簡単な構成でR,B用アップコンバータ107を実現することができ、かつ、同様の効果を得ることができる。   If the operation is performed so that the high-frequency component is superimposed only once per pixel on the R and B images that have undergone interpolation enlargement, the image memory 118, the counter 117, and the normalization unit 119 in FIG. 6 are not necessary. The configuration shown in FIG. FIG. 8 shows a modification of the configuration of the upconverter 107 for R and B. As shown in FIG. 8, the R and B up-converters 107 can be realized with a simpler configuration than that of FIG. 6, and the same effect can be obtained.

なお、R,B用アップコンバータ107におけるR,Bの高解像度化処理は、上述したいわゆる復元フィルタを用いた処理や、Gの高域成分をRおよびB成分に重畳する処理に限る必要はない。高解像度化したG成分とそれを低解像度化したもの(上記GLHとGHH)との間の関係を学習し、学習結果に基づいてR成分、B成分を高解像度化するようにしてもよい。 Note that the resolution enhancement processing for R and B in the R and B up-converter 107 need not be limited to the processing using the above-described so-called restoration filter or the processing for superimposing the G high-frequency component on the R and B components. . It is also possible to learn the relationship between the high resolution G component and the low resolution (G LH and G HH ), and to increase the resolution of the R and B components based on the learning result. Good.

なお、学習は入力された画像の処理過程において行うものに限らず、予め事前に学習パターンを用意して行うようにしてもよい。この場合には、低解像度のG成分と高解像度のG成分の関係を学習する方法だけでなく、低解像のRGB成分と高解像度のRGB成分の関係を学習することも可能である。   Note that learning is not limited to being performed in the process of processing an input image, but may be performed by preparing a learning pattern in advance. In this case, it is possible not only to learn the relationship between the low resolution G component and the high resolution G component, but also to learn the relationship between the low resolution RGB component and the high resolution RGB component.

なお、S.Farsiuら、“Multiframe Demosaicing and Super−Resolution of Color Images”,IEEE Transactions of Image Processing,Vol.15,No.1,2006.Ron Kimmel,“Demosaicing: Image Reconstruction from Color CCD Samples”,IEEE Transactions of Image Processing,Vol.8,No.9,1999.Daniel Kerenら、“Restoring Subsampled Color Images”,Machine Vision and Applications 11: pp.197−202,1999.等の文献では、画像復元時のRGB間の局所的な相関性に基づく拘束条件を用いている。自然画像では、大部分の領域でRGB間に正の相関があるため、一般にこの拘束条件は有効に機能するが、領域の色が原色やそれらの補色に近い場合、別の色との境界では、局所的な相関関係が負になり、設定している拘束条件が有効に働かず、復元画像中に色にじみ、リンギング等のアーチファクトを生じさせる原因となる。   S. Farsiu et al., “Multiframe Demonstration and Super-Resolution of Color Images”, IEEE Transactions of Image Processing, Vol. 15, no. 1,2006. Ron Kimmel, “Demosaicing: Image Reconstruction from Color CCD Samples”, IEEE Transactions of Image Processing, Vol. 8, no. 9, 1999. Daniel Keren et al., "Restoring Subsampled Color Images", Machine Vision and Applications 11: pp. 197-202, 1999. And the like use a constraint condition based on local correlation between RGB at the time of image restoration. In natural images, there is a positive correlation between RGB in most areas, so this constraint generally works effectively. However, if the color of the area is close to the primary colors or their complementary colors, at the boundary with another color, The local correlation becomes negative, and the set constraint condition does not work effectively, causing artifacts such as color bleeding and ringing in the restored image.

これに対し、本実施形態で用いた色間にまたがる滑らかさ拘束では、局所的な色相関に基づくような正の相関は仮定しておらず、局所的な滑らかさだけを仮定しているので、相関という観点では正の相関でも、負の相関でもよい。そのため、上記の局所的な相関関係が負になるような領域でも、復元画像中に色にじみ、リンギング等のアーチファクトが顕著に発生することがない。   On the other hand, in the smoothness constraint across colors used in this embodiment, a positive correlation based on local color correlation is not assumed, but only local smoothness is assumed. From the viewpoint of correlation, positive correlation or negative correlation may be used. Therefore, even in the region where the local correlation is negative, artifacts such as color bleeding and ringing do not occur remarkably in the restored image.

これまでの説明では、出力信号はR,G,Bの各色成分であるとした。以下では、RGBの各出力信号を輝度成分と色差成分に変換して出力する撮像処理装置を説明する。   In the above description, the output signal is assumed to be R, G, B color components. Hereinafter, an imaging processing apparatus that converts each RGB output signal into a luminance component and a color difference component for output will be described.

図9は、本実施形態の変形例による撮像処理装置11の構成を示す。図9において、上述した撮像処理装置の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。   FIG. 9 shows a configuration of an imaging processing apparatus 11 according to a modification of the present embodiment. In FIG. 9, the same reference numerals are assigned to the same components as those of the imaging processing apparatus described above, and the description thereof is omitted.

画像処理部105は、G用アップコンバータ106、補間拡大部114、およびダウンコンバータ113に加え、さらに色差計算部129および輝度計算部130を有する。   The image processing unit 105 includes a color difference calculation unit 129 and a luminance calculation unit 130 in addition to the G up-converter 106, the interpolation enlargement unit 114, and the down converter 113.

制御部120は、補間拡大部114によって補間拡大されたR成分、B成分の信号、および、低解像度化部113で低解像度化されたG成分の信号を受け取り、(数16)の計算によって色差信号(Cb信号、Cr信号)に変換して出力する。

Figure 2011015228
The control unit 120 receives the R component and B component signals that have been interpolated and expanded by the interpolation expanding unit 114, and the G component signal that has been reduced in resolution by the resolution reducing unit 113, and calculates the color difference by the calculation of (Equation 16). It converts into a signal (Cb signal, Cr signal) and outputs.
Figure 2011015228

輝度計算部130は、補間拡大部114によって補間拡大されたR成分、B成分の信号、および、G用アップコンバータで高解像度化されたG成分の信号を受け取り、(数17)の計算によって輝度信号(Y信号)に変換して出力する。

Figure 2011015228
The luminance calculation unit 130 receives the R component and B component signals interpolated and enlarged by the interpolation enlargement unit 114, and the G component signal whose resolution has been increased by the G upconverter, and the luminance is calculated by the calculation of (Equation 17). A signal (Y signal) is converted and output.
Figure 2011015228

上述の色差計算部129および輝度計算部130の説明から理解されるように、色差成分Cb、Crの計算には低解像度化したGを用い、一方、輝度成分Yの計算には高解像度化されたGを用いている。これにより、偽色の発生を抑えつつ、出力される画像の高解像度化を実現できる。   As can be understood from the description of the color difference calculation unit 129 and the luminance calculation unit 130 described above, the low-resolution G is used for the calculation of the color difference components Cb and Cr, while the high resolution is used for the calculation of the luminance component Y. G is used. As a result, it is possible to increase the resolution of the output image while suppressing the occurrence of false colors.

なお、画像処理部105の後段にY、Cb、Crの各信号をRGBの各信号へ変換するブロックをさらに設けて、RGB成分の信号を出力する構成にしてもよい。   Note that a block that converts Y, Cb, and Cr signals into RGB signals may be further provided at the subsequent stage of the image processing unit 105 to output RGB component signals.

なお、本実施形態による撮像処理装置およびその変形例による撮像処理装置は、G成分を高解像度、長時間露光、低フレームレートで撮像し、R成分およびB成分を低解像度、短時間露光、高フレームレートで撮像するとした。しかしながら、これは例である。どの色成分(波長帯)を高解像度、長時間露光、低フレームレートで撮像するかについては、他の例を採用することが可能である。   Note that the imaging processing apparatus according to the present embodiment and the imaging processing apparatus according to the modification thereof capture the G component with high resolution, long exposure, and low frame rate, and the R component and B component with low resolution, short exposure, high Suppose you want to capture at the frame rate. However, this is an example. Other examples can be adopted as to which color component (wavelength band) is imaged at high resolution, long exposure, and low frame rate.

例えば、海やプール等、水中のシーンを撮像する場合のように、シーン中にB成分が強く現れることが事前に分っている場合には、B成分を高解像度、長時間露光、低フレームレートで撮像し、R成分およびG成分を低解像度、短時間露光、高フレームレートで撮像することにより、観察者により高解像度感のある画像を提示することができる。   For example, when it is known in advance that the B component appears strongly in the scene, such as when capturing an underwater scene such as the sea or a pool, the B component is displayed with high resolution, long exposure, and low frame. By imaging at a rate and imaging the R component and G component at a low resolution, short exposure, and a high frame rate, an image with a high resolution feeling can be presented to the observer.

例えば図10は、撮像処理装置1を一般化した撮像処理装置13の構成を示す。図10において、図1の撮像処理装置の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。   For example, FIG. 10 shows a configuration of an imaging processing device 13 that generalizes the imaging processing device 1. In FIG. 10, the same reference numerals are given to components common to the components of the imaging processing apparatus in FIG. 1, and description thereof is omitted.

撮像処理装置13は、R成分撮像部131と、G成分撮像部132と、B成分撮像部133と、制御部134と、切替部135と、HL用アップコンバータ136と、LH用アップコンバータ137と、出力部138とを有している。以下、撮像処理装置13の動作とともに各構成要素の機能を説明する。   The imaging processing device 13 includes an R component imaging unit 131, a G component imaging unit 132, a B component imaging unit 133, a control unit 134, a switching unit 135, an HL up-converter 136, and an LH up-converter 137. And an output unit 138. Hereinafter, the function of each component will be described together with the operation of the imaging processing device 13.

光学系101を通った可視光は、ダイクロイックプリズムで波長分解され、R成分撮像素子131、G成分撮像素子132、B成分撮像素子133によって撮像される。RGB各成分の撮像部131,132,133の読み出し画素数は、ビニング読み出し方法により、個別に、かつ動的に設定できる。「ビニング読み出し方法」とは、隣接する画素に蓄積された電荷を加算して読み出す方法である。また、各撮像部131,132,133では、露光時間、フレームレートについても同様に設定可能とする。読み出し時の条件設定は、制御部134によって行われる。   The visible light that has passed through the optical system 101 is wavelength-resolved by the dichroic prism, and is imaged by the R component imaging device 131, the G component imaging device 132, and the B component imaging device 133. The number of pixels read out by the imaging units 131, 132, and 133 for each of the RGB components can be individually and dynamically set by a binning readout method. The “binning readout method” is a method of reading out by adding charges accumulated in adjacent pixels. In each of the imaging units 131, 132, and 133, the exposure time and the frame rate can be set similarly. The condition setting at the time of reading is performed by the control unit 134.

制御部134は、シーン中の色成分の分布に応じて、R成分撮像素子131、G成分撮像素子132、B成分撮像素子133のうちのいずれかを、高解像度、長時間露光、低フレームレート(実施形態1におけるGに相当)に設定し、残りを低解像度、短時間露光、高フレームレート(実施形態1におけるR,Bに相当)に設定する。   The control unit 134 controls any one of the R component imaging device 131, the G component imaging device 132, and the B component imaging device 133 according to the distribution of color components in the scene, with high resolution, long exposure, and low frame rate. (Corresponding to G in the first embodiment), and the rest are set to low resolution, short-time exposure, and high frame rate (corresponding to R and B in the first embodiment).

なお、撮像開始時にはシーン中の色成分の分布が未知であるので、例えばGを高解像度、長時間露光、低フレームレートに設定するようにすればよい。   Since the distribution of the color components in the scene is unknown at the start of imaging, for example, G may be set to high resolution, long exposure, and low frame rate.

切替部135は、制御部によるRGB各成分の撮像部131,132,133の設定に応じて、高解像度、長時間露光、低フレームレートでの撮像が設定されている成分の撮像データがHL用アップコンバータ136に入力され、残りの成分のデータがLH用アップコンバータ137に入力されるように切り替え動作を行う。   According to the setting of the imaging units 131, 132, 133 for each of the RGB components by the control unit, the switching unit 135 uses the imaging data of the components for which imaging with high resolution, long exposure, and low frame rate is set for HL. The switching operation is performed so that the data of the remaining components input to the up-converter 136 are input to the up converter 137 for LH.

HL用アップコンバータ136は、G用アップコンバータ106(例えば図1)と同じ処理を行い、高解像度、長時間露光、低フレームレートで撮像された成分の動画像を空間的に高解像化する。   The HL up-converter 136 performs the same processing as the G up-converter 106 (for example, FIG. 1), and spatially increases the resolution of the moving image of the component captured at high resolution, long exposure, and low frame rate. .

LH用アップコンバータ137は、低解像度、短時間露光、高フレームレートで撮像された2系統(2つの色成分)の動画像と、HL用アップコンバータ136で高解像度化された動画像とを受け取り、R,B用アップコンバータ107(例えば図1)と同じ処理により、その2系統の動画像を空間的に高解像化する。   The LH up-converter 137 receives two lines (two color components) of moving images captured at a low resolution, a short exposure, and a high frame rate, and a moving image that has been increased in resolution by the HL up-converter 136. , R and B up-converter 107 (for example, FIG. 1) is used to spatially increase the resolution of the two systems of moving images.

出力部138は、HL用アップコンバータ136とLH用アップコンバータ137によってそれぞれ高解像度化された動画像を受け取り、制御部134による設定に応じて、RGB3系統の動画を出力する。もちろん、出力部138が輝度信号(Y)および色差信号(Cb,Cr)信号等の、他の信号形式に変換して出力するようにしてもよい。   The output unit 138 receives moving images whose resolution has been increased by the HL up-converter 136 and the LH up-converter 137, respectively, and outputs RGB three-line moving images according to the settings by the control unit 134. Of course, the output unit 138 may convert the signal into another signal format such as a luminance signal (Y) and a color difference signal (Cb, Cr) signal and output the signal.

なお、撮像部は本実施形態に示す3板構成のものに限る必要はなく、例えば、単板構成でR,G,B間で電荷蓄積期間を変えたり、画素加算の仕方を変えることで空間解像度を変えるようにしたり、ライン間引き読み出しをするようにしてもよい。   Note that the imaging unit is not necessarily limited to the three-plate configuration shown in the present embodiment. For example, a single-plate configuration changes the charge accumulation period between R, G, and B, or changes the pixel addition method to change the space. The resolution may be changed, or line thinning readout may be performed.

(実施形態2)
次に、動きの大小に応じて処理効率を高めた実施形態を説明する。
(Embodiment 2)
Next, an embodiment in which the processing efficiency is increased according to the magnitude of the movement will be described.

図11は、本実施形態におけるG用アップコンバータ106の構成を示す。他の部分の構成は、基本的には、図1および図2を参照して説明した実施形態1の構成と同様である。このため、ここでは、相違部分を説明する。   FIG. 11 shows a configuration of the G up-converter 106 in the present embodiment. The configuration of the other parts is basically the same as the configuration of the first embodiment described with reference to FIGS. For this reason, a different part is demonstrated here.

本実施形態のG用アップコンバータ106は、動きのある領域に対する処理と動きのない領域に対する処理に分け、動きのある領域のみ高解像度化する処理を実行する。本実施形態では、図11に示すように、動き検出部171がRLH、BLHを入力として、動き検出結果と動きの信頼性の両方を出力する。領域分割部172は、動き検出部181によって検出された動き検出結果をもとに、動画像を3次元的に領域分割する。 The G up-converter 106 according to the present embodiment performs processing for increasing the resolution only for a region with motion by dividing the processing for a region with motion and processing for a region without motion. In the present embodiment, as shown in FIG. 11, the motion detection unit 171 receives R LH and B LH and outputs both the motion detection result and the motion reliability. The area dividing unit 172 divides the moving image into three-dimensional areas based on the motion detection result detected by the motion detecting unit 181.

図12は、領域分割部172による領域分割の一例を示す。図12では、動画像が動きのない領域(領域番号0)と2つの動きのある領域(領域番号1と2)に分割されている様子を示す。   FIG. 12 shows an example of area division by the area division unit 172. FIG. 12 shows a state in which a moving image is divided into a non-motion region (region number 0) and two motion regions (region numbers 1 and 2).

領域ごとの時間解像度アップコンバータ173は、領域分割部172によって動きに応じて領域分割された領域分割結果のうち、動きのある領域について、個々にそれぞれ時間解像度アップコンバート処理を施し、動きのない領域については、撮影時のGの加算フレーム数に応じて、入力画像のGの各画素値を等分する。例えば、Gの加算フレーム数が4であれば、入力画像のGの各画素値を4分の1にして4フレーム分出力する。   The temporal resolution up-converter 173 for each region performs temporal resolution up-conversion processing on each of the regions that have motion among the region segmentation results that are segmented according to the motion by the region segmentation unit 172, and each region has no motion. For G, each pixel value of G of the input image is equally divided according to the number of G addition frames at the time of shooting. For example, if the number of added frames of G is 4, each pixel value of G of the input image is reduced to a quarter and output for 4 frames.

上記の処理を行うことにより、動きのない静止領域に対する処理を簡略化することができ、演算量を低減することができる。また、領域分割された動きのある領域に対して個々に処理を行うことにより、それぞれの領域について解くべき連立方程式の変数数を減らすことができ、演算規模を小さくできる。   By performing the above processing, it is possible to simplify the processing for a static region where there is no motion, and reduce the amount of calculation. In addition, by performing individual processing on the divided regions with motion, it is possible to reduce the number of variables of simultaneous equations to be solved for each region, and to reduce the operation scale.

なお、上記では領域ごとの時間解像度アップコンバータ173の処理を、長時間露光画像に含まれる動きブレの除去と光量の分配の双方を含む分解処理として説明した。しかし、これに限る必要はなく、領域ごとの時間解像度アップコンバータ173の処理を、長時間露光画像に含まれる動きブレの除去のみにしてもよい。その場合、動きのない領域における処理は不要になり、単に入力をそのまま出力するだけでよい。   In the above description, the process of the temporal resolution upconverter 173 for each region has been described as a decomposition process including both the removal of motion blur included in the long-time exposure image and the distribution of the amount of light. However, the present invention is not limited to this, and the processing of the temporal resolution upconverter 173 for each region may be only removal of motion blur included in the long-time exposure image. In that case, processing in a region where there is no movement is unnecessary, and the input is simply output as it is.

上記の実施形態では、動きのある領域でのみ超解像処理をする場合について説明したが、動きの有無により処理を離散的に分けるだけでなく、動きの大小に応じて処理を連続的に切り替えるようにしてもよい。   In the above embodiment, the case where super-resolution processing is performed only in a region where there is motion has been described, but not only the processing is discretely divided depending on the presence or absence of motion, but also the processing is switched continuously according to the magnitude of motion. You may do it.

図13は、図4に対応する図面であり、時間解像度アップコンバータの構成の一例を示すものである。図13に示す空間滑らかさ拘束部182は、動きの大きさと信頼性に応じて、λsC1とλsC2を制御する。時間滑らかさ制御部183は、動きの大きさと信頼性に応じて、λtを制御する。 FIG. 13 is a drawing corresponding to FIG. 4 and shows an example of the configuration of the time resolution upconverter. The spatial smoothness restraint unit 182 shown in FIG. 13 controls λ sC1 and λ sC2 according to the magnitude and reliability of the motion. The time smoothness control unit 183 controls λt according to the magnitude and reliability of the movement.

空間滑らかさ拘束部182は、動きが大きいほど、すなわち、動きベクトルが長いほど、λsC1とλsC2を大きくし、逆に、動きが小さいほど、すなわち、動きベクトルが短いほど、λsC1とλsC2を小さくする。また、空間滑らかさ拘束部182は、動きの信頼性が高いほど、動きベクトルの長さに応じた制御を強くし、逆に、動きの信頼性が低いほど、動きベクトルの長さに応じた制御を小さくする。 The spatial smoothness restricting unit 182 increases λ sC1 and λ sC2 as the motion is larger, that is, the motion vector is longer, and conversely, as the motion is smaller, that is, as the motion vector is shorter, λ sC1 and λ Reduce sC2 . In addition, the spatial smoothness restraining unit 182 increases the control according to the length of the motion vector as the motion reliability is higher, and conversely, as the motion reliability is lower, the control according to the length of the motion vector is increased. Reduce control.

時間滑らかさ拘束部183は、動きが小さいほど、すなわち、動きベクトルが短いほど、λtを大きくし、逆に、動きが大きいほど、すなわち、動きベクトルが長いほど、λtを小さくする。また、時間滑らかさ拘束部183は、動きの信頼性が高いほど、動きベクトルの長さに応じた制御を強くし、逆に、動きの信頼性が低いほど、動きベクトルの長さに応じた制御を小さくする。   The time smoothness restricting unit 183 increases λt as the motion is small, that is, as the motion vector is short, and conversely, as the motion is large, that is, as the motion vector is long, λt is decreased. In addition, the time smoothness restraining unit 183 increases the control according to the length of the motion vector as the motion reliability is higher, and conversely, as the motion reliability is lower, the time smoothness constraint unit 183 responds to the length of the motion vector. Reduce control.

以上述べたλsC1、λsC2、λtについての制御により、動きの小さい領域や静止している領域では、時間滑らかさ拘束が強くなるため、動きの大小に応じて処理を連続的または段階的に切り替えることができる。 Due to the control of λ sC1 , λ sC2 , and λt described above, the temporal smoothness constraint becomes stronger in a small motion region or a stationary region, so the processing is performed continuously or stepwise according to the magnitude of the motion. Can be switched.

(実施形態3)
上述の実施形態1、2においては、撮像処理と高解像度化処理とが同一のシステム(撮像処理装置)によって行われる例を説明した。しかしながら、両処理は必ずしも同一のシステムで行われる必要はない。
(Embodiment 3)
In the first and second embodiments, the example in which the imaging process and the resolution enhancement process are performed by the same system (imaging processing apparatus) has been described. However, both processes are not necessarily performed in the same system.

本実施形態においては、撮像処理と高解像度化処理とが異なるシステムにおいて行われる例を説明する。   In the present embodiment, an example will be described in which imaging processing and high resolution processing are performed in different systems.

図14は、本実施形態による撮像装置901、ネットワーク902および処理装置903で構成された画像処理システムの例を示す。ネットワーク902に代えて、メディア906を用いても、本実施形態による画像処理システムを構成することができる。図14において、実施形態1、2の撮像処理装置(例えば図1)の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。   FIG. 14 shows an example of an image processing system including an imaging device 901, a network 902, and a processing device 903 according to the present embodiment. The image processing system according to the present embodiment can be configured by using the media 906 instead of the network 902. In FIG. 14, the same reference numerals are given to the same components as those of the imaging processing apparatuses (for example, FIG. 1) of the first and second embodiments, and the description thereof will be omitted.

撮像装置901は、レンズ系101と、ダイクロイックミラー102と、第1撮像部103と、第2撮像部104と、撮影モード設定部904とを有している。   The imaging device 901 includes a lens system 101, a dichroic mirror 102, a first imaging unit 103, a second imaging unit 104, and a shooting mode setting unit 904.

第1撮像部103は、カラー画像のR成分とB成分とを短時間の露光時間で、低解像度かつ高フレームレートで撮像し、R画像RLHおよびB画像BLHを出力する。第2撮像部104は、カラー画像のG成分を長時間の露光時間で、高解像度かつ低フレームレートで撮像し、G画像GHLを出力する。 The first imaging unit 103 captures an R component and a B component of a color image with a short exposure time, a low resolution and a high frame rate, and outputs an R image R LH and a B image B LH . The second imaging unit 104 captures the G component of the color image with a long exposure time with a high resolution and a low frame rate, and outputs a G image GHL .

撮影モード設定部904は、例えば第2撮像部104におけるフレームレート、露光時間等の、設定が可変な撮影条件を設定し、設定した条件を示す情報を映像信号のヘッダ中に書き込み、または、別途データとして出力部905を介してネットワーク902に出力する。   The shooting mode setting unit 904 sets shooting conditions whose settings are variable, such as the frame rate and the exposure time in the second imaging unit 104, for example, and writes information indicating the set conditions in the header of the video signal or separately. Data is output to the network 902 via the output unit 905.

図15は、データの構成の1例を示すものである。図15において、ヘッダ部には、フレームレート、露光時間(もしくは、Gの露光時間をR,Bのフレーム数に換算した値)等の撮影条件(設定が可変な条件)が保存され、これに、R,Bの画像データ、Gの画像データが続く。   FIG. 15 shows an example of the data structure. In FIG. 15, the header portion stores shooting conditions (conditions in which settings can be changed) such as a frame rate and an exposure time (or a value obtained by converting the G exposure time into the number of R and B frames). , R, B image data, and G image data follow.

出力部905は、撮像装置901によって撮像されたG画像GHL、R画像RLH、B画像BLH、および、それらの撮影条件の情報をネットワーク902またはメディア906に出力する。 The output unit 905 outputs the G image G HL , the R image R LH , the B image B LH , and information on the imaging conditions thereof captured by the imaging device 901 to the network 902 or the medium 906.

処理装置903は、画像処理部105を有している。画像処理部105は、ネットワーク902またはメディア906を介して、上記GHL、RLH、BLHおよびその撮影条件の情報を受け取り、実施形態1、2において説明した処理により、これらを空間的、時間的に高解像度化したGHH、RHH、BHHを出力する。 The processing device 903 has an image processing unit 105. The image processing unit 105 receives the information on the G HL , R LH , B LH and the photographing conditions thereof via the network 902 or the medium 906, and these are spatially and temporally processed by the processing described in the first and second embodiments. G HH , R HH , and B HH with higher resolution are output.

以上の構成により、撮像装置と処理装置とが別体で構成され、空間的に離れて存在していても、ネットワーク902またはメディア906を介して動画像信号および撮影条件の情報を授受できるように構成することにより、処理装置が高時空間解像度の動画像を出力できる。   With the above configuration, the imaging device and the processing device are configured separately, so that even if they are spatially separated, moving image signals and shooting condition information can be exchanged via the network 902 or the media 906. By configuring, the processing device can output a moving image with high spatiotemporal resolution.

なお、ネットワーク902は家庭内に構築されたLAN(Local Area Network)でもよいし、インターネットなどのWAN(Wide Area Network)でもよい。または、USB規格やIEEE1394規格の通信回線でもよい。さらに無線でも有線でもよい。上述のメディア906は、光ディスクや取り外し可能なハードディスクなどのリムーバブルディスク、フラッシュメモリカードが含まれる。   Note that the network 902 may be a local area network (LAN) built in a home, or a wide area network (WAN) such as the Internet. Alternatively, it may be a USB standard or IEEE 1394 standard communication line. Furthermore, it may be wireless or wired. The medium 906 includes a removable disk such as an optical disk and a removable hard disk, and a flash memory card.

上述の各実施形態では、撮像処理装置は、図に示す種々の構成を有するとして説明した。例えば、各構成に含まれる画像処理部などは、機能的に見たブロックとして記載されていた。これらの機能ブロックは、ハードウェア的には、デジタル信号プロセッサ(DSP)のような1つの半導体チップまたはICによって実現することも可能であるし、例えばコンピュータとソフトウェア(コンピュータプログラム)とを用いて実現することもできる。   In each of the above-described embodiments, the imaging processing apparatus has been described as having various configurations illustrated in the drawings. For example, the image processing unit included in each configuration is described as a functional block. In terms of hardware, these functional blocks can also be realized by a single semiconductor chip or IC such as a digital signal processor (DSP), and can be realized by using, for example, a computer and software (computer program). You can also

図16は、コンピュータによって構成された撮像処理装置のハードウェアの一例を示す。   FIG. 16 illustrates an example of hardware of an imaging processing apparatus configured by a computer.

各実施形態の画像処理装置の各機能ブロックと、図16に示すハードウェアとの対応関係は以下のとおりである。以下では例として、主に図1に示す撮像処理装置1を挙げて説明する。   The correspondence between each functional block of the image processing apparatus of each embodiment and the hardware shown in FIG. 16 is as follows. Hereinafter, as an example, the imaging processing apparatus 1 illustrated in FIG. 1 will be mainly described.

撮像処理装置1のレンズ系101、ダイクロイックミラー102、第1撮像部103および第2撮像部104は、図16に示すカメラ151およびA/D変換器152に対応する。また、画像処理部105が実際の処理で利用する一時バッファ(図示せず)やメディア906は、図16に示すフレームメモリ153またはハードディスクドライブ(HDD)160に対応する。そして制御部120および画像処理部105は、コンピュータプログラムを実行した図16のCPU154によって実現される。   The lens system 101, the dichroic mirror 102, the first imaging unit 103, and the second imaging unit 104 of the imaging processing apparatus 1 correspond to the camera 151 and the A / D converter 152 illustrated in FIG. A temporary buffer (not shown) and media 906 used by the image processing unit 105 in actual processing correspond to the frame memory 153 or the hard disk drive (HDD) 160 shown in FIG. The control unit 120 and the image processing unit 105 are realized by the CPU 154 in FIG. 16 that executes a computer program.

図16のコンピュータを動作させるコンピュータプログラムは、例えばROM155に保持されている。または、光ディスク、磁気ディスクに格納されていてもよい。また、有線や無線のネットワーク、放送などを介して伝送され、コンピュータのRAM156に取り込まれてもよい。   A computer program for operating the computer of FIG. 16 is stored in, for example, the ROM 155. Alternatively, it may be stored on an optical disk or a magnetic disk. Further, it may be transmitted via a wired or wireless network, broadcast, or the like, and taken into the RAM 156 of the computer.

コンピュータプログラムは、プロセッサであるCPU154によってRAM156に読み出されて展開される。CPU154はコンピュータプログラムの実態であるコード化された各命令を実行する。命令の実行結果として得られたデジタル画像信号は、フレームメモリ157に送られて一時的に保持され、D/A変換器158によってアナログ信号に変換され、ディスプレイ159に送られ、表示される。   The computer program is read and expanded in the RAM 156 by the CPU 154 which is a processor. The CPU 154 executes each coded instruction that is the actual state of the computer program. The digital image signal obtained as a result of executing the instruction is sent to the frame memory 157 and temporarily held, converted into an analog signal by the D / A converter 158, sent to the display 159, and displayed.

画像処理部105を実現するコンピュータプログラムの処理は、例えば次に説明するフローチャートにしたがって記述されている。   The processing of the computer program that implements the image processing unit 105 is described, for example, according to the flowchart described below.

例えば図17は、本発明の処理の手順を示すフローチャートである。この処理は、実施形態1による処理として説明するが、実施形態2の撮像装置901および処理装置903によって個別に行われる処理として把握することもできる。   For example, FIG. 17 is a flowchart showing the processing procedure of the present invention. Although this process is described as a process according to the first embodiment, it can also be understood as a process performed individually by the imaging device 901 and the processing device 903 of the second embodiment.

まずS101において、第1撮像部103および第2撮像部104は、長時間露光高解像度低フレームレートのG画像GHLと短時間露光低解像度高フレームレートのR画像RLH、B画像BLHとを撮像する。ステップS102において、画像処理部105のG用アップコンバータ106は、G成分の動画像を高解像度化する。より具体的には、ステップS104とS105とに分けることができる。ステップS104において、G用アップコンバータ106の動き検出部108は、動き検出を行う。ステップS105において、時間解像度アップコンバータ109は、動き検出の結果等を利用して、(数4)もしくは(数10)に基づいて(数3)もしくは(数9)をそれぞれ最小化するGHHを求める。 First, in step S101, the first imaging unit 103 and the second imaging unit 104 perform a long-exposure high-resolution low-frame-rate G image GHL , a short-exposure low-resolution high-frame-rate R image R LH , and a B image B LH . Image. In step S102, the G up-converter 106 of the image processing unit 105 increases the resolution of the G component moving image. More specifically, it can be divided into steps S104 and S105. In step S104, the motion detection unit 108 of the G upconverter 106 performs motion detection. In step S105, the temporal resolution upconverter 109 uses the motion detection result and the like to calculate G HH that minimizes (Equation 3) or (Equation 9) based on (Equation 4) or (Equation 10), respectively. Ask.

次のステップS103において、R,B用アップコンバータ107は、R成分およびB成分の各動画像を高解像度化する。その後、制御部120は、撮像が完了したか否かを判定し、完了していないと判定すると処理はステップS101から繰り返され、完了したと判定すると処理は終了する。   In the next step S103, the R and B up-converters 107 increase the resolution of each of the R component and B component moving images. Thereafter, the control unit 120 determines whether or not imaging has been completed. If it is determined that the imaging has not been completed, the process is repeated from step S101. If it is determined that imaging has been completed, the process ends.

図18は、図17に示すステップS103の詳細な処理の手順を示すフローチャートである。この処理は、図5に示すR,B用アップコンバータ107の処理に対応する。   FIG. 18 is a flowchart showing a detailed processing procedure of step S103 shown in FIG. This process corresponds to the process of the upconverter 107 for R and B shown in FIG.

図18のステップS106において、ダウンコンバータ110は、撮像条件に基づいてGHHを低解像度化する。ステップS107において、係数推定部111は復元フィルタ112に適用するための係数を推定する。ステップS108において、推定された係数が復元フィルタ112に適用され、復元フィルタ112は、RLHおよびBLHを高解像度化し、RHHおよびBHHを出力する。 In step S106 of FIG. 18, the down converter 110 reduces the resolution of GHH based on the imaging conditions. In step S <b> 107, the coefficient estimation unit 111 estimates a coefficient to be applied to the restoration filter 112. In step S108, the estimated coefficient is applied to the restoration filter 112, and the restoration filter 112 increases the resolution of R LH and B LH and outputs R HH and B HH .

図19は、他の例によるステップS103の詳細な処理の手順を示すフローチャートである。この処理は、図6に示すR,B用アップコンバータ107の処理に対応する。   FIG. 19 is a flowchart illustrating a detailed processing procedure of step S103 according to another example. This processing corresponds to the processing of the R and B up converter 107 shown in FIG.

ステップS109において、ダウンコンバータ113は、撮像条件に基づいてGHHを低解像度化する。ステップS110において、GHHからGLHが減算される。 In step S109, the down converter 113 reduces the resolution of GHH based on the imaging conditions. In step S110, G LH is subtracted from G HH.

一方、ステップS111において、補間拡大部114が撮像条件に基づいてRLHおよびBLHを補間拡大すると、その信号に基づいて、ステップS112において局所相関演算部115が局所的な相関値を計算する。 On the other hand, when the interpolation enlargement unit 114 performs interpolation enlargement of R LH and B LH based on the imaging condition in step S111, the local correlation calculation unit 115 calculates a local correlation value in step S112 based on the signal.

そしてステップS113において、重み生成部116が重みを生成すると、ステップS114においてカウンタ117が高域成分を重畳した回数を各画素について記憶する。ステップS115において、重み生成部116によって生成され、出力された重みと、GHHとGLHの差(すなわちGの高域成分)とが乗算され、ステップS116において画像メモリ118が更新される。 In step S113, when the weight generation unit 116 generates a weight, in step S114, the counter 117 stores the number of times the high frequency component is superimposed for each pixel. In step S115, the weight generated and output by the weight generation unit 116 is multiplied by the difference between GHH and GLH (that is, the high frequency component of G), and the image memory 118 is updated in step S116.

ステップS117において、正規化部119は、画像メモリ118に保持された、複数回重畳した高域成分を、カウンタ117に1画素毎に記憶されている書き込み回数値で除算して、正規化する。   In step S117, the normalization unit 119 normalizes the high-frequency component held in the image memory 118 by superimposing a plurality of times by dividing the high-frequency component by the write count value stored for each pixel in the counter 117.

そしてステップS118において、正規化された高域成分は、補間拡大部114によって補間拡大されたR,B画像に重畳され、RHH,BHHとして出力される。 In step S118, the normalized high frequency components are superimposed on the R and B images that have been interpolated and enlarged by the interpolation enlarging unit 114, and are output as R HH and B HH .

以上、本発明の各実施形態を説明した。実施形態1〜3においては、R,G,Bの3成分をダイクロイックミラーで分離する場合について説明したが、色成分の分離の形態はこれに限るものではない。例えば深さ方向に、順に、R+G+B、R+G、Rと3層に分けて撮像する単一の撮像素子(CCDやCMOSセンサ)を用いても良い。このような撮像素子は、入射光の波長に応じてフォトダイオードに進入する光の深さが異なることを利用して色信号を生成するため、フィルタが不要になる。このような素子を用いる場合、例えばR+GもしくはR+G+Bを高解像度、長時間露光、低フレームレートで撮像し、その他を低解像度、短時間、低フレームレートで撮像した画像を受け取って処理することで、同様の効果を得ることができる。   The embodiments of the present invention have been described above. In the first to third embodiments, the case where the three components R, G, and B are separated by the dichroic mirror has been described, but the color component separation form is not limited to this. For example, a single image sensor (CCD or CMOS sensor) that captures images in three layers of R + G + B, R + G, and R in order in the depth direction may be used. Such an image sensor generates a color signal by using the fact that the depth of light entering the photodiode differs according to the wavelength of incident light, and thus no filter is required. When such an element is used, for example, R + G or R + G + B is imaged at a high resolution, long exposure, and low frame rate, and other images are received and processed at a low resolution, a short time, and a low frame rate. Similar effects can be obtained.

本発明の撮像処理装置および画像処理装置は、撮像素子サイズを小型化したカメラによる高精細画像の撮像とその再生装置、システムとして有用である。また、本発明の撮像処理装置および画像処理装置は、本発明による画像処理方法を公知のコンピュータに実行させるプログラムによって実現することが可能である。   INDUSTRIAL APPLICABILITY The imaging processing apparatus and image processing apparatus of the present invention are useful as a high-definition image capturing and reproducing apparatus and system using a camera with a reduced image sensor size. The imaging processing apparatus and the image processing apparatus of the present invention can be realized by a program that causes a known computer to execute the image processing method according to the present invention.

101 レンズ系
102 ダイクロイックミラー
103 第1撮像部
104 第2撮像部
105 画像処理部
106 G用アップコンバータ
107 R,B用アップコンバータ
120 制御部
DESCRIPTION OF SYMBOLS 101 Lens system 102 Dichroic mirror 103 1st imaging part 104 2nd imaging part 105 Image processing part 106 G up-converter 107 R, B up-converter 120 Control part

Claims (14)

第1空間解像度で、かつ、第1時間解像度で撮影された第1色成分および第3色成分の動画像の情報と、前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影された第2色成分の動画像の情報とを受け取り、処理を行う画像処理装置であって、
前記第1色成分の動画像の情報および前記第3色成分の動画像の情報に基づいて、時間解像度を高めた前記第2成分の動画像を生成する第1アップコンバータと、
前記第1色成分および前記第3色成分の各動画像の情報、および、時間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を生成する第2アップコンバータと
を備え、
前記第1アップコンバータは、撮像過程で決まる拘束条件と、色間にまたがる滑らかさの拘束条件とを含む評価値に基づいて時間解像度を高めた前記第2成分の動画像を生成する画像処理装置。
Information of moving images of the first color component and the third color component captured at the first spatial resolution and at the first temporal resolution, at a second spatial resolution higher than the first spatial resolution, and at the first An image processing apparatus that receives and processes information of a moving image of a second color component that is captured at a second time resolution lower than the one-hour resolution,
A first up-converter that generates a moving image of the second component with increased time resolution based on moving image information of the first color component and moving image information of the third color component;
Based on the information of each moving image of the first color component and the third color component, and the information of the moving image of the second component whose temporal resolution is increased, the first color component whose spatial resolution is increased and the A second up-converter that generates a moving image of the third color component,
The first up-converter generates an image of the second component with an increased time resolution based on an evaluation value including a constraint condition determined in an imaging process and a constraint condition of smoothness between colors. .
前記第1色成分、前記第2色成分、および前記第3色成分は、それぞれ、赤、緑、および青である、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first color component, the second color component, and the third color component are red, green, and blue, respectively. 前記色間にまたがる滑らかさの拘束条件は、前記第1から第3色成分によって定まる色空間内における近傍画素値間の連続性を規定する式によって表現される請求項1に記載の画像処理装置。   2. The image processing apparatus according to claim 1, wherein the smoothness constraint condition between the colors is expressed by an expression that defines continuity between neighboring pixel values in a color space determined by the first to third color components. . 前記色空間における画素値の3つの座標成分は、それぞれ、前記第1から第3色成分の線形和である請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the three coordinate components of the pixel value in the color space are each a linear sum of the first to third color components. 前記第1アップコンバータは、前記評価値が最小化するように、前記第2成分の動画像を構成する画素値を算出する請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first up-converter calculates a pixel value constituting the moving image of the second component so that the evaluation value is minimized. 前記評価値は、撮像したシーン中の動きに沿った画素値変化についての拘束条件を含む、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the evaluation value includes a constraint condition regarding a change in pixel value along a motion in a captured scene. 前記評価値の最小化は、疎な係数行列の連立方程式を、係数が固定のフィルタ演算と係数が画像の内容に応じて変化するフィルタ演算とに分解して演算することによって行う請求項4に記載の画像処理装置。   5. The evaluation value minimization is performed by decomposing a simultaneous equation of a sparse coefficient matrix into a filter operation with a fixed coefficient and a filter operation with a coefficient changing according to the content of the image. The image processing apparatus described. 前記第1アップコンバータでの前記第2成分の動画像の時空間高解像度化は、シーン中の動きの大きさがしきい値以上の領域についてのみ演算することによって行う請求項1に記載の画像処理装置。   2. The image processing apparatus according to claim 1, wherein the temporal and spatial resolution enhancement of the moving image of the second component in the first up-converter is performed by calculating only a region where the magnitude of motion in a scene is equal to or greater than a threshold value. . 前記第1アップコンバータでの前記第2成分の動画像の時空間高解像度化は、シーン中の動きの小さい領域では、時間方向の滑らかさ拘束を強めることによって行う請求項1に記載の画像処理装置。   The image processing according to claim 1, wherein the temporal and spatial resolution enhancement of the moving image of the second component in the first up-converter is performed by increasing a temporal smoothness constraint in a region with a small motion in the scene. apparatus. 第1アップコンバータは、前記動画像の動きの大きさに応じて前記評価値を変化させる請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first up-converter changes the evaluation value according to a magnitude of motion of the moving image. 第1色成分、第2色成分および第3色成分を含む可視光から前記第2成分を分離する分離部と、
前記第1色成分および第3色成分の動画像を撮影する第1撮像部であって、第1電荷蓄積期間で露光して、前記動画像を構成する各画像を第1空間解像度で、かつ、第1時間解像度で撮影する第1撮像部と、
前記第2色成分の動画像を撮影する第2撮像部であって、前記第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光して、前記動画像を構成する各画像を前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影する第2撮像部と、
前記第1撮像部および前記第2撮像部における撮影条件を制御する制御部と
請求項1から10のいずれかに記載の画像処理装置と、
を備える撮像処理装置。
A separation unit for separating the second component from visible light including the first color component, the second color component, and the third color component;
A first imaging unit that captures a moving image of the first color component and the third color component, wherein each of the images constituting the moving image is exposed at a first charge accumulation period with a first spatial resolution; A first imaging unit that shoots at a first time resolution;
A second imaging unit that captures a moving image of the second color component, wherein the first image is exposed in a second charge accumulation period longer than the first charge accumulation period, and each image constituting the moving image is the first image A second imaging unit that captures images at a second spatial resolution higher than the spatial resolution and at a second temporal resolution lower than the first temporal resolution;
A control unit that controls shooting conditions in the first imaging unit and the second imaging unit, and the image processing device according to any one of claims 1 to 10,
An imaging processing apparatus comprising:
第1色成分、第2色成分および第3色成分を含む可視光を受け、前記第1色成分および第3色成分の光については第1電荷蓄積期間で露光することにより前記第1色成分および第3色成分の前記動画像を構成する各画像を第1空間解像度で、かつ、前記第2色成分の光については前記第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光することにより前記第2色成分の前記動画像を構成する各画像を前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影する撮像部と、
前記撮像部における撮影条件を制御する制御部と
請求項1から10のいずれかに記載の画像処理装置と、
を備える撮像処理装置。
The first color component is received by receiving visible light including the first color component, the second color component, and the third color component, and exposing the light of the first color component and the third color component in a first charge accumulation period. And each image constituting the moving image of the third color component is exposed at a first spatial resolution, and the light of the second color component is exposed in a second charge accumulation period longer than the first charge accumulation period. An imaging unit that captures each image constituting the moving image of the second color component at a second spatial resolution higher than the first spatial resolution and at a second temporal resolution lower than the first temporal resolution; ,
A control unit that controls shooting conditions in the imaging unit, and the image processing device according to any one of claims 1 to 10,
An imaging processing apparatus comprising:
第1空間解像度で、かつ、第1時間解像度で撮影された第1色成および第3色成分の動画像の情報と、前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影された第2色成分の動画像の情報とを受け取るステップと、
前記第1色成分および第3色成分の動画像の情報に基づいて、時間解像度を高めた前記第2成分の動画像の情報を生成する第1アップコンバートステップと、
前記第1色成分および第3色成分の動画像の情報、および、時間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および第3色成分の動画像の情報を生成する第2アップコンバートステップと
を含む画像処理方法であって、
前記第1アップコンバートステップは、
撮像過程で決まる拘束条件と、色間にまたがる滑らかさの拘束条件とを含む評価値に基づいて時間解像度を高めた前記第2成分の動画像の情報を生成する、画像処理方法。
Information of moving images of the first color composition and the third color component captured at the first spatial resolution and at the first temporal resolution, at a second spatial resolution higher than the first spatial resolution, and at the first Receiving information of a moving image of a second color component captured at a second time resolution lower than the one hour resolution;
A first up-conversion step for generating information on the moving image of the second component with an increased temporal resolution based on the moving image information of the first color component and the third color component;
The first color component and the third color with enhanced spatial resolution based on the information of the moving image of the first color component and the third color component and the information of the moving image of the second component with increased temporal resolution. A second up-conversion step for generating component moving image information, comprising:
The first up-conversion step includes
An image processing method for generating moving image information of the second component with an increased time resolution based on an evaluation value including a constraint condition determined in an imaging process and a constraint condition of smoothness between colors.
画像処理装置の制御プログラムであって、
第1空間解像度で、かつ、第1時間解像度で撮影された第1色成および第3色成分の動画像の情報と、前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影された第2色成分の動画像の情報とを受け取るステップと、
前記第1色成分および第3色成分の動画像の情報に基づいて、時間解像度を高めた前記第2成分の動画像の情報を生成する第1アップコンバートステップと、
前記第1色成分および第3色成分の動画像の情報、および、時間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および第3色成分の動画像の情報を生成する第2アップコンバートステップと
を前記画像処理装置に実行させ、
前記第1アップコンバートステップは、
撮像過程で決まる拘束条件と、色間にまたがる滑らかさの拘束条件とを含む評価値に基づいて時間解像度を高めた前記第2成分の動画像の情報を生成する、画像処理装置の制御プログラム。
A control program for an image processing apparatus,
Information of moving images of the first color composition and the third color component captured at the first spatial resolution and at the first temporal resolution, at a second spatial resolution higher than the first spatial resolution, and at the first Receiving information of a moving image of a second color component captured at a second time resolution lower than the one hour resolution;
A first up-conversion step for generating information on the moving image of the second component with an increased temporal resolution based on the moving image information of the first color component and the third color component;
The first color component and the third color with enhanced spatial resolution based on the information of the moving image of the first color component and the third color component and the information of the moving image of the second component with increased temporal resolution. Causing the image processing apparatus to execute a second up-conversion step of generating component moving image information;
The first up-conversion step includes
A control program for an image processing apparatus, which generates information of a moving image of the second component with an increased time resolution based on an evaluation value including a constraint condition determined in an imaging process and a constraint condition of smoothness between colors.
JP2009158022A 2009-07-02 2009-07-02 Image processing device, image processing device, image processing method, and control program of image processor Pending JP2011015228A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009158022A JP2011015228A (en) 2009-07-02 2009-07-02 Image processing device, image processing device, image processing method, and control program of image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009158022A JP2011015228A (en) 2009-07-02 2009-07-02 Image processing device, image processing device, image processing method, and control program of image processor

Publications (1)

Publication Number Publication Date
JP2011015228A true JP2011015228A (en) 2011-01-20

Family

ID=43593655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009158022A Pending JP2011015228A (en) 2009-07-02 2009-07-02 Image processing device, image processing device, image processing method, and control program of image processor

Country Status (1)

Country Link
JP (1) JP2011015228A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013011797A1 (en) * 2011-07-21 2013-01-24 日本電気株式会社 Degradation restoration system, degradation restoration method and program
JP6487008B1 (en) * 2017-10-05 2019-03-20 株式会社コンフォートビジョン研究所 High resolution imaging device
CN110969591A (en) * 2018-09-28 2020-04-07 中国科学院合肥物质科学研究院 Experimental device and method for evaluating background image fusion degree of moving object

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013011797A1 (en) * 2011-07-21 2013-01-24 日本電気株式会社 Degradation restoration system, degradation restoration method and program
JPWO2013011797A1 (en) * 2011-07-21 2015-02-23 日本電気株式会社 Degradation restoration system, degradation restoration method and program
US9280807B2 (en) 2011-07-21 2016-03-08 Nec Corporation Degradation restoration system, degradation restoration method and program
JP6487008B1 (en) * 2017-10-05 2019-03-20 株式会社コンフォートビジョン研究所 High resolution imaging device
JP2019068378A (en) * 2017-10-05 2019-04-25 株式会社コンフォートビジョン研究所 High resolution imaging apparatus
CN110969591A (en) * 2018-09-28 2020-04-07 中国科学院合肥物质科学研究院 Experimental device and method for evaluating background image fusion degree of moving object
CN110969591B (en) * 2018-09-28 2023-04-07 中国科学院合肥物质科学研究院 Experimental device and method for evaluating moving object background image fusion degree

Similar Documents

Publication Publication Date Title
JP4317586B2 (en) IMAGING PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM
JP4317587B2 (en) IMAGING PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM
US7903156B2 (en) Image processing device, image processing method, computer program, recording medium storing the computer program, frame-to-frame motion computing method, and image processing method
US8073246B2 (en) Modifying color and panchromatic channel CFA image
EP2560375B1 (en) Image processing device, image capture device, program, and image processing method
US20080298639A1 (en) Image Processing Apparatus, Image Processing Method, and Electronic Appliance
EP2592838B1 (en) Image capture device
US8243160B2 (en) Imaging processor
JP5002738B2 (en) Image generation device
US20120320228A1 (en) Image processing device, imaging device, information storage medium, and image processing method
JP2013223209A (en) Image pickup processing device
JP5096645B1 (en) Image generating apparatus, image generating system, method, and program
EP2579206A1 (en) Image processing device, image capturing device, program and image processing method
JP2011015228A (en) Image processing device, image processing device, image processing method, and control program of image processor
JP4246244B2 (en) Imaging device
Kim et al. Color interpolation algorithm for the Sony-RGBW color filter array
Ugawa et al. Image reconstruction for high-sensitivity imaging by using combined long/short exposure type single-chip image sensor
US20220383516A1 (en) Devices and methods for digital signal processing
JP2012142676A (en) Imaging device and image generation method
Watanabe et al. Video synthesis with high spatio-temporal resolution using motion compensation and image fusion in wavelet domain
JP2013223208A (en) Image pickup processing device
JP2013223211A (en) Image pickup treatment apparatus, image pickup treatment method, and program
Zhang et al. Video-Demosaicking
JP2013223210A (en) Image pickup treatment apparatus, image pickup treatment method, and program
KR20120007639A (en) Image processing apparatus and method of extracting high resolution brightness image in charge-coupled device