JP2013223209A - Image pickup processing device - Google Patents

Image pickup processing device Download PDF

Info

Publication number
JP2013223209A
JP2013223209A JP2012095423A JP2012095423A JP2013223209A JP 2013223209 A JP2013223209 A JP 2013223209A JP 2012095423 A JP2012095423 A JP 2012095423A JP 2012095423 A JP2012095423 A JP 2012095423A JP 2013223209 A JP2013223209 A JP 2013223209A
Authority
JP
Japan
Prior art keywords
image
moving image
pixel
exposure time
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012095423A
Other languages
Japanese (ja)
Inventor
Satoshi Sato
智 佐藤
Takeo Azuma
健夫 吾妻
Yusuke Okada
雄介 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2012095423A priority Critical patent/JP2013223209A/en
Publication of JP2013223209A publication Critical patent/JP2013223209A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image which has had blurring of colors reduced while also cutting back a calculation amount and a circuit scale, as well as securing the quantity of light and improving an S/N ratio.SOLUTION: Odd-numbered lines of a single-plate color image sensor each have first and second color pixels alternately arranged, and even-numbered lines each have first and third color pixels alternately arranged. Pixel values are read out from a plurality of first color pixels disposed in one and the same line alternately in a first exposure time and a second exposure time which is longer than the first exposure time according to the order in which they are arranged. Pixel values are read out from a plurality of second color pixels disposed in one and the same line alternately in the first and the second exposure time according to the order in which they are arranged. Pixel values are read out from a plurality of third color pixels disposed in one and the same line alternately in the first and the second exposure time according to the order in which they are arranged. An image processing unit generates a new moving image with a designated frame rate on the basis of the pixel values read out in the first and the second exposure time.

Description

本願は、動画像を生成する撮像処理装置および撮像処理方法に関する。   The present application relates to an imaging processing apparatus and an imaging processing method for generating a moving image.

従来の撮像処理装置においては、高解像度化を図る目的で撮像素子の画素数が増加する傾向にあった。撮像素子全体のサイズを大きくするには限界があるため、各画素を小型化せざるを得ない。その一方、画素寸法が小型化されるほど、撮像素子の1画素に入射する光量が減少していた。その結果、各画素の信号対雑音比(S/N)の低下につながり、画質を維持することが困難であった。   In the conventional imaging processing apparatus, the number of pixels of the imaging element tends to increase for the purpose of achieving high resolution. Since there is a limit to increasing the size of the entire image sensor, each pixel must be reduced in size. On the other hand, as the pixel size is reduced, the amount of light incident on one pixel of the image sensor decreases. As a result, the signal-to-noise ratio (S / N) of each pixel is reduced, and it is difficult to maintain the image quality.

特許文献1は、赤、緑、青のそれぞれ光を検出する3枚の撮像素子を利用し、露光時間を制御して得られる信号を処理することによって、高解像度で高フレームレートかつ高感度の画像の復元を実現することを開示している。この技術では、2種類の解像度の撮像素子が用いられている。一方の高解像度の画像を生成する撮像素子からは長時間露光で画素信号が読み出され、他方の低解像度の画像を生成する撮像素子は短時間露光で画素信号が読み出される。これにより、光量が確保されていた。   Patent Document 1 uses three image sensors that detect red, green, and blue light, and processes signals obtained by controlling the exposure time, thereby achieving high resolution, high frame rate, and high sensitivity. It is disclosed that image restoration is realized. In this technology, two types of resolution image sensors are used. One pixel signal is read out by long-time exposure from one image sensor that generates a high-resolution image, and the pixel signal is read out by short-time exposure from the other image sensor that generates a low-resolution image. Thereby, the light quantity was ensured.

さらに、特許文献2は、特許文献1の手法を単板カメラに拡張し、単板カメラであっても各画素の信号対雑音比(S/N)の低下を抑えながら、画質の維持を実現することを開示している。   Furthermore, Patent Document 2 extends the method of Patent Document 1 to a single-panel camera, and even with a single-panel camera, it maintains image quality while suppressing a decrease in the signal-to-noise ratio (S / N) of each pixel. Is disclosed.

特開2009−105992号公報JP 2009-105992 A 特許第4598162号明細書Japanese Patent No. 4598162

特許文献1および2の技術は、演算量ならびに回路規模が比較的多かった。そのため、演算量がより少なく、回路規模が小さい装置の開発が求められていた。   The techniques of Patent Documents 1 and 2 have a relatively large amount of computation and circuit scale. For this reason, there has been a demand for development of a device with a smaller amount of calculation and a smaller circuit scale.

本願の、限定的ではない例示的なある実施形態は、演算量ならびに回路規模を削減しながら、光量を確保しS/Nを改善しつつ、色にじみの発生を低減することができる撮像処理の技術を提供する。   One non-limiting exemplary embodiment of the present application is an imaging process capable of reducing the amount of color blur while reducing the amount of calculation and the circuit scale while ensuring the light amount and improving the S / N. Provide technology.

本発明のある実施形態による撮像処理装置は、単板カラー撮像素子と画像処理部とを備えている。前記単板カラー撮像素子の奇数ラインでは第1色画素および第2色画素が交互に配列され、偶数ラインでは前記第1色画素および第3色画素が交互に配列され、同一ラインに設けられた複数の前記第1色画素からは、配列された順序にしたがって交互に第1露光時間、および前記第1露光時間よりも長い第2露光時間で画素値を読み出すことが可能であり、同一ラインに設けられた複数の前記第2色画素からは、配列された順序にしたがって交互に前記第1露光時間および前記第2露光時間で画素値を読み出すことが可能であり、同一ラインに設けられた複数の前記第3色画素からは、配列された順序にしたがって交互に前記第1露光時間および前記第2露光時間で画素値を読み出すことが可能であり、前記画像処理部は、前記第1露光時間で読み出された画素値と、前記第2露光時間で読み出された画素値とに基づいて、前記所定のフレームレートの新たな動画像を生成する。   An imaging processing apparatus according to an embodiment of the present invention includes a single-plate color imaging device and an image processing unit. In the odd-numbered line of the single-plate color image pickup device, the first color pixel and the second color pixel are alternately arranged, and in the even line, the first color pixel and the third color pixel are alternately arranged and provided on the same line. From a plurality of the first color pixels, it is possible to read pixel values alternately in a first exposure time and a second exposure time longer than the first exposure time according to the arrangement order, and in the same line It is possible to read pixel values from the plurality of second color pixels provided alternately in the first exposure time and the second exposure time according to the arrangement order, and a plurality of pixels provided on the same line. From the third color pixel, pixel values can be alternately read in the first exposure time and the second exposure time according to the arrangement order, and the image processing unit can read the first exposure time. And pixel values read, based on the pixel value read by said second exposure time to generate a new video image of the predetermined frame rate.

前記画像処理部は、前記第1露光時間で読み出された画素値と、前記第2露光時間で読み出された画素値とに基づいて得られた、被写体の前記第1色成分の動画像、前記第2色成分の動画像、および前記第3色成分の動画像を受け取り、(a)前記第1露光時間で読み出された前記第1色成分、前記第2色成分および前記第3色成分の各動画像と、前記新たな動画像を前記第1露光時間でサンプリングして得られた動画像との第1の差、および(b)前記第2露光時間で読み出された前記第1色成分、前記第2色成分および前記第3色成分の各動画像と、前記新たな動画像を前記第2露光時間でサンプリングして得られた動画像との第2の差を含む評価式を設定し、前記評価式を予め定められた所定の条件で満足する動画像を、前記新たな動画像として求めてもよい。   The image processing unit is a moving image of the first color component of the subject obtained based on the pixel value read during the first exposure time and the pixel value read during the second exposure time. , Receiving the moving image of the second color component and the moving image of the third color component, and (a) reading the first color component, the second color component, and the third color read at the first exposure time. A first difference between each moving image of the color component and a moving image obtained by sampling the new moving image at the first exposure time; and (b) the read out at the second exposure time. Including a second difference between the moving images of the first color component, the second color component, and the third color component, and a moving image obtained by sampling the new moving image at the second exposure time. An evaluation formula is set, and a moving image that satisfies the evaluation formula under a predetermined condition is added to the new moving image. It may be obtained as an image.

前記画像処理部は、前記評価式を最小化する動画像を、前記新たな動画像として求めてもよい。   The image processing unit may obtain a moving image that minimizes the evaluation formula as the new moving image.

前記画像処理部は、前記第1露光時間で読み出された前記第1色成分、前記第2色成分、および前記第3色成分の各動画像を利用して、前記被写体の動きを検出する動き検出部と、前記動きの検出結果を利用して前記新たな動画像の動きの分布に関する拘束条件項を設定し、前記動きの分布に関する拘束条件項をさらに含む前記評価式を最小化する動画像を、前記新たな動画像として求める画像生成部とを備えていてもよい。   The image processing unit detects the movement of the subject using the moving images of the first color component, the second color component, and the third color component read out during the first exposure time. A motion detection unit, a moving image that sets a constraint condition term relating to the motion distribution of the new moving image using the motion detection result, and further minimizes the evaluation formula further including the constraint condition term related to the motion distribution An image generation unit that obtains an image as the new moving image may be provided.

前記画像処理部は、前記新たな動画像の画素値の分布の変化が少なくなるよう、または、前記新たな動画像の画素値の変化が一定になるよう、拘束条件項を設定し、前記拘束条件項をさらに含む前記評価式を最小化する動画像を、前記新たな動画像として求めてもよい。   The image processing unit sets a constraint condition term so that a change in pixel value distribution of the new moving image is reduced or a change in pixel value of the new moving image is constant, and the constraint A moving image that minimizes the evaluation expression further including a conditional term may be obtained as the new moving image.

前記画像処理部は、前記画素値の分布に関する拘束条件を画像の一方向に設定してもよい。   The image processing unit may set a constraint condition related to the distribution of the pixel values in one direction of the image.

前記画像処理部は、前記単板カラー撮像素子から1ラインごとに前記画素値を取得し、取得した1ラインごとに前記画素値の分布に関する拘束条件を設定してもよい。   The image processing unit may acquire the pixel value for each line from the single-plate color imaging device, and set a constraint condition regarding the distribution of the pixel value for each acquired line.

撮像処理装置は、前記第1露光時間で読み出された画素信号に基づいて得られた前記第1色成分の動画像、前記第2色成分の動画像および前記第3色成分の動画像に、表示のために予め定められた画像処理を施す表示制御部と、前記表示制御部によって画像処理された前記第1動画像、前記第2動画像および前記第3動画像を表示する表示部とをさらに備えていてもよい。   The imaging processing apparatus applies the moving image of the first color component, the moving image of the second color component, and the moving image of the third color component obtained based on the pixel signal read out during the first exposure time. A display control unit that performs predetermined image processing for display, and a display unit that displays the first moving image, the second moving image, and the third moving image subjected to image processing by the display control unit; May be further provided.

本発明のある例示的な実施形態によれば、撮像処理装置は、演算量ならびに回路規模を削減しながら、光量を確保しS/Nを改善しつつ、色にじみの発生を低減した画像を生成することができる。   According to an exemplary embodiment of the present invention, an imaging processing device generates an image with reduced color blurring while ensuring a light amount and improving S / N while reducing a calculation amount and a circuit scale. can do.

本発明の例示的な一実施形態による撮像処理装置100の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging processing apparatus 100 according to an exemplary embodiment of the present invention. 単板カラー撮像素子102の一例を示す図である。2 is a diagram illustrating an example of a single-plate color imaging element 102. FIG. 単時間露光画素と長時間露光画素の配置の例を示す図である。It is a figure which shows the example of arrangement | positioning of a single time exposure pixel and a long time exposure pixel. x−y方向に広がるフレーム画像を構成する各画素の露光時間(読み出しタイミング)を、複数のフレーム画像について示す鳥瞰図である。It is a bird's-eye view which shows the exposure time (reading timing) of each pixel which comprises the frame image extended in a xy direction about several frame images. 単時間露光画素と長時間露光画素の配置の別の例を示す図である。It is a figure which shows another example of arrangement | positioning of a single time exposure pixel and a long time exposure pixel. 単時間露光画素と長時間露光画素の配置の別の例を示す図である。It is a figure which shows another example of arrangement | positioning of a single time exposure pixel and a long time exposure pixel. 単時間露光画素と長時間露光画素の配置の別の例を示す図である。It is a figure which shows another example of arrangement | positioning of a single time exposure pixel and a long time exposure pixel. 単時間露光画素と長時間露光画素の配置の別の例を示す図である。It is a figure which shows another example of arrangement | positioning of a single time exposure pixel and a long time exposure pixel. 単時間露光画素と長時間露光画素の配置の別の例を示す図である。It is a figure which shows another example of arrangement | positioning of a single time exposure pixel and a long time exposure pixel. 単時間露光画素と長時間露光画素の配置の別の例を示す図である。It is a figure which shows another example of arrangement | positioning of a single time exposure pixel and a long time exposure pixel. 単時間露光画素と長時間露光画素の配置の別の例を示す図である。It is a figure which shows another example of arrangement | positioning of a single time exposure pixel and a long time exposure pixel. 画像処理部105の詳細な構成の一例を示す図である。2 is a diagram illustrating an example of a detailed configuration of an image processing unit 105. FIG. 撮像処理装置100の処理の手順を示すフローチャートである。4 is a flowchart illustrating a processing procedure of the imaging processing apparatus 100. (a)および(b)は、ブロックマッチングによって動き検出を行うときの基準フレームと参照フレームとを示す図である。(A) And (b) is a figure which shows the base frame and reference frame when performing motion detection by block matching. 共役勾配法の処理手順を示す図である。It is a figure which shows the process sequence of a conjugate gradient method. 図9に示す処理を行うための画像生成部202の構成例を示す図である。It is a figure which shows the structural example of the image generation part 202 for performing the process shown in FIG. 準ニュートン法の処理手順を示す図である。It is a figure which shows the process sequence of a quasi-Newton method. 動画像の各画素値を要素とする縦ベクトルを説明するための模式図である。It is a schematic diagram for demonstrating the vertical vector which makes each pixel value of a moving image an element. 動き検出部201を含まない画像処理部105を有する撮像処理装置200の構成を示すブロック図である。2 is a block diagram illustrating a configuration of an imaging processing apparatus 200 having an image processing unit 105 that does not include a motion detection unit 201. FIG. 本発明の他の例示的な一実施形態による撮像処理装置400の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging processing apparatus 400 by other exemplary embodiment of this invention. 短時間露光画像を構成するR,G,およびBの各色画像に補間処理を行い、その後、各色画像を縮小して表示部802に表示するための各色画像を生成する処理の概念図である。FIG. 10 is a conceptual diagram of processing for performing interpolation processing on each color image of R, G, and B constituting a short-time exposure image and then generating each color image for reducing and displaying each color image on the display unit 802. 短時間露光画像を構成するR,G,およびBの各色画像に補間処理およびアスペクト比の変更処理を行って表示部802に表示するための各色画像を生成する処理の概念図である。FIG. 10 is a conceptual diagram of processing for generating each color image for display on a display unit 802 by performing interpolation processing and aspect ratio changing processing on each color image of R, G, and B constituting a short-time exposure image.

まず、上述の特許文献1および2に関して、発明者が見出した先行技術の問題点を説明する。   First, regarding the above-described Patent Documents 1 and 2, problems of the prior art found by the inventors will be described.

上述の特許文献1および2においては、いずれも滑らかさの拘束として、x方向とy方向の2方向の拘束条件を利用していた。これは、画像に関して2次元的なメモリアクセスが必要となる。これにより、特許文献1および2では、演算量ならびに回路規模が増大していた。   In the above-mentioned Patent Documents 1 and 2, the constraint conditions in the two directions of the x direction and the y direction are used as the smoothness constraint. This requires a two-dimensional memory access for the image. As a result, in Patent Documents 1 and 2, the amount of calculation and the circuit scale have increased.

以下、添付の図面を参照しながら、本発明の一実施形態にかかる撮像処理装置等を詳細に説明する。   Hereinafter, an imaging processing apparatus and the like according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

(実施形態1)
図1は、本実施形態における撮像処理装置100の構成を示すブロック図である。撮像処理装置100は、光学系101と、単板カラー撮像素子102と、読み出し制御部103と、制御部104と、画像処理部105とを備えている。以下、撮像処理装置100の各構成要素を詳細に説明する。
(Embodiment 1)
FIG. 1 is a block diagram illustrating a configuration of an imaging processing apparatus 100 according to the present embodiment. The imaging processing apparatus 100 includes an optical system 101, a single plate color imaging element 102, a readout control unit 103, a control unit 104, and an image processing unit 105. Hereinafter, each component of the imaging processing apparatus 100 will be described in detail.

光学系101は、例えば、カメラレンズであり、被写体の像を撮像素子の像面に結像する。   The optical system 101 is, for example, a camera lens, and forms an image of a subject on the image plane of the image sensor.

単板カラー撮像素子102は、赤(R),緑(G),青(B)のカラーフィルタアレイが各画素に装着された撮像素子である。図2は、単板カラー撮像素子102の一例を示す。単板撮像素子の各画素(フォトダイオード)に対応して、ベイヤ配列と呼ばれる配列のカラーフィルタアレイが装着されている。図中の「R」、「G」、「B」はそれぞれ「赤」、「緑」、「青」のフィルタを示している。   The single-plate color image sensor 102 is an image sensor in which a color filter array of red (R), green (G), and blue (B) is attached to each pixel. FIG. 2 shows an example of the single-plate color image sensor 102. Corresponding to each pixel (photodiode) of the single-plate image pickup device, an array of color filters called a Bayer array is mounted. In the figure, “R”, “G”, and “B” indicate “red”, “green”, and “blue” filters, respectively.

単板カラー撮像素子102の各画素は、光学系101によって結ばれた光(光学像)を、それぞれに対応して設けられた赤、緑または青のフィルタを通して受け取る。各画素は、画素単位で光電変換を行い、各画素に入射した光の量に応じた画素値(画素信号)を出力する。同じフレーム時刻に撮影された、同じ色成分の画素信号により、その色成分ごとの画像が得られる。全ての色成分の画像により、カラー画像が得られる。   Each pixel of the single-plate color image sensor 102 receives the light (optical image) connected by the optical system 101 through a red, green or blue filter provided corresponding to each. Each pixel performs photoelectric conversion on a pixel basis, and outputs a pixel value (pixel signal) corresponding to the amount of light incident on each pixel. An image for each color component is obtained from pixel signals of the same color component that are captured at the same frame time. A color image is obtained from images of all the color components.

以下、本明細書および図面において、赤、緑、青の光を検出する画素を、それぞれ「R」、「G」、「B」によって表すとする。撮像素子の各画素から出力される画素信号は、R,G,Bいずれかの色に関する画素値を持つ。   Hereinafter, in the present specification and drawings, pixels that detect red, green, and blue light are represented by “R”, “G”, and “B”, respectively. A pixel signal output from each pixel of the image sensor has a pixel value related to any of R, G, and B colors.

この説明から明らかな通り、撮像素子の各画素は、各色のカラーフィルタを透過した光を受け、受けた光の強さに応じた信号を出力する撮像素子の1単位である。   As is apparent from this description, each pixel of the image sensor is a unit of the image sensor that receives light transmitted through the color filters of each color and outputs a signal corresponding to the intensity of the received light.

読み出し制御部103は、図2に示す配列の単板カラー撮像素子102から所定の露光時間毎に画像信号を読み出して動画像として取得する。読み出し方法は以下に詳細に説明するとおりである。読み出し制御部103の読み出し動作は、制御部104による制御に基づいて実行される。   The readout control unit 103 reads out an image signal for each predetermined exposure time from the single-plate color imaging device 102 having the arrangement shown in FIG. 2 and acquires it as a moving image. The reading method is as described in detail below. The read operation of the read control unit 103 is executed based on control by the control unit 104.

図3は、短時間露光画像と長時間露光画像の配置の例を示している。画素信号の読み出しは、1ライン単位で行われる。図3において、R,G,Bの添え字Sは短時間露光を示し、添え字Lは長時間露光を示す。また、本明細書および図面では、下付文字の「S」によって短時間(Short)露光を表し、下付文字の「L」によって長時間(Long)露光を表すこともある。   FIG. 3 shows an example of the arrangement of the short exposure image and the long exposure image. The pixel signal is read out in units of one line. In FIG. 3, the subscript S for R, G, and B indicates short-time exposure, and the subscript L indicates long-time exposure. In the present specification and drawings, the subscript “S” may represent short exposure, and the subscript “L” may represent long exposure.

本願明細書では、「短時間露光」とは、一般的な動画撮影時の1フレームの時間だけ露光することを意味する。例えば「短時間露光」とは、フレームレートが30フレーム/秒(30fps)の場合には1/30秒の露光時間で露光することに相当する。フレームレートが60フレーム/秒(60fps)の場合には1/60秒である。一方、長時間露光とは、1フレームの露光に要する時間よりも長い時間、例えば2フレームから10フレーム程度、露光をすることを意味する。   In the specification of the present application, “short-time exposure” means exposure for a time of one frame during general moving image shooting. For example, “short exposure” corresponds to exposure with an exposure time of 1/30 second when the frame rate is 30 frames / second (30 fps). When the frame rate is 60 frames / second (60 fps), it is 1/60 seconds. On the other hand, the long exposure means that the exposure is performed for a time longer than the time required for one frame exposure, for example, about 2 to 10 frames.

図3に示されている構成によれば、以下の(a)および(b)が理解される。すなわち、(a)奇数ラインに着目するとGとRとが交互に配列されており、偶数ラインに着目するとGとBとが交互に配列されている。そして(b)x軸に平行な一ライン上の、同一の色画素(R画素、G画素またはB画素)に注目すると、露光時間(または読み出し時間)が「短」→「長」→「短」→「長」・・・と交互に異なっている。   According to the configuration shown in FIG. 3, the following (a) and (b) are understood. That is, (a) G and R are alternately arranged when paying attention to odd lines, and G and B are arranged alternately when paying attention to even lines. Then, (b) paying attention to the same color pixel (R pixel, G pixel or B pixel) on one line parallel to the x axis, the exposure time (or readout time) is “short” → “long” → “short” "→" Long "... alternately.

図4は、図3の各画素の露光時間を模式的に示している。図面の左右方向が時間軸tである。長時間露光画像は、R/G/Bそれぞれの画素の半分である。また、2ラインごとに、G画素とR画素のライン、B画素とG画素のラインが繰り返されている例である。   FIG. 4 schematically shows the exposure time of each pixel in FIG. The horizontal direction of the drawing is the time axis t. The long exposure image is half of each pixel of R / G / B. In addition, the G pixel and R pixel lines and the B pixel and G pixel lines are repeated every two lines.

読み出し制御部103は、制御部104の制御信号に基づいて単板カラー撮像素子102の各画素に対する読み出しパルス信号、リセット信号を制御することで、画素毎に露光時間を切り替える。短時間露光時には、読み出し制御部103は1フレーム時間ごとに画素値を読み出し、1フレーム画像の画素信号を読み出す。また長時間露光時には、読み出し制御部103は、複数フレーム時間にわたって、単板カラー撮像素子102を露光し、露光期間が終了した後、画素信号を読み出す。   The readout control unit 103 switches the exposure time for each pixel by controlling the readout pulse signal and the reset signal for each pixel of the single-plate color imaging element 102 based on the control signal of the control unit 104. At the time of short exposure, the readout control unit 103 reads out a pixel value every frame time and reads out a pixel signal of one frame image. Further, at the time of long exposure, the readout control unit 103 exposes the single-plate color image sensor 102 over a plurality of frame times, and reads out the pixel signal after the exposure period ends.

なお、読み出し制御部103は、素子から画素信号を読み出した後でそれらを加算してもよい。具体的には、読み出し制御部103は1フレーム期間ごとに全ての画素ラインから画素信号を読み出す。そしてある画素については、連続する複数フレーム分の画素信号が得られた後に、それらを加算する。このとき、複数フレームの同じ画素座標値の画素信号同士が加算される。この結果、画素信号が加算された画素については、読み出し制御部103は、複数フレーム期間にわたって露光された画素の画素信号と実質的に同じ画素信号を出力することができる。   Note that the readout control unit 103 may add pixel signals after reading them out from the element. Specifically, the readout control unit 103 reads out pixel signals from all pixel lines every frame period. And about a certain pixel, after the pixel signal for a continuous several frame is obtained, they are added. At this time, pixel signals having the same pixel coordinate value in a plurality of frames are added. As a result, for the pixel to which the pixel signal is added, the readout control unit 103 can output a pixel signal that is substantially the same as the pixel signal of the pixel that has been exposed over a plurality of frame periods.

なお、長時間露光画素の露光時間であるフレーム期間に関しては、予め定めておく。   Note that the frame period, which is the exposure time of the long exposure pixels, is determined in advance.

また、本願の撮像処理装置における画素配置は図3に限られない。たとえば、図5A〜5Gに示したような画素配置および露光時間(または読み出し時間)を採用してもよい。この画素配置に関しては、後述する。   Further, the pixel arrangement in the imaging processing apparatus of the present application is not limited to FIG. For example, the pixel arrangement and exposure time (or readout time) as shown in FIGS. 5A to 5G may be employed. This pixel arrangement will be described later.

再び図1を参照する。   Refer to FIG. 1 again.

画像処理部105は、画素ごとに異なる露光時間で撮影された動画像データを受け取り、これらに画像処理を行うことによって、各画素における画素値(例えば、R,G,Bの画素値)を推定し、高解像度カラー動画像を生成する。   The image processing unit 105 receives moving image data captured at different exposure times for each pixel, and performs image processing on these to estimate pixel values (for example, R, G, and B pixel values) at each pixel. Then, a high-resolution color moving image is generated.

図6は、画像処理部105の詳細な構成の一例を示す。画像処理部105は、動き検出部201および画像生成部202を有する。   FIG. 6 shows an example of a detailed configuration of the image processing unit 105. The image processing unit 105 includes a motion detection unit 201 and an image generation unit 202.

図7は、撮像処理装置100の処理の手順を示すフローチャートである。まず概要を説明する。   FIG. 7 is a flowchart illustrating a processing procedure of the imaging processing apparatus 100. First, an outline will be described.

ステップS401において、画像処理部105は、フレームレートが画素ごとに異なる動画像をそれぞれ読み出し制御部103から取得する。   In step S <b> 401, the image processing unit 105 acquires moving images having different frame rates for each pixel from the read control unit 103.

ステップS402において、画像処理部105の動き検出部201は、取得した画像のうちの短時間露光画像を用いて生成画像の画素毎の動きを検出する。   In step S402, the motion detection unit 201 of the image processing unit 105 detects the motion for each pixel of the generated image using the short-time exposure image of the acquired images.

ステップS403およびS404において、画像生成部202は、動き拘束条件を設定し、滑らかさ拘束を設定する。   In steps S403 and S404, the image generation unit 202 sets motion constraint conditions and sets smoothness constraints.

ステップS405において画像生成部202は、高フレームレートカラー画像を生成する。   In step S405, the image generation unit 202 generates a high frame rate color image.

ステップS406において、画像生成部202は生成したRGB画像を利用し、公知のデモザイキング処理を行なうことにより、カラー画像を生成する。   In step S406, the image generation unit 202 generates a color image by performing a known demosaicing process using the generated RGB image.

ステップS407において、画像生成部202は生成した動画像を出力する。   In step S407, the image generation unit 202 outputs the generated moving image.

以下、上述した各ステップの詳細を説明する。   Details of each step described above will be described below.

動き検出部201は、1フレーム期間露光されて得られた画素信号によって形成される画像(短時間露光画像)を受け取る。動き検出部201は短時間露光画像を利用して、ブロックマッチング、勾配法、位相相関法等の既存の公知技術によって、短時間露光で撮影された画素値から動き(オプティカルフロー)を検出する。公知技術として、例えばP. Anandan. “Computational framework and an algorithm for the measurement of visual motion”, International Journal of Computer Vision, Vol. 2, pp. 283−310, 1989が知られている。   The motion detection unit 201 receives an image (short-time exposure image) formed by pixel signals obtained by exposure for one frame period. The motion detection unit 201 uses a short-time exposure image to detect a motion (optical flow) from a pixel value captured by short-time exposure by an existing known technique such as block matching, a gradient method, or a phase correlation method. Examples of known techniques include P.I. Anandan. “Computational framework and an algorithm for the measurement of visual motion”, International Journal of Computer Vision, Vol. 2, pp. 283-310, 1989 is known.

図8(a)および(b)は、ブロックマッチングによって動き検出を行うときの基準フレームと参照フレームとを示している。動き検出部201は、基準とするフレーム(動きを求めるべく着目している時刻tにおける画像)内に、図8(a)に示す窓領域Aを設定し、窓領域内のパターンと類似するパターンを参照フレーム内で探索する。参照フレームとして、例えば着目フレームの次のフレームが利用されることが多い。   FIGS. 8A and 8B show a base frame and a reference frame when motion detection is performed by block matching. The motion detection unit 201 sets a window area A shown in FIG. 8A in a reference frame (an image at time t when attention is to be obtained for motion), and is similar to a pattern in the window area. In the reference frame. As the reference frame, for example, a frame next to the frame of interest is often used.

探索範囲は、図8(b)に示すように、通常、移動量ゼロの位置Bを基準に予め一定の範囲Cが設定される。また、パターンの類似の度合い(程度)は、(数1)に示す残差平方和(SSD:Sum of Square Differrences)や、(数2)に示す残差絶対値和(SAD:Sum of Absoluted Differences)を評価値として計算することによって評価する。

Figure 2013223209
Figure 2013223209
As shown in FIG. 8B, the search range is normally set in advance with a certain range C based on the position B where the movement amount is zero. In addition, the similarity (degree) of the pattern is determined by the residual sum of squares (SSD: Sum of Square Differences) shown in (Equation 1) or the absolute sum of residuals (SAD: Sum of Absorbed Differences) shown in (Equation 2). ) Is calculated as an evaluation value.
Figure 2013223209
Figure 2013223209

(数1)および(数2)において、I(x、y、t)は画像すなわち画素値の時空間的な分布であり、x,y∈Wは、基準フレームの窓領域内に含まれる画素の座標値を意味する。本実施形態では、図3において短時間露光で撮影した画像の画素値を利用して、その画像をRGBの各色毎に補間拡大した後、下記数3によって輝度成分を求め、動き検出を行う。

Figure 2013223209
In (Equation 1) and (Equation 2), I (x, y, t) is a spatio-temporal distribution of an image, that is, a pixel value, and x, yεW is a pixel included in the window region of the reference frame. The coordinate value of In the present embodiment, using the pixel value of the image captured by short-time exposure in FIG. 3, the image is interpolated and enlarged for each color of RGB, and then the luminance component is obtained by the following Equation 3 to perform motion detection.
Figure 2013223209

なお、I(x,y,t)は、(数3)に限らず、単純なRGB値の加算等にしてもよい。   I (x, y, t) is not limited to (Equation 3), but may be a simple addition of RGB values or the like.

動き検出部201は、探索範囲内で(u,v)を変化させることにより、上記評価値を最小とする(u,v)の組を探索し、これをフレーム間での動きベクトルとする。具体的には、窓領域の設定位置を順次シフトさせることによって、動きを画素毎もしくはブロック毎(例えば8画素×8画素)に求め、動きベクトルを生成する。   The motion detection unit 201 searches for a set of (u, v) that minimizes the evaluation value by changing (u, v) within the search range, and sets this as a motion vector between frames. Specifically, by sequentially shifting the set position of the window area, a motion is obtained for each pixel or each block (for example, 8 pixels × 8 pixels), and a motion vector is generated.

上記の様にして得られた(数1)または(数2)を最小にする(u,v)の近傍での(u,v)の値の分布に対して、1次ないし2次関数を当てはめる(等角フィッテング法やパラボラフィッティング法として知られる公知の技術)ことによって、サブピクセル精度の動き検出を行う。   For the distribution of the value of (u, v) in the vicinity of (u, v) that minimizes (Equation 1) or (Equation 2) obtained as described above, a linear or quadratic function is obtained. By applying (a known technique known as an equiangular fitting method or a parabolic fitting method), motion detection with sub-pixel accuracy is performed.

<各画素におけるR,G,Bの画素値の生成処理>
画像生成部202は、次式で表される評価関数J(評価式)を最小化して、各画素におけるR,G,Bの画素値を計算する。

Figure 2013223209
<Generation processing of R, G, B pixel values in each pixel>
The image generation unit 202 minimizes an evaluation function J (evaluation expression) represented by the following expression, and calculates R, G, and B pixel values for each pixel.
Figure 2013223209

ここで、H1は長時間露光のサンプリング過程、H2は短時間露光のサンプリング過程、fは新たに生成すべき高空間解像度かつ高時間解像度のRGB画像である。また、λLおよびλSは重みである。単板カラー撮像素子102によって撮像されたRGBの画像のうち、長時間露光で撮像したものをgL、短時間露光で撮像したものをgSとする。Mはべき指数、Qは生成すべき画像fが満たすべき条件、すなわち拘束条件である。 Here, H 1 is a sampling process for long exposure, H 2 is a sampling process for short exposure, and f is an RGB image having a high spatial resolution and a high time resolution to be newly generated. Λ L and λ S are weights. Of the RGB images captured by the single-plate color image sensor 102, g L is an image captured by long exposure and g S is an image captured by short exposure. M is a power index and Q is a condition to be satisfied by the image f to be generated, that is, a constraint condition.

(数4)のべき指数Mの値は、特に限定するものではないが、演算量の観点から、1または2が好ましい。   The value of the exponent M in (Expression 4) is not particularly limited, but 1 or 2 is preferable from the viewpoint of the amount of calculation.

(数4)の第1項は、生成すべき高空間解像度かつ高時間解像度のRGB画像fを、長時間露光のサンプリング過程H1によってサンプリングして得られた画像と、実際に長時間露光画像として得られた、gLとの差の演算を意味する。長時間露光のサンプリング過程H1を予め定めておき、この差分を最小化するfを求めると、そのfは、長時間露光によって得られたgLと最もよく整合するといえる。第2項についても同様に、差分を最小化するfは、短時間露光によって得られたgSと最もよく整合するといえる。また、第3項は、解fを一意に決定するための拘束条件項である。 The first term of (Expression 4) is an image obtained by sampling the RGB image f having a high spatial resolution and a high temporal resolution to be generated by the long exposure sampling process H 1 , and the actual long exposure image. Is obtained by calculating the difference from g L. If a sampling process H 1 for long exposure is determined in advance and f for minimizing this difference is obtained, it can be said that f is the best match with g L obtained by long exposure. Similarly, for the second term, f which minimizes the difference can be said to be the best match with g S obtained by short-time exposure. The third term is a constraint condition term for uniquely determining the solution f.

そして、(数4)の評価関数Jを最小化するRGB画像fは、長時間露光および短時間露光によって得られたgLおよびgSの両方を総合的によく満足するといえる。画像生成部202は、(数4)を最小化するRGB画像fを計算することで、S/Nが改善されたRGB画像の画素値を生成する。 And it can be said that the RGB image f that minimizes the evaluation function J of (Equation 4) satisfies both g L and g S obtained by the long exposure and the short exposure comprehensively. The image generation unit 202 generates an RGB image pixel value with improved S / N by calculating an RGB image f that minimizes (Equation 4).

(数4)のJの最小化は、∂J/∂f=0となるRGB画像fを求めることによって行う。この計算は、(数4)においてM=2でかつ、Qがfの2次形式の場合には、上述のJのfによる偏微分∂J/∂fがfの1次式になるため、線形最適化問題となり連立方程式Af=bの計算に帰着する。すなわち、(数4)をfで偏微分すると、以下のとおりである。

Figure 2013223209
The minimization of J in (Equation 4) is performed by obtaining an RGB image f where ∂J / ∂f = 0. In this calculation, when M = 2 in (Equation 4) and Q is a quadratic form of f, the partial differential ∂J / ∂f by f of J is a linear expression of f. It becomes a linear optimization problem, resulting in the calculation of simultaneous equations Af = b. That is, when (Equation 4) is partially differentiated by f, it is as follows.
Figure 2013223209

1はQがfの2次形式の場合、定数マトリックス(fを含まないマトリックス)である。 Q 1 is a constant matrix (matrix not including f) when Q is a quadratic form of f.

この式を変形して以下の連立方程式を解くことにより、RGB画像fを計算する。

Figure 2013223209
The RGB image f is calculated by transforming this equation and solving the following simultaneous equations.
Figure 2013223209

一方、M=1の場合や、M=3以上の整数の場合、また、Mが整数でない場合には、非線形最適化問題となる。   On the other hand, when M = 1, when M = an integer of 3 or more, and when M is not an integer, a nonlinear optimization problem occurs.

計算が線形最適化問題になる場合、図9に示す共役勾配法の手順により評価関数Jを最小にするRGB画像fを計算することができる。図10は、図9に示す処理を行うための画像生成部202の構成例を示す。画像生成部202は、係数演算部501と、ベクトル演算部502と、演算部503とを有している。   When the calculation becomes a linear optimization problem, the RGB image f that minimizes the evaluation function J can be calculated by the procedure of the conjugate gradient method shown in FIG. FIG. 10 shows a configuration example of the image generation unit 202 for performing the processing shown in FIG. The image generation unit 202 includes a coefficient calculation unit 501, a vector calculation unit 502, and a calculation unit 503.

係数演算部501は、係数行列Aを計算する。ベクトル演算部502は、定数ベクトルbを計算する。演算部503は、演算によって得られた行列Aおよびベクトルbを用いて、Af=bの連立方程式を解く。図9に示す処理は、主として演算部503の処理である。行列Aおよびベクトルbが求まり、制御部104から初期値および終了条件が与えられると図9の処理が開始される。図9の終了条件は、図9に示すk+1ステップ目での残差rk+1が十分小さくなったときである。 The coefficient calculation unit 501 calculates a coefficient matrix A. The vector calculation unit 502 calculates a constant vector b. The calculation unit 503 uses the matrix A and the vector b obtained by the calculation to solve simultaneous equations of Af = b. The process shown in FIG. 9 is mainly the process of the calculation unit 503. When the matrix A and the vector b are obtained and an initial value and an end condition are given from the control unit 104, the process of FIG. 9 is started. The end condition in FIG. 9 is when the residual r k + 1 at the (k + 1) th step shown in FIG. 9 is sufficiently small.

これにより、評価関数Jを最小化するG画像fを求めることができる。なお、図9に示すアルゴリズムは公知であるため、詳細な説明は省略する。   Thereby, the G image f that minimizes the evaluation function J can be obtained. Since the algorithm shown in FIG. 9 is known, detailed description is omitted.

一方、計算が非線形最適化問題となる場合には、図11に示す準ニュートン法の手順により、Jを最小にするfを計算することができる。この手法によるJの最小化、極小化は、fの初期解から始めて、Jのfに関する勾配を用いて、よりJを小さくする様に、反復計算により解fを更新する。図11においてKkは、sk≡fk+1−fk、yk=∇J(fk)とおき、準ニュートン法のなかのDFP法では、以下のように計算する。

Figure 2013223209
On the other hand, when the calculation becomes a nonlinear optimization problem, f that minimizes J can be calculated by the procedure of the quasi-Newton method shown in FIG. The minimization and minimization of J by this method starts with an initial solution of f, and updates the solution f by iterative calculation so as to make J smaller by using the gradient of J with respect to f. In FIG. 11, Kk is set as s k ≡f k + 1 −f k and y k = ∇J (f k ), and is calculated as follows in the DFP method in the quasi-Newton method.
Figure 2013223209

また、準ニュートン法のなかのBFGS法では以下のように計算する。

Figure 2013223209
In the BFGS method in the quasi-Newton method, calculation is performed as follows.
Figure 2013223209

以下、(数4)に関してより詳しく説明する。   Hereinafter, (Equation 4) will be described in more detail.

画像f、gLおよびgSは、動画像の各画素値を要素とする縦ベクトルである。以下では、画像についてベクトル表記は、画素値をRGBごとに図12のようにラインごと、RGBごとに並べた縦ベクトルを意味し、関数表記は、画素値の時空間的分布を意味する。画素値としては、輝度値の場合は、1画素につき1個の値を考えればよい。fの要素数は、例えば、生成すべき動画像を横2000画素、縦1000画素、30フレームとすると、2000×1000×30=60000000となる。 The images f, g L and g S are vertical vectors whose elements are the pixel values of the moving image. In the following, the vector notation for an image means a vertical vector in which pixel values are arranged line by line and RGB for each RGB as shown in FIG. 12, and the function notation means a spatio-temporal distribution of pixel values. As a pixel value, in the case of a luminance value, one value may be considered per pixel. The number of elements of f is, for example, 2000 × 1000 × 30 = 60000000 if the moving image to be generated is 2000 pixels wide, 1000 pixels long, and 30 frames.

画像fの縦横の画素数および信号処理に用いるフレーム数は、画像処理部105によって設定される。   The number of pixels in the vertical and horizontal directions of the image f and the number of frames used for signal processing are set by the image processing unit 105.

長時間露光のサンプリング過程H1は、行数がgLの要素数と等しく、列数がfの要素数と等しい行列である。また、短時間露光サンプリング過程H2は、行数がgSの要素数と等しく、列数がfの要素数と等しい行列である。 The long exposure sampling process H 1 is a matrix in which the number of rows is equal to the number of elements of g L and the number of columns is equal to the number of elements of f. The short exposure sampling process H 2 is a matrix whose number of rows is equal to the number of elements of g S and whose number of columns is equal to the number of elements of f.

現在一般に普及しているコンピュータでは、動画像の画素数(例えば幅2000画素×高さ1000画素)とフレーム数(例えば30フレーム)に関する情報量が多すぎるため、(数4)を最小化するfを単一の処理で求めることはできない。本願の撮像処理装置では、後述するように、RGBそれぞれの色をラインごと(例えば幅1000画素×高さ1画素)のみで処理を行なうことが可能なため、メモリアクセスを大幅に削減することができる。   Since the amount of information relating to the number of pixels of a moving image (for example, 2000 pixels wide × 1000 pixels in height) and the number of frames (for example, 30 frames) is too large in a computer that is currently in widespread use, f (4) is minimized. Cannot be obtained in a single process. In the imaging processing apparatus of the present application, as will be described later, it is possible to process each RGB color only for each line (for example, a width of 1000 pixels × a height of 1 pixel), so that memory access can be greatly reduced. it can.

このように、時間的、空間的な部分領域についてfの一部を求める処理を繰り返すことにより、生成すべき動画像fを計算することができる。   Thus, the moving image f to be generated can be calculated by repeating the process of obtaining a part of f for the temporal and spatial partial regions.

次に、長時間露光のサンプリング過程H1の定式化を簡単な例を用いて説明する。以下では、幅4画素(x=1,2,3,4)、高さ2画素(y=1,2)、2フレーム(t=1,2)の画像をベイヤ配列の単板カラー撮像素子102で撮像し、y=1のラインにおいて2フレーム分時間加算する場合のgLの撮像過程について考える。ここでは、例えば図3の最も左上の4画素x2画素に対応して、y=2である2つの画素(x,y)=(2,2)、および、(4,2)におけるGLのt=1,2を想定している。 Next, formulation of the long exposure sampling process H 1 will be described using a simple example. In the following, a single-plate color imaging device having a Bayer arrangement for an image having a width of 4 pixels (x = 1, 2, 3, 4), a height of 2 pixels (y = 1, 2), and 2 frames (t = 1, 2) Consider an imaging process of g L when imaging is performed at 102 and time is added for two frames in a line of y = 1. Here, for example, corresponding to the upper left four pixels × 2 pixels in FIG. 3, two pixels (x, y) = (2, 2) where y = 2 and GL in (4, 2) Assume t = 1,2.

得られるG画像fの要素は、t=1、2を含めて以下の(数9)のように表される。

Figure 2013223209
Elements of the obtained G image f are expressed as in the following (Equation 9) including t = 1 and 2.
Figure 2013223209

(数9)において、G111〜G312、R211〜R422、B121〜B322は各画素におけるR、G、Bの画素値を示し、3個の添字は順にx、y、tの値を示す。 In (Equation 9), G 111 to G 312 , R 211 to R 422 , and B 121 to B 322 indicate the R, G, and B pixel values in each pixel, and the three subscripts are x, y, and t in order. Indicates the value.

上記(数9)のうち、長時間露光を求めるために必要なのは、位置(2,1)についてはR211およびR212、位置(3,1)についてはG311およびG312、位置(1,2)についてはB121およびB122、位置(2,2)についてはG221およびG222である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。

Figure 2013223209
Of the above (Equation 9), in order to obtain a long exposure, R 211 and R 212 are required for the position (2, 1), G 311 and G 312 are specified for the position (3, 1), and the position (1, for 2) B 121 and B 122, a G 221 and G 222 for position (2,2). Therefore, a matrix for extracting only those pixel values can be defined as follows.
Figure 2013223209

行列H1は、長時間露光のサンプリング過程であることを考慮して設定される。すなわち、y=1および2のラインにおける長時間露光の画素を得るためには、(x,y)=(2,1)および(3,1)の位置におけるt=1、2の各画素値を加算し、また(x,y)=(1,2)および(2,2)の位置におけるt=1、2の各画素値を加算する必要がある。これらによれば、長時間露光画像の撮像過程は以下のように定式化される。

Figure 2013223209
The matrix H 1 is set in consideration of the sampling process of long exposure. That is, in order to obtain the long-time exposure pixels in the lines of y = 1 and 2, each pixel value of t = 1, 2 at the positions (x, y) = (2, 1) and (3, 1) And the pixel values of t = 1 and 2 at the positions (x, y) = (1, 2) and (2, 2) need to be added. According to these, the imaging process of the long exposure image is formulated as follows.
Figure 2013223209

次に、短時間露光のサンプリング過程H2の定式化を簡単な例を用いて説明する。先の例と同様に、幅4画素(x=1,2,3,4)、高さ2画素(y=1,2)、2フレーム(t=1、2)の画像をベイヤ配列の撮像素子で撮像する場合について考える。 Next, formulation of the sampling process H 2 for short time exposure will be described using a simple example. As in the previous example, an image with a width of 4 pixels (x = 1, 2, 3, 4), a height of 2 pixels (y = 1, 2), and 2 frames (t = 1, 2) is captured in a Bayer array. Consider the case of imaging with an element.

先のサンプリング過程H1の例と同様、この例もまた、図3の最も左上の4画素x2画素を想定する。ただし短時間露光であるため、図3のy=1,2における短時間露光画素の画素値が、t=1および2について必要となる。すなわち、画素(x,y)=(1,1)におけるGsの画素値、および、(4,1)におけるRsの画素値、および、(3,2)におけるBsの画素値、および、(4,2)におけるGsの画素値が、t=1および2について必要となる。なお、得られるRGB画像fの要素は、(数9)の通りである。 Similar to the example of the previous sampling process H 1 , this example also assumes the upper left 4 pixels × 2 pixels of FIG. However, since it is a short time exposure, the pixel values of the short time exposure pixels at y = 1, 2 in FIG. 3 are required for t = 1 and 2. That is, the pixel value of Gs in the pixel (x, y) = (1, 1), the pixel value of Rs in (4, 1), the pixel value of Bs in (3, 2), and (4 , 2) the pixel value of Gs is required for t = 1 and 2. The elements of the obtained RGB image f are as shown in (Equation 9).

上記(数9)のうち、短時間露光を求めるために必要なのは、位置(1,1)についてはG111およびG112、位置(4,1)についてはR411およびR412、位置(3,2)についてはB321およびB322、位置(4,2)についてはG421およびG422である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。

Figure 2013223209
Of the above (Equation 9), in order to obtain short-time exposure, G 111 and G 112 for the position (1,1), R 411 and R 412 for the position (4,1), and the position (3,3) for 2) B 321 and B 322, a G 421 and G 422 for position (4,2). Therefore, a matrix for extracting only those pixel values can be defined as follows.
Figure 2013223209

(数12)の第1〜4行が時刻t=1に関し、第5〜8行が時刻t=2に関している。これらによれば、短時間露光ラインの撮像過程は以下のように定式化される。

Figure 2013223209
The first to fourth lines of (Equation 12) relate to time t = 1, and the fifth to eighth lines relate to time t = 2. According to these, the imaging process of the short time exposure line is formulated as follows.
Figure 2013223209

(数11)や(数13)は、RGB画像fをベイヤ配列の単板撮像素子により露光時間を変えて撮像し、gL、gSを得る過程を示す。逆に、gL、gSからfを生成する問題は、一般に逆問題といわれる。拘束条件Qのない場合、下記(数14)を最小化するfは無数に存在する。

Figure 2013223209
(11) and (Equation 13), an RGB image f captured by changing the exposure time by a single-plate image pickup device of the Bayer array, showing a process of obtaining g L, g S. Conversely, the problem of generating f from g L and g S is generally called an inverse problem. In the absence of the constraint condition Q, there are an infinite number of fs that minimize (Equation 14) below.
Figure 2013223209

このことは、サンプリングされない画素値に任意の値を入れても(数14)が成り立つことから、容易に説明できる。そのため、(数14)の最小化によってRGB画像fを一意に解くことはできない。   This can be easily explained because (Equation 14) holds even if an arbitrary value is entered as a pixel value that is not sampled. Therefore, the RGB image f cannot be uniquely solved by minimizing (Equation 14).

そこで、RGB画像fについての一意な解を得るために、拘束条件Qを導入する。Qとして、画素値fの分布に関する滑らかさの拘束や、fから得られる画像の動きの分布に関する滑らかさの拘束を与える。以下、それぞれの拘束の与え方を説明する。   Therefore, in order to obtain a unique solution for the RGB image f, a constraint condition Q is introduced. As Q, a constraint on smoothness regarding the distribution of the pixel value f and a constraint on smoothness regarding the distribution of motion of the image obtained from f are given. Hereinafter, how to give each constraint will be described.

まず、RGB画像fを1ライン目のG(以下、Grと記載)とR、2ライン目のBとG(以下、Gbと記載)ごとの画素値の分布に関する滑らかさの拘束としては、(数15)もしくは(数16)の拘束式を用いる。

Figure 2013223209
Figure 2013223209
First, as a constraint on smoothness of the RGB image f regarding the distribution of pixel values for the first line G (hereinafter referred to as Gr) and R, and the second line B and G (hereinafter referred to as Gb), The constraint equation of (Expression 15) or (Expression 16) is used.
Figure 2013223209
Figure 2013223209

ここで、λCR、λCGr、λCGb、および、λCBはR,G,Bの滑らかさの拘束の重みであり、3板撮影等で全画素読み出しした画素値が事前に用意できる場合には、生成画像のPSNR(Peak Signal to Noise Ratio)が最良となるように決めればよい。 Here, λ CR , λ CGr , λ CGb , and λ CB are weights for restraining the smoothness of R, G, and B, and when pixel values read out from all pixels by three-plate photography can be prepared in advance. Is determined so that the PSNR (Peak Signal to Noise Ratio) of the generated image is the best.

なお、PSNRは(数17)で定義される。

Figure 2013223209
PSNR is defined by (Equation 17).
Figure 2013223209

ここで、fmaxは画素値の最大値(例えば、8ビット時255、10ビット時1023)であり、σは正解画像と生成画像との差の標準偏差である。   Here, fmax is the maximum pixel value (for example, 255 for 8 bits and 1023 for 10 bits), and σ is a standard deviation of the difference between the correct image and the generated image.

一方、そうでない場合には、上記の値をもとにマニュアル操作で新たに生成した画質をみながらλλCR、λCGr、λCGb、および、λCBを決めればよい。(数4)に示す通り、拘束条件Qも評価関数Jの一部を構成する。したがって、評価関数Jの値をできるだけ小さくするためには、拘束条件Qも小さい方が好ましい。 On the other hand, if not, λλ CR , λ CGr , λ CGb , and λ CB may be determined while looking at the image quality newly generated by manual operation based on the above values. As shown in (Expression 4), the constraint condition Q also constitutes a part of the evaluation function J. Therefore, in order to make the value of the evaluation function J as small as possible, it is preferable that the constraint condition Q is also small.

(数15)に関しては、画素値fの分布の変化が少ないほど、Qの値は小さくなる。(数16)に関しては、画素値fの分布の変化が一定であるほど、Qの値は小さくなる。これらが、画素値fの分布に関する滑らかさの拘束条件となる。   Regarding (Expression 15), the smaller the change in the distribution of the pixel value f, the smaller the Q value. Regarding (Expression 16), the value of Q decreases as the change in the distribution of the pixel value f is constant. These are the smoothness constraint conditions regarding the distribution of the pixel value f.

また、(数14)で||はベクトルのノルムを表す。べき指数mの値は、(数4)、(数14)におけるべき指数Mと同様に、演算量の観点から1または2が望ましい。   In (Equation 14), || represents the norm of the vector. The value of the power exponent m is preferably 1 or 2 from the viewpoint of the amount of computation, like the power exponent M in (Equation 4) and (Equation 14).

なお、上記の偏微分値∂/∂x、∂2/∂x2は、着目画素近傍の画素値による差分展開により、例えば(数18)により近似計算できる。

Figure 2013223209
Note that the partial differential values ∂ / ∂x and ∂ 2 / ∂x 2 can be approximated by, for example, (Equation 18) by differential development using pixel values near the pixel of interest.
Figure 2013223209

差分展開は上記(数18)に限らず、例えば(数19)の様に、近傍の他の画素を参照するようにしてもよい。

Figure 2013223209
The difference development is not limited to the above (Equation 18), and other pixels in the vicinity may be referred to, for example, as shown in (Equation 19).
Figure 2013223209

(数19)は(数18)による計算値に対して、近傍で平均化することになる。これにより、空間解像度は低下するが、ノイズの影響を受けにくくできる。さらに、両者の中間的なものとして、0≦α≦1の範囲のαで重み付けをして、以下の式を採用してもよい。

Figure 2013223209
(Equation 19) is averaged in the vicinity of the calculated value of (Equation 18). Thereby, although spatial resolution falls, it can make it hard to receive the influence of a noise. Furthermore, as an intermediate between them, weighting may be performed with α in a range of 0 ≦ α ≦ 1, and the following formula may be employed.
Figure 2013223209

差分展開の計算方法は、処理結果の画質がより改善されるようにノイズレベルに応じてαを予め決めて行ってもよいし、もしくは、演算量や回路規模を少しでも小さくするために、(数18)を用いてもよい。   The difference expansion calculation method may be performed by predetermining α according to the noise level so that the image quality of the processing result is further improved, or in order to reduce the calculation amount and the circuit scale as much as possible ( Equation 18) may be used.

(数15)、(数16)に示したような、動画像fの画素値の分布に関する滑らかさの拘束を導入して(数4)を解く問題に対しては、公知の解法、例えば有限要素法等の変分問題の解法を用いて計算することができる。   As shown in (Equation 15) and (Equation 16), for the problem of solving (Equation 4) by introducing smoothness constraints on the distribution of pixel values of the moving image f, a known solution, for example, finite It can be calculated using a solution to a variational problem such as the element method.

また、以上のように、RGB画像fを1ライン目のG(以下、Grと記載)とR、2ライン目のBとG(以下、Gbと記載)を独立に計算することが可能なため、1次元上でのメモリアクセスのみで処理を行なうことができ、演算量ならびに回路規模を削減することができる。例えば、生成すべき動画像を横2000画素、縦1000画素とすると、Gr/R/B/Gbそれぞれを、幅1000画素×高さ1画素ごとに処理することが可能である。そのため、メモリアクセスを大幅に削減することができる。   In addition, as described above, the RGB image f can be calculated independently for G (hereinafter referred to as Gr) and R on the first line, and B and G (hereinafter referred to as Gb) on the second line. Processing can be performed with only one-dimensional memory access, and the amount of computation and circuit scale can be reduced. For example, if a moving image to be generated is 2000 pixels wide and 1000 pixels long, each of Gr / R / B / Gb can be processed for every 1000 pixels in width × 1 pixel in height. Therefore, memory access can be greatly reduced.

次に、RGB画像fに含まれる画像の動きの分布に関する滑らかさの拘束を説明する。   Next, a description will be given of the constraint on smoothness relating to the motion distribution of the image included in the RGB image f.

RGB画像fに含まれる画像の動きの分布に関する滑らかさの拘束としては、下記(数21)または(数22)を用いる。

Figure 2013223209
Figure 2013223209
The following (Equation 21) or (Equation 22) is used as the smoothness constraint regarding the motion distribution of the image included in the RGB image f.
Figure 2013223209
Figure 2013223209

ここで、uは動画像fから得られる各画素についての動きベクトルのx方向の成分を要素とする縦ベクトル、vは動画像fから得られる各画素についての動きベクトルのy方向の成分を要素とする縦ベクトルである。   Here, u is a vertical vector having the x-direction component of the motion vector for each pixel obtained from the moving image f as an element, and v is a y-direction component of the motion vector for each pixel obtained from the moving image f. Is a vertical vector.

fから得られる画像の動きの分布に関する滑らかさの拘束としては、(数21)、(数22)に限らず、例えば(数23)、(数24)に示す1階または2階の方向微分としてもよい。

Figure 2013223209
Figure 2013223209
The smoothness constraint relating to the motion distribution of the image obtained from f is not limited to (Equation 21) and (Equation 22). For example, the directional differentiation of the first or second floor shown in (Equation 23) or (Equation 24). It is good.
Figure 2013223209
Figure 2013223209

さらに、(数25)〜(数28)に示すように、(数21)〜(数24)の拘束条件を、fの画素値のこう配に応じて適応的に変化させてもよい。これにより、画像内のエッジ(輝度変化が不連続な境界)部分に対する滑らかさ拘束の影響を、画像の平坦部分と比べて小さくすることができるため、画像内のエッジをより鮮明に再現することができる。

Figure 2013223209
Figure 2013223209
Figure 2013223209
Figure 2013223209
Furthermore, as shown in (Equation 25) to (Equation 28), the constraint conditions of (Equation 21) to (Equation 24) may be adaptively changed according to the gradient of the pixel value of f. As a result, the effect of smoothness constraint on the edge (border where the luminance change is discontinuous) in the image can be reduced compared to the flat part of the image, so that the edge in the image can be reproduced more clearly. Can do.
Figure 2013223209
Figure 2013223209
Figure 2013223209
Figure 2013223209

ここで、w(x,y)は、fの画素値のこう配に関する重み関数であり、(数29)に示す画素値のこう配の成分の、べき乗和によって定義される。

Figure 2013223209
Here, w (x, y) is a weight function related to the gradient of the pixel value of f, and is defined by the sum of powers of the gradient component of the pixel value shown in (Equation 29).
Figure 2013223209

また、(数29)に示す輝度こう配の成分の2乗和の代わりに、(数30)に示す方向微分の、べき乗の大小によって、重み関数w(x,y)を定義してもよい。

Figure 2013223209
The weight function w (x, y) may be defined by the magnitude of the power of the directional differentiation shown in (Equation 30) instead of the square sum of the components of the luminance gradient shown in (Equation 29).
Figure 2013223209

ここで、ベクトルnmaxおよび角度θは方向微分が最大になる方向であり、下記(数31)によって与えられる。

Figure 2013223209
Here, the vector n max and the angle θ are directions in which the directional differentiation is maximized, and are given by the following (Equation 31).
Figure 2013223209

このような重み関数を導入することにより、fの動き情報が必要以上に平滑化されることを防ぐことができ、その結果、新たに生成される画像fが必要以上に平滑化されることを防ぐことができる。   By introducing such a weight function, it is possible to prevent the motion information of f from being smoothed more than necessary, and as a result, the newly generated image f is smoothed more than necessary. Can be prevented.

(数21)〜(数28)に示したような、画像fから得られる動きの分布に関する滑らかさの拘束を導入して(数4)を解く問題に関しては、fについての滑らかさの拘束を用いる場合と比較して複雑な計算が必要となる。新たに生成すべき画像fと動き情報(u,v)が相互に依存するためである。   As shown in (Equation 21) to (Equation 28), with respect to the problem of solving (Equation 4) by introducing the smoothness constraint on the motion distribution obtained from the image f, the smoothness constraint on f is applied. Complicated calculation is required compared with the case of using. This is because the image f to be newly generated and the motion information (u, v) depend on each other.

この問題に対しては、公知の解法、例えばEMアルゴリズム等を用いた変分問題の解法を用いて計算することができる。その際、繰り返し計算に、新たに生成すべき画像fと動き情報(u,v)の初期値が必要になる。   This problem can be calculated using a known solution, for example, a variational solution using an EM algorithm or the like. At that time, the image f to be newly generated and the initial value of the motion information (u, v) are necessary for repeated calculation.

fの初期値としては、入力画像の補間拡大画像を用いればよい。一方、動き情報(u,v)としては、動き検出部201において(数1)ないし(数2)を計算して求めた動き情報を用いる。その結果、画像処理部105が、上述のごとく、(数21)〜(数28)に示したような、画像fから得られる動きの分布に関する滑らかさの拘束を導入して(数4)を解くことにより、処理結果の画質を向上させることができる。   As an initial value of f, an interpolation enlarged image of the input image may be used. On the other hand, as the motion information (u, v), the motion information obtained by calculating (Equation 1) to (Equation 2) in the motion detection unit 201 is used. As a result, as described above, the image processing unit 105 introduces the constraint on smoothness regarding the motion distribution obtained from the image f as shown in (Expression 21) to (Expression 28), and By solving, the image quality of the processing result can be improved.

画像処理部105における処理は、(数15)、(数16)に示した画素値の分布に関する滑らかさの拘束のいずれかと、(数21)〜(数28)に示した動きの分布に関する滑らかさの拘束のいずれかの両方を組み合わせて、(数32)のように同時に用いてもよい。

Figure 2013223209
The processing in the image processing unit 105 is one of the smoothness constraints related to the distribution of pixel values shown in (Equation 15) and (Equation 16), and the smoothness related to the motion distribution shown in (Equation 21) to (Equation 28). Any one of the above constraints may be combined and used simultaneously as in (Expression 32).
Figure 2013223209

ここで、Qfはfの画素値のこう配に関する滑らかさの拘束、Quvはfから得られる画像の動きの分布に関する滑らかさの拘束、λ1およびλ2はQfとQuvの拘束に関する重みである。 Here, Q f is a smoothness constraint on the gradient of the pixel value of f, Q uv is a smoothness constraint on the distribution of image motion obtained from f, and λ 1 and λ 2 are related to the constraint between Q f and Q uv . It is a weight.

なお、ここでは複数の拘束条件の式について説明したが、これらの最適な組み合わせは、コスト、演算規模、回路規模等の装置の状況に応じて決定すればよい。例えば、画質が最もよくなるものを選択するようにすればよい。「画質が最もよくなる」とは、例えばその映像を確認する者の主観に基づいて決定することができる。   Although a plurality of constraint condition expressions have been described here, the optimal combination of these may be determined according to the status of the apparatus such as cost, operation scale, circuit scale, and the like. For example, what has the best image quality may be selected. “The image quality is the best” can be determined based on the subjectivity of the person who confirms the video, for example.

画素値の分布に関する滑らかさの拘束と、画像の動きの分布に関する滑らかさの拘束の両方を導入して(数4)を解く問題も、公知の解法(例えばEMアルゴリズム等を用いた変分問題の解法)を利用することができる。   The problem of solving (Equation 4) by introducing both the smoothness constraint on the distribution of pixel values and the smoothness constraint on the distribution of image motion is a variational problem using a known solution (for example, an EM algorithm). Can be used.

また、動きに関する拘束は、(数21)〜(数28)に示した動きベクトルの分布の滑らかさに関するものに限らず、対応点間の残差(動きベクトルの始点と終点間における画素値の差)を評価値として、これを小さくするようにしてもよい。対応点間の残差は、fを関数f(x,y,t)として表すと、(数33)のように表すことができる。

Figure 2013223209
In addition, the constraints on motion are not limited to those relating to the smoothness of the motion vector distribution shown in (Equation 21) to (Equation 28), but the residual between corresponding points (the pixel value between the start point and the end point of the motion vector). You may make it make this small by making an evaluation value into (difference). The residual between corresponding points can be expressed as (Expression 33) when f is expressed as a function f (x, y, t).
Figure 2013223209

fをベクトルとして、画像全体について考えると、各画素における残差は下記(数34)に示すようにベクトル表現することができる。

Figure 2013223209
Considering the entire image with f as a vector, the residual in each pixel can be expressed as a vector as shown in the following (Equation 34).
Figure 2013223209

残差の平方和は下記(数35)に示すように表すことができる。

Figure 2013223209
The sum of squares of the residuals can be expressed as shown below (Equation 35).
Figure 2013223209

(数34)、(数35)において、Hmはベクトルfの要素数(時空間の総画素数)×fの要素数の行列である。Hmでは、各行において、動きベクトルの視点と終点に相当する要素だけが0でない値を持ち、それ以外の要素は0の値を持つ。動きベクトルが整数精度の場合、視点と終点に相当する要素が、それぞれ、−1と1の値を持ち、他の要素は0である。 In (Equation 34) and (Equation 35), H m is a matrix of the number of elements of vector f (total number of pixels in space-time) × f. In H m , in each row, only elements corresponding to the viewpoint and end point of the motion vector have non-zero values, and other elements have zero values. When the motion vector has integer precision, the elements corresponding to the viewpoint and the end point have values of −1 and 1, respectively, and the other elements are 0.

動きベクトルがサブピクセル精度の場合には、動きベクトルのサブピクセル成分の値に応じて、終点近傍の複数の画素に相当する複数の要素が値を持つことになる。   When the motion vector has sub-pixel accuracy, a plurality of elements corresponding to a plurality of pixels near the end point have values according to the value of the sub-pixel component of the motion vector.

(数35)をQmとおき、拘束条件を(数36)のようにしてもよい。

Figure 2013223209
(Equation 35) may be set as Q m and the constraint condition may be as shown in (Equation 36).
Figure 2013223209

ここで、λ3は拘束条件Qmに関する重みである。 Here, λ 3 is a weight related to the constraint condition Q m .

以上述べた方法により、動き検出部201でGSとRSとBSの短時間露光画像から抽出した動き情報を用いることにより、ベイヤ配列の撮像素子によって撮像されたRGB動画像を画像処理部105で信号対雑音比(S/N)を向上させ、色にじみの少ない新たな動画像を生成することができる。 By using the motion information extracted from the short-time exposure images of G S , R S, and B S by the motion detection unit 201 by the method described above, the RGB moving image captured by the Bayer array image sensor is converted into the image processing unit. In 105, the signal-to-noise ratio (S / N) can be improved, and a new moving image with less color blur can be generated.

さらに、こうして生成したRGB画像を利用し、公知のデモザイキング処理を行なうことにより、画像処理部105は信号対雑音比(S/N)を向上させ、色にじみの少ない新たな動画像を生成することができる。本願の撮像処理装置は、1ラインごとに処理を行なうため、1次元上でのメモリアクセスのみで処理を行なうことができ、演算量ならびに回路規模を削減することができる。   Further, the image processing unit 105 improves the signal-to-noise ratio (S / N) by generating a known demosaicing process using the RGB image thus generated, and generates a new moving image with less color blur. be able to. Since the imaging processing apparatus of the present application performs processing for each line, processing can be performed only by one-dimensional memory access, and the amount of computation and circuit scale can be reduced.

また、本願の撮像処理装置は、ベイヤ配列におけるRGB画素位置の画像のみを生成し、生成した画像に対してデモザイキング処理によりカラー画像を生成するため、すべての画素で画像生成を行なう場合に比べ、1/3の演算量で行なうことができるため、演算量ならびに回路規模を削減しながら、色ずれを生じさせることなく、S/Nをより改善することができる。   In addition, since the imaging processing apparatus of the present application generates only an image at the RGB pixel position in the Bayer array and generates a color image by demosaicing processing on the generated image, compared with a case where image generation is performed with all pixels. Therefore, the S / N can be further improved without causing color misregistration while reducing the calculation amount and the circuit scale.

なお、上述した画像処理部105におけるR,G,Bの画素値の計算方法は一例であり、他の計算方法を採用してもよい。   Note that the above-described calculation method of the R, G, and B pixel values in the image processing unit 105 is an example, and other calculation methods may be employed.

他の方法として、例えば最急勾配法などの反復演算型の最適化手法を用いて望ましい目的画像を求めてもよい。   As another method, for example, a desired target image may be obtained using an iterative calculation type optimization method such as the steepest gradient method.

以上説明したように、実施形態1によれば、単板撮像素子に時間加算の機能を付加し、1ラインごとに時間加算された入力画像から新たな画像を生成することによって、撮像時に光量を確保しつつ高解像度かつ高フレームレートで、色にじみの少ない画像(時間加算を行なわずに全画素を読み出した画像)を推定し生成することができる。   As described above, according to the first embodiment, the function of time addition is added to the single-plate imaging device, and a new image is generated from the input image that is time-added for each line, thereby reducing the amount of light during imaging. It is possible to estimate and generate an image with a high resolution and a high frame rate with little color blurring (an image in which all pixels are read without performing time addition) while ensuring.

(実施形態1の変形例)
実施形態1では、画像処理部105における処理に、(数10)や(数12)を用いた劣化拘束、動き検出を用いた動き拘束、画素値の分布に関する滑らかさ拘束の全てを用いる場合を主に述べた。
(Modification of Embodiment 1)
In the first embodiment, the processing in the image processing unit 105 uses all of the degradation constraint using (Equation 10) and (Equation 12), the motion constraint using motion detection, and the smoothness constraint relating to the distribution of pixel values. Said mainly.

種々の拘束のうち、特に動き拘束については演算量が多く、装置の計算機資源を必要とする。そこで本変形例においては、これらの拘束のうち動き拘束を用いない処理を説明する。   Of the various constraints, the motion constraint is particularly computationally intensive and requires computer resources. Therefore, in the present modification, a process that does not use a motion constraint among these constraints will be described.

図13は、動き検出部201を含まない画像処理部105を有する撮像処理装置200の構成を示すブロック図である。画像処理部105の画像生成部111は、動き拘束を用いることなく、新たな画像を生成する。   FIG. 13 is a block diagram illustrating a configuration of the imaging processing apparatus 200 including the image processing unit 105 that does not include the motion detection unit 201. The image generation unit 111 of the image processing unit 105 generates a new image without using motion constraints.

図13において、図1および図6と同じ動作をする構成要素には、図1および図6と同一の符号を付し、説明を省略する。   In FIG. 13, the same reference numerals as those in FIG. 1 and FIG. 6 are given to the components that perform the same operations as those in FIG. 1 and FIG.

従来の技術では、動き拘束を用いない場合、処理結果に明らかな画質の低下が生じる。   In the conventional technique, when the motion constraint is not used, the image quality is clearly deteriorated in the processing result.

しかしながら、本発明では顕著な画質低下を生じさせずに動き拘束を省くことができる。その理由は、図3に示した画素配置にある。この画素配置では、RGB画像を生成する際、1ライン単位で横方向にスキャンすることにより、単板カラー撮像素子102の長時間露光および短時間露光を行うそれぞれの色成分の画素が、順番に混在している。そのため、短時間露光によって撮影された画素と長時間露光によって撮影された画素が順番に混在し、動き拘束を用いずに画像を生成した際に、短時間露光によって撮影された画素値が色にじみの発生を抑える効果がある。さらに、動き拘束条件を課すことなく新たな動画像を生成するため、演算量ならびに回路規模を低減することができる。   However, in the present invention, it is possible to eliminate motion restriction without causing a significant deterioration in image quality. The reason is the pixel arrangement shown in FIG. In this pixel arrangement, when generating an RGB image, the pixels of the respective color components that perform long exposure and short exposure of the single-plate color image sensor 102 are sequentially scanned by scanning in units of one line in a horizontal direction. It is mixed. For this reason, pixels captured by short exposure and pixels captured by long exposure are mixed in order, and when an image is generated without using motion constraints, the pixel value captured by short exposure is blurred. There is an effect to suppress the occurrence of. Furthermore, since a new moving image is generated without imposing a motion constraint condition, the amount of calculation and the circuit scale can be reduced.

以下に、画像生成部111による高画質化処理を説明する。   Hereinafter, the image quality improvement processing by the image generation unit 111 will be described.

(数4)においてM=2とし、Qとして(数15)ないし(数16)を用い、これらの式におけるmを2とする。そして、1階微分、2階微分の差分展開として(数18)、(数19)、(数20)のいずれかを用いると、評価式Jはfの2次式となる。評価式を最小化するfの計算は、(数37)により、fについての連立方程式の計算に帰着する。

Figure 2013223209
In (Equation 4), M = 2, and (Equation 15) to (Equation 16) are used as Q, and m in these equations is 2. When any one of (Expression 18), (Expression 19), and (Expression 20) is used as the differential expansion of the first-order differentiation and the second-order differentiation, the evaluation expression J becomes a quadratic expression of f. The calculation of f that minimizes the evaluation formula results in the calculation of simultaneous equations for f by (Equation 37).
Figure 2013223209

ここで、解くべき連立方程式を(数38)のようにおく。

Figure 2013223209
Here, the simultaneous equations to be solved are set as (Equation 38).
Figure 2013223209

(数38)において、fは生成する画素数(1フレームの画素数×処理するフレーム数)分の要素を持つため、(数38)の計算量は通常、非常に大規模になる。しかし、本願の撮像処理装置では、前述のとおり、Gr/R/B/Gbそれぞれを1ラインごと(例えば幅1000画素×高さ1画素×処理するフレーム数)のみで処理を行なうことが可能なため、メモリアクセスを大幅に削減し、演算量ならびに回路規模を削減することができる。   In (Equation 38), since f has elements for the number of pixels to be generated (the number of pixels in one frame × the number of frames to be processed), the calculation amount of (Equation 38) is usually very large. However, as described above, the imaging processing apparatus of the present application can process each Gr / R / B / Gb only for each line (for example, width 1000 pixels × height 1 pixel × number of frames to be processed). Therefore, memory access can be greatly reduced, and the amount of computation and the circuit scale can be reduced.

このような連立方程式の解法として、共役勾配法や最急降下法等の繰り返し計算により解fを収束させる方法(繰り返し法)が一般的に用いられる。   As a method for solving such simultaneous equations, a method (an iterative method) for converging the solution f by an iterative calculation such as a conjugate gradient method or a steepest descent method is generally used.

動き拘束を用いずにfを求める際には、評価関数が劣化拘束項と滑らかさ拘束項だけになるため、処理がコンテンツに依存しなくなる。このことを利用すると、連立方程式(数38)の係数行列Aの逆行列をあらかじめ計算でき、これを用いることで直接法により画像処理を行うようにできる。   When obtaining f without using motion constraints, the evaluation functions are only the degradation constraint term and the smoothness constraint term, so the processing does not depend on the content. By utilizing this fact, the inverse matrix of the coefficient matrix A of the simultaneous equations (Equation 38) can be calculated in advance, and by using this, image processing can be performed by a direct method.

(数18)に示す滑らかさ拘束を用いる場合、x方向の2階偏微分は、例えば、(数18)に示すように1,−2,1の3つの係数のフィルタとなり、その2乗は1,−4,6,−4,1の5つの係数のフィルタとなる。これらの係数は、水平方向のフーリエ変換と逆変換とで係数行列を挟むことにより、対角化することができる。同様に、長時間露光の劣化拘束も、時間方向のフーリエ変換と逆フーリエ変換とで係数行列を挟むことにより、対角化することができる。すなわち、(数39)のように行列をΛと置くことができる。

Figure 2013223209
When the smoothness constraint shown in (Equation 18) is used, the second-order partial differentiation in the x direction becomes, for example, a filter of three coefficients 1, -2, and 1 as shown in (Equation 18), and its square is It becomes a filter of five coefficients 1, -4, 6, -4, and 1. These coefficients can be diagonalized by sandwiching a coefficient matrix between horizontal Fourier transform and inverse transform. Similarly, the long-time exposure deterioration constraint can be diagonalized by sandwiching a coefficient matrix between time-wise Fourier transform and inverse Fourier transform. That is, the matrix can be set as Λ as in (Equation 39).
Figure 2013223209

これにより、1行あたりのノンゼロ係数の数を係数行列Aと比べて低減させることができる。その結果、Λの逆行列Λ-1の計算が容易になる。そして、(数40)および(数41)により、fを直接法により、繰り返し計算を行わずに、より少ない演算量と回路規模で求めることができる。

Figure 2013223209
Figure 2013223209
Thereby, the number of non-zero coefficients per row can be reduced as compared with the coefficient matrix A. As a result, the calculation of the inverse matrix Λ −1 of Λ becomes easy. Then, according to (Equation 40) and (Equation 41), f can be obtained by a direct method with less calculation amount and circuit scale without performing repeated calculation.
Figure 2013223209
Figure 2013223209

また、滑らかさの拘束として(数14)を利用することにより、奇数行目のG画素Gr、奇数行目のR画素、偶数行目のB画素、偶数行目のG画素Gbを独立に計算することができるため、メモリアクセスを削減し、演算量ならびに回路規模を削減しながら、色ずれを生じさせることなく、S/Nをより改善することができる。この場合、本願の撮像処理装置では、1ラインごとの各色の画素(例えば幅1000画素×高さ1画素×処理するフレーム数)のみで処理を行なうことが可能なため、メモリアクセスを大幅に削減し、演算量ならびに回路規模を削減することができる。   Further, by using (Equation 14) as a constraint on smoothness, the G pixel Gr in the odd row, the R pixel in the odd row, the B pixel in the even row, and the G pixel Gb in the even row are calculated independently. Therefore, the S / N can be further improved without causing color misregistration while reducing memory access, reducing the amount of calculation and the circuit scale. In this case, the imaging processing apparatus of the present application can perform processing only with pixels of each color for each line (for example, 1000 pixels wide × 1 pixel high × number of frames to be processed), so that memory access is greatly reduced. In addition, the calculation amount and the circuit scale can be reduced.

また、本願の撮像処理装置における画素配置は、図3に限ったものではなく、図5A〜5Gのいずれでも構わない。前述のとおり、本願の撮像処理装置においては、単板カラー撮像素子102の各色画素において、x方向に長時間露光および短時間露光を行うそれぞれの画素が、順番に混在している必要がある。図5A〜5Gはいずれもこの条件を満たす。   Further, the pixel arrangement in the imaging processing apparatus of the present application is not limited to that in FIG. 3, and any of FIGS. As described above, in the imaging processing apparatus of the present application, in each color pixel of the single-plate color imaging element 102, it is necessary that the pixels that perform long-time exposure and short-time exposure in the x direction are mixed in order. 5A-5G satisfy this condition.

(実施形態2)
近年、多くの機器において電子式ビューファインダが利用され始めている。しかしながら、特許文献1に記載の技術によってそのような電子式ビューファインダを実現しようとすると、撮影時にビューファインダに色にじみや遅延のない映像を表示することが困難であった。その理由は、ある1つの色について全画素で長時間露光をしているためである。
(Embodiment 2)
In recent years, electronic viewfinders have begun to be used in many devices. However, when such an electronic viewfinder is realized by the technique described in Patent Document 1, it is difficult to display an image without color blur or delay on the viewfinder at the time of shooting. The reason is that all pixels are exposed for a long time for a certain color.

これに対して、本発明の実施形態2では、第1色から第3色までのすべてで、一部またはすべての画素を短時間露光で撮影している。そのため、本実施形態では、短時間露光で撮影された画素の情報をビューファインダに表示することにより、遅延や色にじみのない映像を撮影者に提示する。   On the other hand, in Embodiment 2 of the present invention, some or all of the pixels from the first color to the third color are photographed with short-time exposure. For this reason, in the present embodiment, information on pixels captured by short-time exposure is displayed on the viewfinder, so that an image free from delay and color blur is presented to the photographer.

図14は、本実施形態における撮像処理装置400の構成を示すブロック図である。図14において、図1と同一の動作をするものについては、図1と同一の符号を付し、説明を省略する。   FIG. 14 is a block diagram illustrating a configuration of the imaging processing apparatus 400 according to the present embodiment. 14 that operate in the same manner as in FIG. 1 are assigned the same reference numerals as in FIG. 1 and description thereof is omitted.

撮像処理装置400は、光学系101と、単板カラー撮像素子102と、読み出し制御部103と、制御部104と、画像処理部105と、表示制御部801と、表示部802とを備えている。   The imaging processing apparatus 400 includes an optical system 101, a single-plate color imaging element 102, a readout control unit 103, a control unit 104, an image processing unit 105, a display control unit 801, and a display unit 802. .

単板カラー撮像素子102によって短時間露光撮影された画素信号は、表示制御部801に入力される。   A pixel signal captured by the single-plate color image sensor 102 for a short exposure time is input to the display control unit 801.

表示制御部801は、入力された短時間露光画像の画素信号に表示のための処理を施す。たとえば表示制御部801は、簡単な補間処理によって、RGB各色のサンプリング位置を揃え、また、アスペクト比を調整する。本願の撮像処理装置では、RGGB4画素のうち、RGB3画素を短時間露光で撮影する。そのため、表示制御部801は、これらの短時間露光画素を補間処理することで、表示のための処理を行なう。   The display control unit 801 performs processing for display on the pixel signal of the input short-time exposure image. For example, the display control unit 801 aligns the sampling positions of RGB colors and adjusts the aspect ratio by a simple interpolation process. In the imaging processing apparatus of the present application, among the RGGB4 pixels, RGB3 pixels are photographed with short-time exposure. Therefore, the display control unit 801 performs processing for display by performing interpolation processing on these short-time exposure pixels.

一例として、図15は、短時間露光画像を構成するR,G,およびBの各色画像に補間処理を行い、その後、各色画像を縮小して表示部802に表示するための各色画像を生成する処理の概念図である。他の例として、図16は、短時間露光画像を構成するR,G,およびBの各色画像に補間処理およびアスペクト比の変更処理を行って表示部802に表示するための各色画像を生成する処理の概念図である。表示制御部801は、図15および図16に示すような処理を行った後、各色画像に、サンプリング位置を揃えるための位置合わせ処理を行い、表示部802に表示する。   As an example, FIG. 15 performs interpolation processing on each of the R, G, and B color images constituting the short-time exposure image, and then generates each color image to be displayed on the display unit 802 by reducing each color image. It is a conceptual diagram of a process. As another example, FIG. 16 generates each color image to be displayed on the display unit 802 by performing an interpolation process and an aspect ratio changing process on each of the R, G, and B color images constituting the short-time exposure image. It is a conceptual diagram of a process. The display control unit 801 performs processing as shown in FIGS. 15 and 16, and then performs alignment processing for aligning the sampling position on each color image, and displays it on the display unit 802.

撮影者は、表示された画像を見ることで、構図やフォーカス調整を行うことができる。   The photographer can perform composition and focus adjustment by looking at the displayed image.

以上述べたように、本発明にかかる撮像処理装置は、光学系、撮像素子、読み出し制御部、画像処理部を有し、小型撮像素子による高解像度かつ高感度撮影向けの技術として有用である。   As described above, the imaging processing apparatus according to the present invention has an optical system, an imaging device, a readout control unit, and an image processing unit, and is useful as a technique for high-resolution and high-sensitivity imaging using a small imaging device.

なお、上述の実施形態では、読み出し制御部103、制御部104、画像処理部105、表示制御部801は異なる構成要素として図示し、説明した。これらは各々が別個のプロセッサによって実現され得る。しかしながらその構成は一例である。2以上の構成要素の機能を、1つのプロセッサによって実現してもよい。もちろん、全ての構成要素の機能を、1つのプロセッサによって実現してもよい。その場合には、たとえば上述した各構成要素の動作に対応する動作を行うためのプログラムモジュールを用意しておき、当該プロセッサがある時点においていずれか1つのまたは複数のプログラムモジュールを実行すればよい。これにより、上述した各構成要素の動作が1つプロセッサによって実現されることになる。   In the above-described embodiment, the read control unit 103, the control unit 104, the image processing unit 105, and the display control unit 801 are illustrated and described as different components. Each of these can be implemented by a separate processor. However, the configuration is an example. The functions of two or more components may be realized by a single processor. Of course, the functions of all the components may be realized by a single processor. In that case, for example, a program module for performing an operation corresponding to the operation of each component described above may be prepared, and any one or a plurality of program modules may be executed at a certain point in time. Thereby, the operation of each component described above is realized by one processor.

上述したある例示的な実施形態によれば、撮像処理装置の単板カラー撮像素子は、所定のフレームレートに対応する露光時間で露光して得られた画素信号が読み出される複数の第1画素(短時間露光画素)および当該所定のフレームレートよりも長い露光時間で露光して得られた画素信号が読み出される複数の第2画素(長時間露光画素)を有している。この単板カラー撮像素子は、第1色成分、第2色成分および第3色成分の光を第1画素および第2画素の各々で検出する画素が複数設けられている。この単板カラー撮像素子を用いることで、1ラインごとに各色成分について、あるフレームレートで動画像の画素信号と、当該フレームレートよりも長い露光時間で撮影された動画像の画素信号とが得られる。これにより、第1色成分、第2色成分および第3色成分の動画像を常に長時間露光によって撮影した場合と比較して、被写体の動きに起因する色にじみを抑制した画像信号を得ることができる。   According to the exemplary embodiment described above, the single-chip color imaging device of the imaging processing device has a plurality of first pixels (from which pixel signals obtained by exposure with an exposure time corresponding to a predetermined frame rate are read out) Short exposure pixels) and a plurality of second pixels (long exposure pixels) from which pixel signals obtained by exposure with an exposure time longer than the predetermined frame rate are read out. This single-plate color imaging device is provided with a plurality of pixels for detecting light of the first color component, the second color component, and the third color component by each of the first pixel and the second pixel. By using this single-plate color imaging device, a pixel signal of a moving image at a certain frame rate and a pixel signal of a moving image captured at an exposure time longer than the frame rate are obtained for each color component for each line. It is done. Thereby, it is possible to obtain an image signal in which the color blur caused by the movement of the subject is suppressed as compared with the case where the moving images of the first color component, the second color component, and the third color component are always taken by long exposure. Can do.

本願の他の例示的な実施形態によれば、撮像処理装置は、すべての画素を、2種類の画素、すなわち長時間露光の画素と、短時間露光の画素と、2通り、各種類の画素から信号を読み出す。この際、各色成分において長時間露光の画素と、短時間露光の画素は読み出し方向に対して順番に撮影するように画素を配置する。このような画素配置における読み出し信号に対して、画像復元処理を行うことにより、全て長時間露光のみによって画像信号を得た場合と比較して被写体の動きに起因する色にじみを抑制した画像信号を得ることができる。   According to another exemplary embodiment of the present application, the imaging processing device includes two types of pixels, two types of pixels, that is, a long-time exposure pixel and a short-time exposure pixel. Read signal from. At this time, in each color component, the pixels are arranged so that the long-time exposure pixels and the short-time exposure pixels are sequentially photographed in the readout direction. By performing an image restoration process on the readout signal in such a pixel arrangement, an image signal that suppresses color bleeding caused by the movement of the subject compared to a case where the image signal is obtained by only long-time exposure. Can be obtained.

なお、本明細書における画像処理部105は装置として実現されなくてもよい。例えば、コンピュータである汎用のプロセッサがコンピュータ読み取り可能な記録媒体に記録されたコンピュータプログラムを実行することにより、上述した画像処理部105の動作を行ってもよい。そのようなコンピュータプログラムは、たとえば図7のフローチャートによって実現される処理をコンピュータに実行させるための命令群を含んでいる。コンピュータプログラムは、CD−ROM等の記録媒体に記録されて製品として市場に流通され、または、インターネット等の電気通信回線を通じて伝送される。   Note that the image processing unit 105 in this specification may not be realized as an apparatus. For example, the above-described operation of the image processing unit 105 may be performed by a general-purpose processor that is a computer executing a computer program recorded on a computer-readable recording medium. Such a computer program includes, for example, a group of instructions for causing a computer to execute processing realized by the flowchart of FIG. The computer program is recorded on a recording medium such as a CD-ROM and distributed as a product to the market, or transmitted through an electric communication line such as the Internet.

上述の実施形態においては、R,GおよびBの3色でカラー動画像を撮影し、Gのみ短時間露光と長時間露光の両方で撮像するとして説明した。しかしながら、これらの色成分の分け方は一例である。例えば、シアン、マゼンタ、イエローの3色のカラーフィルタを用いてもよい。また、3色ではなく、2色または4色以上のフィルタを用いてもよい。   In the above-described embodiment, it has been described that a color moving image is captured with three colors of R, G, and B, and only G is captured with both short-time exposure and long-time exposure. However, how to separate these color components is an example. For example, three color filters of cyan, magenta, and yellow may be used. Further, instead of three colors, filters of two colors or four colors or more may be used.

本発明の撮像装置および処理装置は、低光量時の高解像度撮影や小型画素による撮像に有用である。また、プログラムとしても適用が可能である。   The imaging apparatus and processing apparatus of the present invention are useful for high-resolution imaging at low light amounts and imaging with small pixels. It can also be applied as a program.

100 撮像処理装置
101 光学系
102 単板カラー撮像素子
103 読み出し制御部
104 制御部
105 画像処理部
DESCRIPTION OF SYMBOLS 100 Image pick-up processing apparatus 101 Optical system 102 Single plate color image sensor 103 Reading control part 104 Control part 105 Image processing part

Claims (8)

単板カラー撮像素子と画像処理部とを備えた撮像処理装置であって、
前記単板カラー撮像素子の奇数ラインでは第1色画素および第2色画素が交互に配列され、偶数ラインでは前記第1色画素および第3色画素が交互に配列され、
同一ラインに設けられた複数の前記第1色画素からは、配列された順序にしたがって交互に第1露光時間、および前記第1露光時間よりも長い第2露光時間で画素値を読み出すことが可能であり、
同一ラインに設けられた複数の前記第2色画素からは、配列された順序にしたがって交互に前記第1露光時間および前記第2露光時間で画素値を読み出すことが可能であり、
同一ラインに設けられた複数の前記第3色画素からは、配列された順序にしたがって交互に前記第1露光時間および前記第2露光時間で画素値を読み出すことが可能であり、
前記画像処理部は、前記第1露光時間で読み出された画素値と、前記第2露光時間で読み出された画素値とに基づいて、前記所定のフレームレートの新たな動画像を生成する、撮像処理装置。
An image processing apparatus including a single-plate color image sensor and an image processing unit,
In the odd-numbered line of the single-plate color image sensor, the first color pixel and the second color pixel are alternately arranged, and in the even line, the first color pixel and the third color pixel are alternately arranged,
It is possible to read pixel values from a plurality of the first color pixels provided on the same line alternately with a first exposure time and a second exposure time longer than the first exposure time according to the arrangement order. And
From a plurality of the second color pixels provided on the same line, it is possible to read pixel values alternately in the first exposure time and the second exposure time according to the arrangement order,
From the plurality of third color pixels provided on the same line, it is possible to read pixel values alternately in the first exposure time and the second exposure time according to the arrangement order,
The image processing unit generates a new moving image having the predetermined frame rate based on the pixel value read out during the first exposure time and the pixel value read out during the second exposure time. , Imaging processing device.
前記画像処理部は、
前記第1露光時間で読み出された画素値と、前記第2露光時間で読み出された画素値とに基づいて得られた、被写体の前記第1色成分の動画像、前記第2色成分の動画像、および前記第3色成分の動画像を受け取り、
(a)前記第1露光時間で読み出された前記第1色成分、前記第2色成分および前記第3色成分の各動画像と、前記新たな動画像を前記第1露光時間でサンプリングして得られた動画像との第1の差、および
(b)前記第2露光時間で読み出された前記第1色成分、前記第2色成分および前記第3色成分の各動画像と、前記新たな動画像を前記第2露光時間でサンプリングして得られた動画像との第2の差
を含む評価式を設定し、前記評価式を予め定められた所定の条件で満足する動画像を、前記新たな動画像として求める、請求項1に記載の撮像処理装置。
The image processing unit
The moving image of the first color component of the subject, the second color component obtained based on the pixel value read out during the first exposure time and the pixel value read out during the second exposure time And a moving image of the third color component,
(A) The moving image of the first color component, the second color component and the third color component read out at the first exposure time and the new moving image are sampled at the first exposure time. A first difference from the moving image obtained in the above, and (b) each moving image of the first color component, the second color component and the third color component read out in the second exposure time, and An evaluation formula including a second difference from a moving image obtained by sampling the new moving image at the second exposure time is set, and the moving image satisfies the evaluation formula under a predetermined condition. The imaging processing device according to claim 1, wherein the image processing device is obtained as the new moving image.
前記画像処理部は、前記評価式を最小化する動画像を、前記新たな動画像として求める、請求項2に記載の撮像処理装置。   The imaging processing apparatus according to claim 2, wherein the image processing unit obtains a moving image that minimizes the evaluation formula as the new moving image. 前記画像処理部は、
前記第1露光時間で読み出された前記第1色成分、前記第2色成分、および前記第3色成分の各動画像を利用して、前記被写体の動きを検出する動き検出部と、
前記動きの検出結果を利用して前記新たな動画像の動きの分布に関する拘束条件項を設定し、前記動きの分布に関する拘束条件項をさらに含む前記評価式を最小化する動画像を、前記新たな動画像として求める画像生成部と
を備えた、請求項3に記載の撮像処理装置。
The image processing unit
A motion detection unit that detects the motion of the subject using the moving images of the first color component, the second color component, and the third color component read out in the first exposure time;
A constraint condition term relating to the motion distribution of the new moving image is set using the detection result of the motion, and a moving image that minimizes the evaluation expression further including the constraint condition term related to the motion distribution is set as the new motion image. An image processing apparatus according to claim 3, further comprising: an image generation unit that is obtained as a simple moving image.
前記画像処理部は、前記新たな動画像の画素値の分布の変化が少なくなるよう、または、前記新たな動画像の画素値の変化が一定になるよう、拘束条件項を設定し、前記拘束条件項をさらに含む前記評価式を最小化する動画像を、前記新たな動画像として求める、請求項2から4のいずれかに記載の撮像処理装置。   The image processing unit sets a constraint condition term so that a change in pixel value distribution of the new moving image is reduced or a change in pixel value of the new moving image is constant, and the constraint The imaging processing apparatus according to claim 2, wherein a moving image that minimizes the evaluation expression further including a conditional term is obtained as the new moving image. 前記画像処理部は、前記画素値の分布に関する拘束条件を画像の一方向に設定する、請求項5に記載の撮像処理装置。   The imaging processing apparatus according to claim 5, wherein the image processing unit sets a constraint condition relating to the distribution of the pixel values in one direction of the image. 前記画像処理部は、前記単板カラー撮像素子から1ラインごとに前記画素値を取得し、取得した1ラインごとに前記画素値の分布に関する拘束条件を設定する、請求項6に記載の撮像処理装置。   The imaging processing according to claim 6, wherein the image processing unit acquires the pixel value for each line from the single-plate color imaging element, and sets a constraint condition regarding the distribution of the pixel value for each acquired line. apparatus. 前記第1露光時間で読み出された画素信号に基づいて得られた前記第1色成分の動画像、前記第2色成分の動画像および前記第3色成分の動画像に、表示のために予め定められた画像処理を施す表示制御部と、
前記表示制御部によって画像処理された前記第1動画像、前記第2動画像および前記第3動画像を表示する表示部と
をさらに備えた、請求項7に記載の撮像処理装置。
For display on the moving image of the first color component, the moving image of the second color component, and the moving image of the third color component obtained based on the pixel signal read out in the first exposure time. A display control unit for performing predetermined image processing;
The imaging processing apparatus according to claim 7, further comprising: a display unit that displays the first moving image, the second moving image, and the third moving image that have been subjected to image processing by the display control unit.
JP2012095423A 2012-04-19 2012-04-19 Image pickup processing device Pending JP2013223209A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012095423A JP2013223209A (en) 2012-04-19 2012-04-19 Image pickup processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012095423A JP2013223209A (en) 2012-04-19 2012-04-19 Image pickup processing device

Publications (1)

Publication Number Publication Date
JP2013223209A true JP2013223209A (en) 2013-10-28

Family

ID=49593864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012095423A Pending JP2013223209A (en) 2012-04-19 2012-04-19 Image pickup processing device

Country Status (1)

Country Link
JP (1) JP2013223209A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098108A1 (en) * 2013-12-27 2015-07-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing program, receiving program and information processing device
US9083544B2 (en) 2012-05-24 2015-07-14 Panasonic Intellectual Property Corporation Of America Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image
US9085927B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9088362B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information by demodulating bright line pattern included in an image
US9087349B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9088360B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9094120B2 (en) 2012-12-27 2015-07-28 Panasonic Intellectual Property Corporaton Of America Information communication method
US9247180B2 (en) 2012-12-27 2016-01-26 Panasonic Intellectual Property Corporation Of America Video display method using visible light communication image including stripe patterns having different pitches
US9252878B2 (en) 2012-12-27 2016-02-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9262954B2 (en) 2012-12-27 2016-02-16 Panasonic Intellectual Property Corporation Of America Visible light communication signal display method and apparatus
US9560284B2 (en) 2012-12-27 2017-01-31 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by striped pattern of bright lines
US9608727B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Switched pixel visible light transmitting method, apparatus and program
US9608725B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US9646568B2 (en) 2012-12-27 2017-05-09 Panasonic Intellectual Property Corporation Of America Display method
US10142020B2 (en) 2014-11-14 2018-11-27 Panasonic Intellectual Property Corporation Of America Reproduction method for reproducing contents
US10171165B2 (en) 2015-11-06 2019-01-01 Panasonic Intellectual Property Corporation Of America Visible light signal generating method, signal generating apparatus, and program
US10263701B2 (en) 2015-11-12 2019-04-16 Panasonic Intellectual Property Corporation Of America Display method, non-transitory recording medium, and display device
US10303945B2 (en) 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US10504584B2 (en) 2015-12-17 2019-12-10 Panasonic Intellectual Property Corporation Of America Display method and display device
US10523876B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Information communication method
US10530486B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
CN111601054A (en) * 2020-05-15 2020-08-28 上海集成电路研发中心有限公司 Time sequence control method for novel drum-type exposure of image sensor
US10819428B2 (en) 2016-11-10 2020-10-27 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US10951310B2 (en) 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter

Cited By (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9143339B2 (en) 2012-05-24 2015-09-22 Panasonic Intellectual Property Corporation Of America Information communication device for obtaining information from image data by demodulating a bright line pattern appearing in the image data
US9083544B2 (en) 2012-05-24 2015-07-14 Panasonic Intellectual Property Corporation Of America Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image
US9083543B2 (en) 2012-05-24 2015-07-14 Panasonic Intellectual Property Corporation Of America Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image
US9456109B2 (en) 2012-05-24 2016-09-27 Panasonic Intellectual Property Corporation Of America Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image
US9300845B2 (en) 2012-05-24 2016-03-29 Panasonic Intellectual Property Corporation Of America Information communication device for obtaining information from a subject by demodulating a bright line pattern included in an obtained image
US9166810B2 (en) 2012-05-24 2015-10-20 Panasonic Intellectual Property Corporation Of America Information communication device of obtaining information by demodulating a bright line pattern included in an image
US9756255B2 (en) 2012-12-27 2017-09-05 Panasonic Intellectual Property Corporation Of America Information communication method
US11165967B2 (en) 2012-12-27 2021-11-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9094120B2 (en) 2012-12-27 2015-07-28 Panasonic Intellectual Property Corporaton Of America Information communication method
US9088360B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9087349B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9998220B2 (en) 2012-12-27 2018-06-12 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US9203515B2 (en) 2012-12-27 2015-12-01 Panasonic Intellectual Property Corporation Of America Information communication method
US9247180B2 (en) 2012-12-27 2016-01-26 Panasonic Intellectual Property Corporation Of America Video display method using visible light communication image including stripe patterns having different pitches
US9252878B2 (en) 2012-12-27 2016-02-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9262954B2 (en) 2012-12-27 2016-02-16 Panasonic Intellectual Property Corporation Of America Visible light communication signal display method and apparatus
US9281895B2 (en) 2012-12-27 2016-03-08 Panasonic Intellectual Property Corporation Of America Information communication method
US9088362B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information by demodulating bright line pattern included in an image
US9331779B2 (en) 2012-12-27 2016-05-03 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
US9341014B2 (en) 2012-12-27 2016-05-17 Panasonic Intellectual Property Corporation Of America Information communication method using change in luminance
US11659284B2 (en) 2012-12-27 2023-05-23 Panasonic Intellectual Property Corporation Of America Information communication method
US9407368B2 (en) 2012-12-27 2016-08-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9450672B2 (en) 2012-12-27 2016-09-20 Panasonic Intellectual Property Corporation Of America Information communication method of transmitting a signal using change in luminance
US9085927B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9462173B2 (en) 2012-12-27 2016-10-04 Panasonic Intellectual Property Corporation Of America Information communication method
US9467225B2 (en) 2012-12-27 2016-10-11 Panasonic Intellectual Property Corporation Of America Information communication method
US9515731B2 (en) 2012-12-27 2016-12-06 Panasonic Intellectual Property Corporation Of America Information communication method
US9560284B2 (en) 2012-12-27 2017-01-31 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by striped pattern of bright lines
US9564970B2 (en) 2012-12-27 2017-02-07 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
US9571191B2 (en) 2012-12-27 2017-02-14 Panasonic Intellectual Property Corporation Of America Information communication method
US9591232B2 (en) 2012-12-27 2017-03-07 Panasonic Intellectual Property Corporation Of America Information communication method
US11490025B2 (en) 2012-12-27 2022-11-01 Panasonic Intellectual Property Corporation Of America Information communication method
US9608727B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Switched pixel visible light transmitting method, apparatus and program
US9608725B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US9613596B2 (en) 2012-12-27 2017-04-04 Panasonic Intellectual Property Corporation Of America Video display method using visible light communication image including stripe patterns having different pitches
US9635278B2 (en) 2012-12-27 2017-04-25 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by striped pattern of bright lines
US9641766B2 (en) 2012-12-27 2017-05-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9646568B2 (en) 2012-12-27 2017-05-09 Panasonic Intellectual Property Corporation Of America Display method
US10051194B2 (en) 2012-12-27 2018-08-14 Panasonic Intellectual Property Corporation Of America Information communication method
US9768869B2 (en) 2012-12-27 2017-09-19 Panasonic Intellectual Property Corporation Of America Information communication method
US9794489B2 (en) 2012-12-27 2017-10-17 Panasonic Intellectual Property Corporation Of America Information communication method
US9859980B2 (en) 2012-12-27 2018-01-02 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US9184838B2 (en) 2012-12-27 2015-11-10 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
US9088363B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US10951310B2 (en) 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter
US10148354B2 (en) 2012-12-27 2018-12-04 Panasonic Intellectual Property Corporation Of America Luminance change information communication method
US10165192B2 (en) 2012-12-27 2018-12-25 Panasonic Intellectual Property Corporation Of America Information communication method
US10887528B2 (en) 2012-12-27 2021-01-05 Panasonic Intellectual Property Corporation Of America Information communication method
US10205887B2 (en) 2012-12-27 2019-02-12 Panasonic Intellectual Property Corporation Of America Information communication method
US10225014B2 (en) 2012-12-27 2019-03-05 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
US10742891B2 (en) 2012-12-27 2020-08-11 Panasonic Intellectual Property Corporation Of America Information communication method
US10303945B2 (en) 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US10354599B2 (en) 2012-12-27 2019-07-16 Panasonic Intellectual Property Corporation Of America Display method
US10361780B2 (en) 2012-12-27 2019-07-23 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US10368006B2 (en) 2012-12-27 2019-07-30 Panasonic Intellectual Property Corporation Of America Information communication method
US10368005B2 (en) 2012-12-27 2019-07-30 Panasonic Intellectual Property Corporation Of America Information communication method
US10666871B2 (en) 2012-12-27 2020-05-26 Panasonic Intellectual Property Corporation Of America Information communication method
US10447390B2 (en) 2012-12-27 2019-10-15 Panasonic Intellectual Property Corporation Of America Luminance change information communication method
US10455161B2 (en) 2012-12-27 2019-10-22 Panasonic Intellectual Property Corporation Of America Information communication method
US10638051B2 (en) 2012-12-27 2020-04-28 Panasonic Intellectual Property Corporation Of America Information communication method
US10516832B2 (en) 2012-12-27 2019-12-24 Panasonic Intellectual Property Corporation Of America Information communication method
US10523876B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Information communication method
US10521668B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US10530486B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US10531010B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Information communication method
US10531009B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Information communication method
US10616496B2 (en) 2012-12-27 2020-04-07 Panasonic Intellectual Property Corporation Of America Information communication method
WO2015098108A1 (en) * 2013-12-27 2015-07-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing program, receiving program and information processing device
JPWO2015098108A1 (en) * 2013-12-27 2017-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing program, reception program, and information processing apparatus
CN105637783A (en) * 2013-12-27 2016-06-01 松下电器(美国)知识产权公司 Information processing program, receiving program and information processing device
US10389446B2 (en) 2014-11-14 2019-08-20 Panasonic Intellectual Property Corporation Of America Reproduction method for reproducing contents
US10142020B2 (en) 2014-11-14 2018-11-27 Panasonic Intellectual Property Corporation Of America Reproduction method for reproducing contents
US10171165B2 (en) 2015-11-06 2019-01-01 Panasonic Intellectual Property Corporation Of America Visible light signal generating method, signal generating apparatus, and program
US10263701B2 (en) 2015-11-12 2019-04-16 Panasonic Intellectual Property Corporation Of America Display method, non-transitory recording medium, and display device
US10951309B2 (en) 2015-11-12 2021-03-16 Panasonic Intellectual Property Corporation Of America Display method, non-transitory recording medium, and display device
US10504584B2 (en) 2015-12-17 2019-12-10 Panasonic Intellectual Property Corporation Of America Display method and display device
US10819428B2 (en) 2016-11-10 2020-10-27 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
CN111601054A (en) * 2020-05-15 2020-08-28 上海集成电路研发中心有限公司 Time sequence control method for novel drum-type exposure of image sensor
CN111601054B (en) * 2020-05-15 2022-07-19 上海集成电路研发中心有限公司 Time sequence control method for novel drum-type exposure of image sensor

Similar Documents

Publication Publication Date Title
JP2013223209A (en) Image pickup processing device
JP4598162B2 (en) Imaging processing device
JP5017419B2 (en) Image generating apparatus, image generating method, and program
JP4215267B2 (en) Image generating apparatus and image generating method
JP3934151B2 (en) Image generating apparatus and image generating method
JP5002738B2 (en) Image generation device
JP5128726B1 (en) Solid-state imaging device and imaging apparatus including the device
JP5096645B1 (en) Image generating apparatus, image generating system, method, and program
JP6711612B2 (en) Image processing apparatus, image processing method, and imaging apparatus
EP2088788B1 (en) Image picking-up processing device, image picking-up device, image processing method and computer program
JP2020043435A (en) Image processing apparatus, image processing method, and image processing program
JP2004221839A (en) Apparatus and method for image processing, recording medium, and program
JP2013031154A (en) Image processing device, image processing method, image capturing device, and program
WO2018230119A1 (en) Imaging device, imaging element and image processing method
US9083883B2 (en) Camera module, electronic apparatus, and photographing method for image stabilization and increasing resolution
JP2015087543A (en) Imaging apparatus, imaging system, method of controlling the imaging apparatus, program, and storage medium
JP2012216957A (en) Imaging processing device
JP2013223208A (en) Image pickup processing device
JP2007329596A (en) Device and method for generating image
JP4496883B2 (en) Image processing method, image processing apparatus, program, and recording medium
JP2011015228A (en) Image processing device, image processing device, image processing method, and control program of image processor
US7656441B2 (en) Hue correction for electronic imagers
JP6415330B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2013223207A (en) Image pickup processing device
JP4708180B2 (en) Image processing device