JP2013223209A - Image pickup processing device - Google Patents
Image pickup processing device Download PDFInfo
- Publication number
- JP2013223209A JP2013223209A JP2012095423A JP2012095423A JP2013223209A JP 2013223209 A JP2013223209 A JP 2013223209A JP 2012095423 A JP2012095423 A JP 2012095423A JP 2012095423 A JP2012095423 A JP 2012095423A JP 2013223209 A JP2013223209 A JP 2013223209A
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving image
- pixel
- exposure time
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
Description
本願は、動画像を生成する撮像処理装置および撮像処理方法に関する。 The present application relates to an imaging processing apparatus and an imaging processing method for generating a moving image.
従来の撮像処理装置においては、高解像度化を図る目的で撮像素子の画素数が増加する傾向にあった。撮像素子全体のサイズを大きくするには限界があるため、各画素を小型化せざるを得ない。その一方、画素寸法が小型化されるほど、撮像素子の1画素に入射する光量が減少していた。その結果、各画素の信号対雑音比(S/N)の低下につながり、画質を維持することが困難であった。 In the conventional imaging processing apparatus, the number of pixels of the imaging element tends to increase for the purpose of achieving high resolution. Since there is a limit to increasing the size of the entire image sensor, each pixel must be reduced in size. On the other hand, as the pixel size is reduced, the amount of light incident on one pixel of the image sensor decreases. As a result, the signal-to-noise ratio (S / N) of each pixel is reduced, and it is difficult to maintain the image quality.
特許文献1は、赤、緑、青のそれぞれ光を検出する3枚の撮像素子を利用し、露光時間を制御して得られる信号を処理することによって、高解像度で高フレームレートかつ高感度の画像の復元を実現することを開示している。この技術では、2種類の解像度の撮像素子が用いられている。一方の高解像度の画像を生成する撮像素子からは長時間露光で画素信号が読み出され、他方の低解像度の画像を生成する撮像素子は短時間露光で画素信号が読み出される。これにより、光量が確保されていた。
さらに、特許文献2は、特許文献1の手法を単板カメラに拡張し、単板カメラであっても各画素の信号対雑音比(S/N)の低下を抑えながら、画質の維持を実現することを開示している。
Furthermore,
特許文献1および2の技術は、演算量ならびに回路規模が比較的多かった。そのため、演算量がより少なく、回路規模が小さい装置の開発が求められていた。
The techniques of
本願の、限定的ではない例示的なある実施形態は、演算量ならびに回路規模を削減しながら、光量を確保しS/Nを改善しつつ、色にじみの発生を低減することができる撮像処理の技術を提供する。 One non-limiting exemplary embodiment of the present application is an imaging process capable of reducing the amount of color blur while reducing the amount of calculation and the circuit scale while ensuring the light amount and improving the S / N. Provide technology.
本発明のある実施形態による撮像処理装置は、単板カラー撮像素子と画像処理部とを備えている。前記単板カラー撮像素子の奇数ラインでは第1色画素および第2色画素が交互に配列され、偶数ラインでは前記第1色画素および第3色画素が交互に配列され、同一ラインに設けられた複数の前記第1色画素からは、配列された順序にしたがって交互に第1露光時間、および前記第1露光時間よりも長い第2露光時間で画素値を読み出すことが可能であり、同一ラインに設けられた複数の前記第2色画素からは、配列された順序にしたがって交互に前記第1露光時間および前記第2露光時間で画素値を読み出すことが可能であり、同一ラインに設けられた複数の前記第3色画素からは、配列された順序にしたがって交互に前記第1露光時間および前記第2露光時間で画素値を読み出すことが可能であり、前記画像処理部は、前記第1露光時間で読み出された画素値と、前記第2露光時間で読み出された画素値とに基づいて、前記所定のフレームレートの新たな動画像を生成する。 An imaging processing apparatus according to an embodiment of the present invention includes a single-plate color imaging device and an image processing unit. In the odd-numbered line of the single-plate color image pickup device, the first color pixel and the second color pixel are alternately arranged, and in the even line, the first color pixel and the third color pixel are alternately arranged and provided on the same line. From a plurality of the first color pixels, it is possible to read pixel values alternately in a first exposure time and a second exposure time longer than the first exposure time according to the arrangement order, and in the same line It is possible to read pixel values from the plurality of second color pixels provided alternately in the first exposure time and the second exposure time according to the arrangement order, and a plurality of pixels provided on the same line. From the third color pixel, pixel values can be alternately read in the first exposure time and the second exposure time according to the arrangement order, and the image processing unit can read the first exposure time. And pixel values read, based on the pixel value read by said second exposure time to generate a new video image of the predetermined frame rate.
前記画像処理部は、前記第1露光時間で読み出された画素値と、前記第2露光時間で読み出された画素値とに基づいて得られた、被写体の前記第1色成分の動画像、前記第2色成分の動画像、および前記第3色成分の動画像を受け取り、(a)前記第1露光時間で読み出された前記第1色成分、前記第2色成分および前記第3色成分の各動画像と、前記新たな動画像を前記第1露光時間でサンプリングして得られた動画像との第1の差、および(b)前記第2露光時間で読み出された前記第1色成分、前記第2色成分および前記第3色成分の各動画像と、前記新たな動画像を前記第2露光時間でサンプリングして得られた動画像との第2の差を含む評価式を設定し、前記評価式を予め定められた所定の条件で満足する動画像を、前記新たな動画像として求めてもよい。 The image processing unit is a moving image of the first color component of the subject obtained based on the pixel value read during the first exposure time and the pixel value read during the second exposure time. , Receiving the moving image of the second color component and the moving image of the third color component, and (a) reading the first color component, the second color component, and the third color read at the first exposure time. A first difference between each moving image of the color component and a moving image obtained by sampling the new moving image at the first exposure time; and (b) the read out at the second exposure time. Including a second difference between the moving images of the first color component, the second color component, and the third color component, and a moving image obtained by sampling the new moving image at the second exposure time. An evaluation formula is set, and a moving image that satisfies the evaluation formula under a predetermined condition is added to the new moving image. It may be obtained as an image.
前記画像処理部は、前記評価式を最小化する動画像を、前記新たな動画像として求めてもよい。 The image processing unit may obtain a moving image that minimizes the evaluation formula as the new moving image.
前記画像処理部は、前記第1露光時間で読み出された前記第1色成分、前記第2色成分、および前記第3色成分の各動画像を利用して、前記被写体の動きを検出する動き検出部と、前記動きの検出結果を利用して前記新たな動画像の動きの分布に関する拘束条件項を設定し、前記動きの分布に関する拘束条件項をさらに含む前記評価式を最小化する動画像を、前記新たな動画像として求める画像生成部とを備えていてもよい。 The image processing unit detects the movement of the subject using the moving images of the first color component, the second color component, and the third color component read out during the first exposure time. A motion detection unit, a moving image that sets a constraint condition term relating to the motion distribution of the new moving image using the motion detection result, and further minimizes the evaluation formula further including the constraint condition term related to the motion distribution An image generation unit that obtains an image as the new moving image may be provided.
前記画像処理部は、前記新たな動画像の画素値の分布の変化が少なくなるよう、または、前記新たな動画像の画素値の変化が一定になるよう、拘束条件項を設定し、前記拘束条件項をさらに含む前記評価式を最小化する動画像を、前記新たな動画像として求めてもよい。 The image processing unit sets a constraint condition term so that a change in pixel value distribution of the new moving image is reduced or a change in pixel value of the new moving image is constant, and the constraint A moving image that minimizes the evaluation expression further including a conditional term may be obtained as the new moving image.
前記画像処理部は、前記画素値の分布に関する拘束条件を画像の一方向に設定してもよい。 The image processing unit may set a constraint condition related to the distribution of the pixel values in one direction of the image.
前記画像処理部は、前記単板カラー撮像素子から1ラインごとに前記画素値を取得し、取得した1ラインごとに前記画素値の分布に関する拘束条件を設定してもよい。 The image processing unit may acquire the pixel value for each line from the single-plate color imaging device, and set a constraint condition regarding the distribution of the pixel value for each acquired line.
撮像処理装置は、前記第1露光時間で読み出された画素信号に基づいて得られた前記第1色成分の動画像、前記第2色成分の動画像および前記第3色成分の動画像に、表示のために予め定められた画像処理を施す表示制御部と、前記表示制御部によって画像処理された前記第1動画像、前記第2動画像および前記第3動画像を表示する表示部とをさらに備えていてもよい。 The imaging processing apparatus applies the moving image of the first color component, the moving image of the second color component, and the moving image of the third color component obtained based on the pixel signal read out during the first exposure time. A display control unit that performs predetermined image processing for display, and a display unit that displays the first moving image, the second moving image, and the third moving image subjected to image processing by the display control unit; May be further provided.
本発明のある例示的な実施形態によれば、撮像処理装置は、演算量ならびに回路規模を削減しながら、光量を確保しS/Nを改善しつつ、色にじみの発生を低減した画像を生成することができる。 According to an exemplary embodiment of the present invention, an imaging processing device generates an image with reduced color blurring while ensuring a light amount and improving S / N while reducing a calculation amount and a circuit scale. can do.
まず、上述の特許文献1および2に関して、発明者が見出した先行技術の問題点を説明する。
First, regarding the above-described
上述の特許文献1および2においては、いずれも滑らかさの拘束として、x方向とy方向の2方向の拘束条件を利用していた。これは、画像に関して2次元的なメモリアクセスが必要となる。これにより、特許文献1および2では、演算量ならびに回路規模が増大していた。
In the above-mentioned
以下、添付の図面を参照しながら、本発明の一実施形態にかかる撮像処理装置等を詳細に説明する。 Hereinafter, an imaging processing apparatus and the like according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
(実施形態1)
図1は、本実施形態における撮像処理装置100の構成を示すブロック図である。撮像処理装置100は、光学系101と、単板カラー撮像素子102と、読み出し制御部103と、制御部104と、画像処理部105とを備えている。以下、撮像処理装置100の各構成要素を詳細に説明する。
(Embodiment 1)
FIG. 1 is a block diagram illustrating a configuration of an
光学系101は、例えば、カメラレンズであり、被写体の像を撮像素子の像面に結像する。
The
単板カラー撮像素子102は、赤(R),緑(G),青(B)のカラーフィルタアレイが各画素に装着された撮像素子である。図2は、単板カラー撮像素子102の一例を示す。単板撮像素子の各画素(フォトダイオード)に対応して、ベイヤ配列と呼ばれる配列のカラーフィルタアレイが装着されている。図中の「R」、「G」、「B」はそれぞれ「赤」、「緑」、「青」のフィルタを示している。
The single-plate
単板カラー撮像素子102の各画素は、光学系101によって結ばれた光(光学像)を、それぞれに対応して設けられた赤、緑または青のフィルタを通して受け取る。各画素は、画素単位で光電変換を行い、各画素に入射した光の量に応じた画素値(画素信号)を出力する。同じフレーム時刻に撮影された、同じ色成分の画素信号により、その色成分ごとの画像が得られる。全ての色成分の画像により、カラー画像が得られる。
Each pixel of the single-plate
以下、本明細書および図面において、赤、緑、青の光を検出する画素を、それぞれ「R」、「G」、「B」によって表すとする。撮像素子の各画素から出力される画素信号は、R,G,Bいずれかの色に関する画素値を持つ。 Hereinafter, in the present specification and drawings, pixels that detect red, green, and blue light are represented by “R”, “G”, and “B”, respectively. A pixel signal output from each pixel of the image sensor has a pixel value related to any of R, G, and B colors.
この説明から明らかな通り、撮像素子の各画素は、各色のカラーフィルタを透過した光を受け、受けた光の強さに応じた信号を出力する撮像素子の1単位である。 As is apparent from this description, each pixel of the image sensor is a unit of the image sensor that receives light transmitted through the color filters of each color and outputs a signal corresponding to the intensity of the received light.
読み出し制御部103は、図2に示す配列の単板カラー撮像素子102から所定の露光時間毎に画像信号を読み出して動画像として取得する。読み出し方法は以下に詳細に説明するとおりである。読み出し制御部103の読み出し動作は、制御部104による制御に基づいて実行される。
The
図3は、短時間露光画像と長時間露光画像の配置の例を示している。画素信号の読み出しは、1ライン単位で行われる。図3において、R,G,Bの添え字Sは短時間露光を示し、添え字Lは長時間露光を示す。また、本明細書および図面では、下付文字の「S」によって短時間(Short)露光を表し、下付文字の「L」によって長時間(Long)露光を表すこともある。 FIG. 3 shows an example of the arrangement of the short exposure image and the long exposure image. The pixel signal is read out in units of one line. In FIG. 3, the subscript S for R, G, and B indicates short-time exposure, and the subscript L indicates long-time exposure. In the present specification and drawings, the subscript “S” may represent short exposure, and the subscript “L” may represent long exposure.
本願明細書では、「短時間露光」とは、一般的な動画撮影時の1フレームの時間だけ露光することを意味する。例えば「短時間露光」とは、フレームレートが30フレーム/秒(30fps)の場合には1/30秒の露光時間で露光することに相当する。フレームレートが60フレーム/秒(60fps)の場合には1/60秒である。一方、長時間露光とは、1フレームの露光に要する時間よりも長い時間、例えば2フレームから10フレーム程度、露光をすることを意味する。 In the specification of the present application, “short-time exposure” means exposure for a time of one frame during general moving image shooting. For example, “short exposure” corresponds to exposure with an exposure time of 1/30 second when the frame rate is 30 frames / second (30 fps). When the frame rate is 60 frames / second (60 fps), it is 1/60 seconds. On the other hand, the long exposure means that the exposure is performed for a time longer than the time required for one frame exposure, for example, about 2 to 10 frames.
図3に示されている構成によれば、以下の(a)および(b)が理解される。すなわち、(a)奇数ラインに着目するとGとRとが交互に配列されており、偶数ラインに着目するとGとBとが交互に配列されている。そして(b)x軸に平行な一ライン上の、同一の色画素(R画素、G画素またはB画素)に注目すると、露光時間(または読み出し時間)が「短」→「長」→「短」→「長」・・・と交互に異なっている。 According to the configuration shown in FIG. 3, the following (a) and (b) are understood. That is, (a) G and R are alternately arranged when paying attention to odd lines, and G and B are arranged alternately when paying attention to even lines. Then, (b) paying attention to the same color pixel (R pixel, G pixel or B pixel) on one line parallel to the x axis, the exposure time (or readout time) is “short” → “long” → “short” "→" Long "... alternately.
図4は、図3の各画素の露光時間を模式的に示している。図面の左右方向が時間軸tである。長時間露光画像は、R/G/Bそれぞれの画素の半分である。また、2ラインごとに、G画素とR画素のライン、B画素とG画素のラインが繰り返されている例である。 FIG. 4 schematically shows the exposure time of each pixel in FIG. The horizontal direction of the drawing is the time axis t. The long exposure image is half of each pixel of R / G / B. In addition, the G pixel and R pixel lines and the B pixel and G pixel lines are repeated every two lines.
読み出し制御部103は、制御部104の制御信号に基づいて単板カラー撮像素子102の各画素に対する読み出しパルス信号、リセット信号を制御することで、画素毎に露光時間を切り替える。短時間露光時には、読み出し制御部103は1フレーム時間ごとに画素値を読み出し、1フレーム画像の画素信号を読み出す。また長時間露光時には、読み出し制御部103は、複数フレーム時間にわたって、単板カラー撮像素子102を露光し、露光期間が終了した後、画素信号を読み出す。
The
なお、読み出し制御部103は、素子から画素信号を読み出した後でそれらを加算してもよい。具体的には、読み出し制御部103は1フレーム期間ごとに全ての画素ラインから画素信号を読み出す。そしてある画素については、連続する複数フレーム分の画素信号が得られた後に、それらを加算する。このとき、複数フレームの同じ画素座標値の画素信号同士が加算される。この結果、画素信号が加算された画素については、読み出し制御部103は、複数フレーム期間にわたって露光された画素の画素信号と実質的に同じ画素信号を出力することができる。
Note that the
なお、長時間露光画素の露光時間であるフレーム期間に関しては、予め定めておく。 Note that the frame period, which is the exposure time of the long exposure pixels, is determined in advance.
また、本願の撮像処理装置における画素配置は図3に限られない。たとえば、図5A〜5Gに示したような画素配置および露光時間(または読み出し時間)を採用してもよい。この画素配置に関しては、後述する。 Further, the pixel arrangement in the imaging processing apparatus of the present application is not limited to FIG. For example, the pixel arrangement and exposure time (or readout time) as shown in FIGS. 5A to 5G may be employed. This pixel arrangement will be described later.
再び図1を参照する。 Refer to FIG. 1 again.
画像処理部105は、画素ごとに異なる露光時間で撮影された動画像データを受け取り、これらに画像処理を行うことによって、各画素における画素値(例えば、R,G,Bの画素値)を推定し、高解像度カラー動画像を生成する。
The
図6は、画像処理部105の詳細な構成の一例を示す。画像処理部105は、動き検出部201および画像生成部202を有する。
FIG. 6 shows an example of a detailed configuration of the
図7は、撮像処理装置100の処理の手順を示すフローチャートである。まず概要を説明する。
FIG. 7 is a flowchart illustrating a processing procedure of the
ステップS401において、画像処理部105は、フレームレートが画素ごとに異なる動画像をそれぞれ読み出し制御部103から取得する。
In step S <b> 401, the
ステップS402において、画像処理部105の動き検出部201は、取得した画像のうちの短時間露光画像を用いて生成画像の画素毎の動きを検出する。
In step S402, the
ステップS403およびS404において、画像生成部202は、動き拘束条件を設定し、滑らかさ拘束を設定する。
In steps S403 and S404, the
ステップS405において画像生成部202は、高フレームレートカラー画像を生成する。
In step S405, the
ステップS406において、画像生成部202は生成したRGB画像を利用し、公知のデモザイキング処理を行なうことにより、カラー画像を生成する。
In step S406, the
ステップS407において、画像生成部202は生成した動画像を出力する。
In step S407, the
以下、上述した各ステップの詳細を説明する。 Details of each step described above will be described below.
動き検出部201は、1フレーム期間露光されて得られた画素信号によって形成される画像(短時間露光画像)を受け取る。動き検出部201は短時間露光画像を利用して、ブロックマッチング、勾配法、位相相関法等の既存の公知技術によって、短時間露光で撮影された画素値から動き(オプティカルフロー)を検出する。公知技術として、例えばP. Anandan. “Computational framework and an algorithm for the measurement of visual motion”, International Journal of Computer Vision, Vol. 2, pp. 283−310, 1989が知られている。
The
図8(a)および(b)は、ブロックマッチングによって動き検出を行うときの基準フレームと参照フレームとを示している。動き検出部201は、基準とするフレーム(動きを求めるべく着目している時刻tにおける画像)内に、図8(a)に示す窓領域Aを設定し、窓領域内のパターンと類似するパターンを参照フレーム内で探索する。参照フレームとして、例えば着目フレームの次のフレームが利用されることが多い。
FIGS. 8A and 8B show a base frame and a reference frame when motion detection is performed by block matching. The
探索範囲は、図8(b)に示すように、通常、移動量ゼロの位置Bを基準に予め一定の範囲Cが設定される。また、パターンの類似の度合い(程度)は、(数1)に示す残差平方和(SSD:Sum of Square Differrences)や、(数2)に示す残差絶対値和(SAD:Sum of Absoluted Differences)を評価値として計算することによって評価する。
(数1)および(数2)において、I(x、y、t)は画像すなわち画素値の時空間的な分布であり、x,y∈Wは、基準フレームの窓領域内に含まれる画素の座標値を意味する。本実施形態では、図3において短時間露光で撮影した画像の画素値を利用して、その画像をRGBの各色毎に補間拡大した後、下記数3によって輝度成分を求め、動き検出を行う。
なお、I(x,y,t)は、(数3)に限らず、単純なRGB値の加算等にしてもよい。 I (x, y, t) is not limited to (Equation 3), but may be a simple addition of RGB values or the like.
動き検出部201は、探索範囲内で(u,v)を変化させることにより、上記評価値を最小とする(u,v)の組を探索し、これをフレーム間での動きベクトルとする。具体的には、窓領域の設定位置を順次シフトさせることによって、動きを画素毎もしくはブロック毎(例えば8画素×8画素)に求め、動きベクトルを生成する。
The
上記の様にして得られた(数1)または(数2)を最小にする(u,v)の近傍での(u,v)の値の分布に対して、1次ないし2次関数を当てはめる(等角フィッテング法やパラボラフィッティング法として知られる公知の技術)ことによって、サブピクセル精度の動き検出を行う。 For the distribution of the value of (u, v) in the vicinity of (u, v) that minimizes (Equation 1) or (Equation 2) obtained as described above, a linear or quadratic function is obtained. By applying (a known technique known as an equiangular fitting method or a parabolic fitting method), motion detection with sub-pixel accuracy is performed.
<各画素におけるR,G,Bの画素値の生成処理>
画像生成部202は、次式で表される評価関数J(評価式)を最小化して、各画素におけるR,G,Bの画素値を計算する。
The
ここで、H1は長時間露光のサンプリング過程、H2は短時間露光のサンプリング過程、fは新たに生成すべき高空間解像度かつ高時間解像度のRGB画像である。また、λLおよびλSは重みである。単板カラー撮像素子102によって撮像されたRGBの画像のうち、長時間露光で撮像したものをgL、短時間露光で撮像したものをgSとする。Mはべき指数、Qは生成すべき画像fが満たすべき条件、すなわち拘束条件である。
Here, H 1 is a sampling process for long exposure, H 2 is a sampling process for short exposure, and f is an RGB image having a high spatial resolution and a high time resolution to be newly generated. Λ L and λ S are weights. Of the RGB images captured by the single-plate
(数4)のべき指数Mの値は、特に限定するものではないが、演算量の観点から、1または2が好ましい。 The value of the exponent M in (Expression 4) is not particularly limited, but 1 or 2 is preferable from the viewpoint of the amount of calculation.
(数4)の第1項は、生成すべき高空間解像度かつ高時間解像度のRGB画像fを、長時間露光のサンプリング過程H1によってサンプリングして得られた画像と、実際に長時間露光画像として得られた、gLとの差の演算を意味する。長時間露光のサンプリング過程H1を予め定めておき、この差分を最小化するfを求めると、そのfは、長時間露光によって得られたgLと最もよく整合するといえる。第2項についても同様に、差分を最小化するfは、短時間露光によって得られたgSと最もよく整合するといえる。また、第3項は、解fを一意に決定するための拘束条件項である。 The first term of (Expression 4) is an image obtained by sampling the RGB image f having a high spatial resolution and a high temporal resolution to be generated by the long exposure sampling process H 1 , and the actual long exposure image. Is obtained by calculating the difference from g L. If a sampling process H 1 for long exposure is determined in advance and f for minimizing this difference is obtained, it can be said that f is the best match with g L obtained by long exposure. Similarly, for the second term, f which minimizes the difference can be said to be the best match with g S obtained by short-time exposure. The third term is a constraint condition term for uniquely determining the solution f.
そして、(数4)の評価関数Jを最小化するRGB画像fは、長時間露光および短時間露光によって得られたgLおよびgSの両方を総合的によく満足するといえる。画像生成部202は、(数4)を最小化するRGB画像fを計算することで、S/Nが改善されたRGB画像の画素値を生成する。
And it can be said that the RGB image f that minimizes the evaluation function J of (Equation 4) satisfies both g L and g S obtained by the long exposure and the short exposure comprehensively. The
(数4)のJの最小化は、∂J/∂f=0となるRGB画像fを求めることによって行う。この計算は、(数4)においてM=2でかつ、Qがfの2次形式の場合には、上述のJのfによる偏微分∂J/∂fがfの1次式になるため、線形最適化問題となり連立方程式Af=bの計算に帰着する。すなわち、(数4)をfで偏微分すると、以下のとおりである。
Q1はQがfの2次形式の場合、定数マトリックス(fを含まないマトリックス)である。 Q 1 is a constant matrix (matrix not including f) when Q is a quadratic form of f.
この式を変形して以下の連立方程式を解くことにより、RGB画像fを計算する。
一方、M=1の場合や、M=3以上の整数の場合、また、Mが整数でない場合には、非線形最適化問題となる。 On the other hand, when M = 1, when M = an integer of 3 or more, and when M is not an integer, a nonlinear optimization problem occurs.
計算が線形最適化問題になる場合、図9に示す共役勾配法の手順により評価関数Jを最小にするRGB画像fを計算することができる。図10は、図9に示す処理を行うための画像生成部202の構成例を示す。画像生成部202は、係数演算部501と、ベクトル演算部502と、演算部503とを有している。
When the calculation becomes a linear optimization problem, the RGB image f that minimizes the evaluation function J can be calculated by the procedure of the conjugate gradient method shown in FIG. FIG. 10 shows a configuration example of the
係数演算部501は、係数行列Aを計算する。ベクトル演算部502は、定数ベクトルbを計算する。演算部503は、演算によって得られた行列Aおよびベクトルbを用いて、Af=bの連立方程式を解く。図9に示す処理は、主として演算部503の処理である。行列Aおよびベクトルbが求まり、制御部104から初期値および終了条件が与えられると図9の処理が開始される。図9の終了条件は、図9に示すk+1ステップ目での残差rk+1が十分小さくなったときである。
The
これにより、評価関数Jを最小化するG画像fを求めることができる。なお、図9に示すアルゴリズムは公知であるため、詳細な説明は省略する。 Thereby, the G image f that minimizes the evaluation function J can be obtained. Since the algorithm shown in FIG. 9 is known, detailed description is omitted.
一方、計算が非線形最適化問題となる場合には、図11に示す準ニュートン法の手順により、Jを最小にするfを計算することができる。この手法によるJの最小化、極小化は、fの初期解から始めて、Jのfに関する勾配を用いて、よりJを小さくする様に、反復計算により解fを更新する。図11においてKkは、sk≡fk+1−fk、yk=∇J(fk)とおき、準ニュートン法のなかのDFP法では、以下のように計算する。
また、準ニュートン法のなかのBFGS法では以下のように計算する。
以下、(数4)に関してより詳しく説明する。 Hereinafter, (Equation 4) will be described in more detail.
画像f、gLおよびgSは、動画像の各画素値を要素とする縦ベクトルである。以下では、画像についてベクトル表記は、画素値をRGBごとに図12のようにラインごと、RGBごとに並べた縦ベクトルを意味し、関数表記は、画素値の時空間的分布を意味する。画素値としては、輝度値の場合は、1画素につき1個の値を考えればよい。fの要素数は、例えば、生成すべき動画像を横2000画素、縦1000画素、30フレームとすると、2000×1000×30=60000000となる。 The images f, g L and g S are vertical vectors whose elements are the pixel values of the moving image. In the following, the vector notation for an image means a vertical vector in which pixel values are arranged line by line and RGB for each RGB as shown in FIG. 12, and the function notation means a spatio-temporal distribution of pixel values. As a pixel value, in the case of a luminance value, one value may be considered per pixel. The number of elements of f is, for example, 2000 × 1000 × 30 = 60000000 if the moving image to be generated is 2000 pixels wide, 1000 pixels long, and 30 frames.
画像fの縦横の画素数および信号処理に用いるフレーム数は、画像処理部105によって設定される。
The number of pixels in the vertical and horizontal directions of the image f and the number of frames used for signal processing are set by the
長時間露光のサンプリング過程H1は、行数がgLの要素数と等しく、列数がfの要素数と等しい行列である。また、短時間露光サンプリング過程H2は、行数がgSの要素数と等しく、列数がfの要素数と等しい行列である。 The long exposure sampling process H 1 is a matrix in which the number of rows is equal to the number of elements of g L and the number of columns is equal to the number of elements of f. The short exposure sampling process H 2 is a matrix whose number of rows is equal to the number of elements of g S and whose number of columns is equal to the number of elements of f.
現在一般に普及しているコンピュータでは、動画像の画素数(例えば幅2000画素×高さ1000画素)とフレーム数(例えば30フレーム)に関する情報量が多すぎるため、(数4)を最小化するfを単一の処理で求めることはできない。本願の撮像処理装置では、後述するように、RGBそれぞれの色をラインごと(例えば幅1000画素×高さ1画素)のみで処理を行なうことが可能なため、メモリアクセスを大幅に削減することができる。 Since the amount of information relating to the number of pixels of a moving image (for example, 2000 pixels wide × 1000 pixels in height) and the number of frames (for example, 30 frames) is too large in a computer that is currently in widespread use, f (4) is minimized. Cannot be obtained in a single process. In the imaging processing apparatus of the present application, as will be described later, it is possible to process each RGB color only for each line (for example, a width of 1000 pixels × a height of 1 pixel), so that memory access can be greatly reduced. it can.
このように、時間的、空間的な部分領域についてfの一部を求める処理を繰り返すことにより、生成すべき動画像fを計算することができる。 Thus, the moving image f to be generated can be calculated by repeating the process of obtaining a part of f for the temporal and spatial partial regions.
次に、長時間露光のサンプリング過程H1の定式化を簡単な例を用いて説明する。以下では、幅4画素(x=1,2,3,4)、高さ2画素(y=1,2)、2フレーム(t=1,2)の画像をベイヤ配列の単板カラー撮像素子102で撮像し、y=1のラインにおいて2フレーム分時間加算する場合のgLの撮像過程について考える。ここでは、例えば図3の最も左上の4画素x2画素に対応して、y=2である2つの画素(x,y)=(2,2)、および、(4,2)におけるGLのt=1,2を想定している。 Next, formulation of the long exposure sampling process H 1 will be described using a simple example. In the following, a single-plate color imaging device having a Bayer arrangement for an image having a width of 4 pixels (x = 1, 2, 3, 4), a height of 2 pixels (y = 1, 2), and 2 frames (t = 1, 2) Consider an imaging process of g L when imaging is performed at 102 and time is added for two frames in a line of y = 1. Here, for example, corresponding to the upper left four pixels × 2 pixels in FIG. 3, two pixels (x, y) = (2, 2) where y = 2 and GL in (4, 2) Assume t = 1,2.
得られるG画像fの要素は、t=1、2を含めて以下の(数9)のように表される。
(数9)において、G111〜G312、R211〜R422、B121〜B322は各画素におけるR、G、Bの画素値を示し、3個の添字は順にx、y、tの値を示す。 In (Equation 9), G 111 to G 312 , R 211 to R 422 , and B 121 to B 322 indicate the R, G, and B pixel values in each pixel, and the three subscripts are x, y, and t in order. Indicates the value.
上記(数9)のうち、長時間露光を求めるために必要なのは、位置(2,1)についてはR211およびR212、位置(3,1)についてはG311およびG312、位置(1,2)についてはB121およびB122、位置(2,2)についてはG221およびG222である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。
行列H1は、長時間露光のサンプリング過程であることを考慮して設定される。すなわち、y=1および2のラインにおける長時間露光の画素を得るためには、(x,y)=(2,1)および(3,1)の位置におけるt=1、2の各画素値を加算し、また(x,y)=(1,2)および(2,2)の位置におけるt=1、2の各画素値を加算する必要がある。これらによれば、長時間露光画像の撮像過程は以下のように定式化される。
次に、短時間露光のサンプリング過程H2の定式化を簡単な例を用いて説明する。先の例と同様に、幅4画素(x=1,2,3,4)、高さ2画素(y=1,2)、2フレーム(t=1、2)の画像をベイヤ配列の撮像素子で撮像する場合について考える。 Next, formulation of the sampling process H 2 for short time exposure will be described using a simple example. As in the previous example, an image with a width of 4 pixels (x = 1, 2, 3, 4), a height of 2 pixels (y = 1, 2), and 2 frames (t = 1, 2) is captured in a Bayer array. Consider the case of imaging with an element.
先のサンプリング過程H1の例と同様、この例もまた、図3の最も左上の4画素x2画素を想定する。ただし短時間露光であるため、図3のy=1,2における短時間露光画素の画素値が、t=1および2について必要となる。すなわち、画素(x,y)=(1,1)におけるGsの画素値、および、(4,1)におけるRsの画素値、および、(3,2)におけるBsの画素値、および、(4,2)におけるGsの画素値が、t=1および2について必要となる。なお、得られるRGB画像fの要素は、(数9)の通りである。 Similar to the example of the previous sampling process H 1 , this example also assumes the upper left 4 pixels × 2 pixels of FIG. However, since it is a short time exposure, the pixel values of the short time exposure pixels at y = 1, 2 in FIG. 3 are required for t = 1 and 2. That is, the pixel value of Gs in the pixel (x, y) = (1, 1), the pixel value of Rs in (4, 1), the pixel value of Bs in (3, 2), and (4 , 2) the pixel value of Gs is required for t = 1 and 2. The elements of the obtained RGB image f are as shown in (Equation 9).
上記(数9)のうち、短時間露光を求めるために必要なのは、位置(1,1)についてはG111およびG112、位置(4,1)についてはR411およびR412、位置(3,2)についてはB321およびB322、位置(4,2)についてはG421およびG422である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。
(数12)の第1〜4行が時刻t=1に関し、第5〜8行が時刻t=2に関している。これらによれば、短時間露光ラインの撮像過程は以下のように定式化される。
(数11)や(数13)は、RGB画像fをベイヤ配列の単板撮像素子により露光時間を変えて撮像し、gL、gSを得る過程を示す。逆に、gL、gSからfを生成する問題は、一般に逆問題といわれる。拘束条件Qのない場合、下記(数14)を最小化するfは無数に存在する。
このことは、サンプリングされない画素値に任意の値を入れても(数14)が成り立つことから、容易に説明できる。そのため、(数14)の最小化によってRGB画像fを一意に解くことはできない。 This can be easily explained because (Equation 14) holds even if an arbitrary value is entered as a pixel value that is not sampled. Therefore, the RGB image f cannot be uniquely solved by minimizing (Equation 14).
そこで、RGB画像fについての一意な解を得るために、拘束条件Qを導入する。Qとして、画素値fの分布に関する滑らかさの拘束や、fから得られる画像の動きの分布に関する滑らかさの拘束を与える。以下、それぞれの拘束の与え方を説明する。 Therefore, in order to obtain a unique solution for the RGB image f, a constraint condition Q is introduced. As Q, a constraint on smoothness regarding the distribution of the pixel value f and a constraint on smoothness regarding the distribution of motion of the image obtained from f are given. Hereinafter, how to give each constraint will be described.
まず、RGB画像fを1ライン目のG(以下、Grと記載)とR、2ライン目のBとG(以下、Gbと記載)ごとの画素値の分布に関する滑らかさの拘束としては、(数15)もしくは(数16)の拘束式を用いる。
ここで、λCR、λCGr、λCGb、および、λCBはR,G,Bの滑らかさの拘束の重みであり、3板撮影等で全画素読み出しした画素値が事前に用意できる場合には、生成画像のPSNR(Peak Signal to Noise Ratio)が最良となるように決めればよい。 Here, λ CR , λ CGr , λ CGb , and λ CB are weights for restraining the smoothness of R, G, and B, and when pixel values read out from all pixels by three-plate photography can be prepared in advance. Is determined so that the PSNR (Peak Signal to Noise Ratio) of the generated image is the best.
なお、PSNRは(数17)で定義される。
ここで、fmaxは画素値の最大値(例えば、8ビット時255、10ビット時1023)であり、σは正解画像と生成画像との差の標準偏差である。 Here, fmax is the maximum pixel value (for example, 255 for 8 bits and 1023 for 10 bits), and σ is a standard deviation of the difference between the correct image and the generated image.
一方、そうでない場合には、上記の値をもとにマニュアル操作で新たに生成した画質をみながらλλCR、λCGr、λCGb、および、λCBを決めればよい。(数4)に示す通り、拘束条件Qも評価関数Jの一部を構成する。したがって、評価関数Jの値をできるだけ小さくするためには、拘束条件Qも小さい方が好ましい。 On the other hand, if not, λλ CR , λ CGr , λ CGb , and λ CB may be determined while looking at the image quality newly generated by manual operation based on the above values. As shown in (Expression 4), the constraint condition Q also constitutes a part of the evaluation function J. Therefore, in order to make the value of the evaluation function J as small as possible, it is preferable that the constraint condition Q is also small.
(数15)に関しては、画素値fの分布の変化が少ないほど、Qの値は小さくなる。(数16)に関しては、画素値fの分布の変化が一定であるほど、Qの値は小さくなる。これらが、画素値fの分布に関する滑らかさの拘束条件となる。 Regarding (Expression 15), the smaller the change in the distribution of the pixel value f, the smaller the Q value. Regarding (Expression 16), the value of Q decreases as the change in the distribution of the pixel value f is constant. These are the smoothness constraint conditions regarding the distribution of the pixel value f.
また、(数14)で||はベクトルのノルムを表す。べき指数mの値は、(数4)、(数14)におけるべき指数Mと同様に、演算量の観点から1または2が望ましい。 In (Equation 14), || represents the norm of the vector. The value of the power exponent m is preferably 1 or 2 from the viewpoint of the amount of computation, like the power exponent M in (Equation 4) and (Equation 14).
なお、上記の偏微分値∂/∂x、∂2/∂x2は、着目画素近傍の画素値による差分展開により、例えば(数18)により近似計算できる。
差分展開は上記(数18)に限らず、例えば(数19)の様に、近傍の他の画素を参照するようにしてもよい。
(数19)は(数18)による計算値に対して、近傍で平均化することになる。これにより、空間解像度は低下するが、ノイズの影響を受けにくくできる。さらに、両者の中間的なものとして、0≦α≦1の範囲のαで重み付けをして、以下の式を採用してもよい。
差分展開の計算方法は、処理結果の画質がより改善されるようにノイズレベルに応じてαを予め決めて行ってもよいし、もしくは、演算量や回路規模を少しでも小さくするために、(数18)を用いてもよい。 The difference expansion calculation method may be performed by predetermining α according to the noise level so that the image quality of the processing result is further improved, or in order to reduce the calculation amount and the circuit scale as much as possible ( Equation 18) may be used.
(数15)、(数16)に示したような、動画像fの画素値の分布に関する滑らかさの拘束を導入して(数4)を解く問題に対しては、公知の解法、例えば有限要素法等の変分問題の解法を用いて計算することができる。 As shown in (Equation 15) and (Equation 16), for the problem of solving (Equation 4) by introducing smoothness constraints on the distribution of pixel values of the moving image f, a known solution, for example, finite It can be calculated using a solution to a variational problem such as the element method.
また、以上のように、RGB画像fを1ライン目のG(以下、Grと記載)とR、2ライン目のBとG(以下、Gbと記載)を独立に計算することが可能なため、1次元上でのメモリアクセスのみで処理を行なうことができ、演算量ならびに回路規模を削減することができる。例えば、生成すべき動画像を横2000画素、縦1000画素とすると、Gr/R/B/Gbそれぞれを、幅1000画素×高さ1画素ごとに処理することが可能である。そのため、メモリアクセスを大幅に削減することができる。 In addition, as described above, the RGB image f can be calculated independently for G (hereinafter referred to as Gr) and R on the first line, and B and G (hereinafter referred to as Gb) on the second line. Processing can be performed with only one-dimensional memory access, and the amount of computation and circuit scale can be reduced. For example, if a moving image to be generated is 2000 pixels wide and 1000 pixels long, each of Gr / R / B / Gb can be processed for every 1000 pixels in width × 1 pixel in height. Therefore, memory access can be greatly reduced.
次に、RGB画像fに含まれる画像の動きの分布に関する滑らかさの拘束を説明する。 Next, a description will be given of the constraint on smoothness relating to the motion distribution of the image included in the RGB image f.
RGB画像fに含まれる画像の動きの分布に関する滑らかさの拘束としては、下記(数21)または(数22)を用いる。
ここで、uは動画像fから得られる各画素についての動きベクトルのx方向の成分を要素とする縦ベクトル、vは動画像fから得られる各画素についての動きベクトルのy方向の成分を要素とする縦ベクトルである。 Here, u is a vertical vector having the x-direction component of the motion vector for each pixel obtained from the moving image f as an element, and v is a y-direction component of the motion vector for each pixel obtained from the moving image f. Is a vertical vector.
fから得られる画像の動きの分布に関する滑らかさの拘束としては、(数21)、(数22)に限らず、例えば(数23)、(数24)に示す1階または2階の方向微分としてもよい。
さらに、(数25)〜(数28)に示すように、(数21)〜(数24)の拘束条件を、fの画素値のこう配に応じて適応的に変化させてもよい。これにより、画像内のエッジ(輝度変化が不連続な境界)部分に対する滑らかさ拘束の影響を、画像の平坦部分と比べて小さくすることができるため、画像内のエッジをより鮮明に再現することができる。
ここで、w(x,y)は、fの画素値のこう配に関する重み関数であり、(数29)に示す画素値のこう配の成分の、べき乗和によって定義される。
また、(数29)に示す輝度こう配の成分の2乗和の代わりに、(数30)に示す方向微分の、べき乗の大小によって、重み関数w(x,y)を定義してもよい。
ここで、ベクトルnmaxおよび角度θは方向微分が最大になる方向であり、下記(数31)によって与えられる。
このような重み関数を導入することにより、fの動き情報が必要以上に平滑化されることを防ぐことができ、その結果、新たに生成される画像fが必要以上に平滑化されることを防ぐことができる。 By introducing such a weight function, it is possible to prevent the motion information of f from being smoothed more than necessary, and as a result, the newly generated image f is smoothed more than necessary. Can be prevented.
(数21)〜(数28)に示したような、画像fから得られる動きの分布に関する滑らかさの拘束を導入して(数4)を解く問題に関しては、fについての滑らかさの拘束を用いる場合と比較して複雑な計算が必要となる。新たに生成すべき画像fと動き情報(u,v)が相互に依存するためである。 As shown in (Equation 21) to (Equation 28), with respect to the problem of solving (Equation 4) by introducing the smoothness constraint on the motion distribution obtained from the image f, the smoothness constraint on f is applied. Complicated calculation is required compared with the case of using. This is because the image f to be newly generated and the motion information (u, v) depend on each other.
この問題に対しては、公知の解法、例えばEMアルゴリズム等を用いた変分問題の解法を用いて計算することができる。その際、繰り返し計算に、新たに生成すべき画像fと動き情報(u,v)の初期値が必要になる。 This problem can be calculated using a known solution, for example, a variational solution using an EM algorithm or the like. At that time, the image f to be newly generated and the initial value of the motion information (u, v) are necessary for repeated calculation.
fの初期値としては、入力画像の補間拡大画像を用いればよい。一方、動き情報(u,v)としては、動き検出部201において(数1)ないし(数2)を計算して求めた動き情報を用いる。その結果、画像処理部105が、上述のごとく、(数21)〜(数28)に示したような、画像fから得られる動きの分布に関する滑らかさの拘束を導入して(数4)を解くことにより、処理結果の画質を向上させることができる。
As an initial value of f, an interpolation enlarged image of the input image may be used. On the other hand, as the motion information (u, v), the motion information obtained by calculating (Equation 1) to (Equation 2) in the
画像処理部105における処理は、(数15)、(数16)に示した画素値の分布に関する滑らかさの拘束のいずれかと、(数21)〜(数28)に示した動きの分布に関する滑らかさの拘束のいずれかの両方を組み合わせて、(数32)のように同時に用いてもよい。
ここで、Qfはfの画素値のこう配に関する滑らかさの拘束、Quvはfから得られる画像の動きの分布に関する滑らかさの拘束、λ1およびλ2はQfとQuvの拘束に関する重みである。 Here, Q f is a smoothness constraint on the gradient of the pixel value of f, Q uv is a smoothness constraint on the distribution of image motion obtained from f, and λ 1 and λ 2 are related to the constraint between Q f and Q uv . It is a weight.
なお、ここでは複数の拘束条件の式について説明したが、これらの最適な組み合わせは、コスト、演算規模、回路規模等の装置の状況に応じて決定すればよい。例えば、画質が最もよくなるものを選択するようにすればよい。「画質が最もよくなる」とは、例えばその映像を確認する者の主観に基づいて決定することができる。 Although a plurality of constraint condition expressions have been described here, the optimal combination of these may be determined according to the status of the apparatus such as cost, operation scale, circuit scale, and the like. For example, what has the best image quality may be selected. “The image quality is the best” can be determined based on the subjectivity of the person who confirms the video, for example.
画素値の分布に関する滑らかさの拘束と、画像の動きの分布に関する滑らかさの拘束の両方を導入して(数4)を解く問題も、公知の解法(例えばEMアルゴリズム等を用いた変分問題の解法)を利用することができる。 The problem of solving (Equation 4) by introducing both the smoothness constraint on the distribution of pixel values and the smoothness constraint on the distribution of image motion is a variational problem using a known solution (for example, an EM algorithm). Can be used.
また、動きに関する拘束は、(数21)〜(数28)に示した動きベクトルの分布の滑らかさに関するものに限らず、対応点間の残差(動きベクトルの始点と終点間における画素値の差)を評価値として、これを小さくするようにしてもよい。対応点間の残差は、fを関数f(x,y,t)として表すと、(数33)のように表すことができる。
fをベクトルとして、画像全体について考えると、各画素における残差は下記(数34)に示すようにベクトル表現することができる。
残差の平方和は下記(数35)に示すように表すことができる。
(数34)、(数35)において、Hmはベクトルfの要素数(時空間の総画素数)×fの要素数の行列である。Hmでは、各行において、動きベクトルの視点と終点に相当する要素だけが0でない値を持ち、それ以外の要素は0の値を持つ。動きベクトルが整数精度の場合、視点と終点に相当する要素が、それぞれ、−1と1の値を持ち、他の要素は0である。 In (Equation 34) and (Equation 35), H m is a matrix of the number of elements of vector f (total number of pixels in space-time) × f. In H m , in each row, only elements corresponding to the viewpoint and end point of the motion vector have non-zero values, and other elements have zero values. When the motion vector has integer precision, the elements corresponding to the viewpoint and the end point have values of −1 and 1, respectively, and the other elements are 0.
動きベクトルがサブピクセル精度の場合には、動きベクトルのサブピクセル成分の値に応じて、終点近傍の複数の画素に相当する複数の要素が値を持つことになる。 When the motion vector has sub-pixel accuracy, a plurality of elements corresponding to a plurality of pixels near the end point have values according to the value of the sub-pixel component of the motion vector.
(数35)をQmとおき、拘束条件を(数36)のようにしてもよい。
ここで、λ3は拘束条件Qmに関する重みである。 Here, λ 3 is a weight related to the constraint condition Q m .
以上述べた方法により、動き検出部201でGSとRSとBSの短時間露光画像から抽出した動き情報を用いることにより、ベイヤ配列の撮像素子によって撮像されたRGB動画像を画像処理部105で信号対雑音比(S/N)を向上させ、色にじみの少ない新たな動画像を生成することができる。
By using the motion information extracted from the short-time exposure images of G S , R S, and B S by the
さらに、こうして生成したRGB画像を利用し、公知のデモザイキング処理を行なうことにより、画像処理部105は信号対雑音比(S/N)を向上させ、色にじみの少ない新たな動画像を生成することができる。本願の撮像処理装置は、1ラインごとに処理を行なうため、1次元上でのメモリアクセスのみで処理を行なうことができ、演算量ならびに回路規模を削減することができる。
Further, the
また、本願の撮像処理装置は、ベイヤ配列におけるRGB画素位置の画像のみを生成し、生成した画像に対してデモザイキング処理によりカラー画像を生成するため、すべての画素で画像生成を行なう場合に比べ、1/3の演算量で行なうことができるため、演算量ならびに回路規模を削減しながら、色ずれを生じさせることなく、S/Nをより改善することができる。 In addition, since the imaging processing apparatus of the present application generates only an image at the RGB pixel position in the Bayer array and generates a color image by demosaicing processing on the generated image, compared with a case where image generation is performed with all pixels. Therefore, the S / N can be further improved without causing color misregistration while reducing the calculation amount and the circuit scale.
なお、上述した画像処理部105におけるR,G,Bの画素値の計算方法は一例であり、他の計算方法を採用してもよい。
Note that the above-described calculation method of the R, G, and B pixel values in the
他の方法として、例えば最急勾配法などの反復演算型の最適化手法を用いて望ましい目的画像を求めてもよい。 As another method, for example, a desired target image may be obtained using an iterative calculation type optimization method such as the steepest gradient method.
以上説明したように、実施形態1によれば、単板撮像素子に時間加算の機能を付加し、1ラインごとに時間加算された入力画像から新たな画像を生成することによって、撮像時に光量を確保しつつ高解像度かつ高フレームレートで、色にじみの少ない画像(時間加算を行なわずに全画素を読み出した画像)を推定し生成することができる。 As described above, according to the first embodiment, the function of time addition is added to the single-plate imaging device, and a new image is generated from the input image that is time-added for each line, thereby reducing the amount of light during imaging. It is possible to estimate and generate an image with a high resolution and a high frame rate with little color blurring (an image in which all pixels are read without performing time addition) while ensuring.
(実施形態1の変形例)
実施形態1では、画像処理部105における処理に、(数10)や(数12)を用いた劣化拘束、動き検出を用いた動き拘束、画素値の分布に関する滑らかさ拘束の全てを用いる場合を主に述べた。
(Modification of Embodiment 1)
In the first embodiment, the processing in the
種々の拘束のうち、特に動き拘束については演算量が多く、装置の計算機資源を必要とする。そこで本変形例においては、これらの拘束のうち動き拘束を用いない処理を説明する。 Of the various constraints, the motion constraint is particularly computationally intensive and requires computer resources. Therefore, in the present modification, a process that does not use a motion constraint among these constraints will be described.
図13は、動き検出部201を含まない画像処理部105を有する撮像処理装置200の構成を示すブロック図である。画像処理部105の画像生成部111は、動き拘束を用いることなく、新たな画像を生成する。
FIG. 13 is a block diagram illustrating a configuration of the
図13において、図1および図6と同じ動作をする構成要素には、図1および図6と同一の符号を付し、説明を省略する。 In FIG. 13, the same reference numerals as those in FIG. 1 and FIG. 6 are given to the components that perform the same operations as those in FIG. 1 and FIG.
従来の技術では、動き拘束を用いない場合、処理結果に明らかな画質の低下が生じる。 In the conventional technique, when the motion constraint is not used, the image quality is clearly deteriorated in the processing result.
しかしながら、本発明では顕著な画質低下を生じさせずに動き拘束を省くことができる。その理由は、図3に示した画素配置にある。この画素配置では、RGB画像を生成する際、1ライン単位で横方向にスキャンすることにより、単板カラー撮像素子102の長時間露光および短時間露光を行うそれぞれの色成分の画素が、順番に混在している。そのため、短時間露光によって撮影された画素と長時間露光によって撮影された画素が順番に混在し、動き拘束を用いずに画像を生成した際に、短時間露光によって撮影された画素値が色にじみの発生を抑える効果がある。さらに、動き拘束条件を課すことなく新たな動画像を生成するため、演算量ならびに回路規模を低減することができる。
However, in the present invention, it is possible to eliminate motion restriction without causing a significant deterioration in image quality. The reason is the pixel arrangement shown in FIG. In this pixel arrangement, when generating an RGB image, the pixels of the respective color components that perform long exposure and short exposure of the single-plate
以下に、画像生成部111による高画質化処理を説明する。
Hereinafter, the image quality improvement processing by the
(数4)においてM=2とし、Qとして(数15)ないし(数16)を用い、これらの式におけるmを2とする。そして、1階微分、2階微分の差分展開として(数18)、(数19)、(数20)のいずれかを用いると、評価式Jはfの2次式となる。評価式を最小化するfの計算は、(数37)により、fについての連立方程式の計算に帰着する。
ここで、解くべき連立方程式を(数38)のようにおく。
(数38)において、fは生成する画素数(1フレームの画素数×処理するフレーム数)分の要素を持つため、(数38)の計算量は通常、非常に大規模になる。しかし、本願の撮像処理装置では、前述のとおり、Gr/R/B/Gbそれぞれを1ラインごと(例えば幅1000画素×高さ1画素×処理するフレーム数)のみで処理を行なうことが可能なため、メモリアクセスを大幅に削減し、演算量ならびに回路規模を削減することができる。
In (Equation 38), since f has elements for the number of pixels to be generated (the number of pixels in one frame × the number of frames to be processed), the calculation amount of (Equation 38) is usually very large. However, as described above, the imaging processing apparatus of the present application can process each Gr / R / B / Gb only for each line (for example, width 1000 pixels ×
このような連立方程式の解法として、共役勾配法や最急降下法等の繰り返し計算により解fを収束させる方法(繰り返し法)が一般的に用いられる。 As a method for solving such simultaneous equations, a method (an iterative method) for converging the solution f by an iterative calculation such as a conjugate gradient method or a steepest descent method is generally used.
動き拘束を用いずにfを求める際には、評価関数が劣化拘束項と滑らかさ拘束項だけになるため、処理がコンテンツに依存しなくなる。このことを利用すると、連立方程式(数38)の係数行列Aの逆行列をあらかじめ計算でき、これを用いることで直接法により画像処理を行うようにできる。 When obtaining f without using motion constraints, the evaluation functions are only the degradation constraint term and the smoothness constraint term, so the processing does not depend on the content. By utilizing this fact, the inverse matrix of the coefficient matrix A of the simultaneous equations (Equation 38) can be calculated in advance, and by using this, image processing can be performed by a direct method.
(数18)に示す滑らかさ拘束を用いる場合、x方向の2階偏微分は、例えば、(数18)に示すように1,−2,1の3つの係数のフィルタとなり、その2乗は1,−4,6,−4,1の5つの係数のフィルタとなる。これらの係数は、水平方向のフーリエ変換と逆変換とで係数行列を挟むことにより、対角化することができる。同様に、長時間露光の劣化拘束も、時間方向のフーリエ変換と逆フーリエ変換とで係数行列を挟むことにより、対角化することができる。すなわち、(数39)のように行列をΛと置くことができる。
これにより、1行あたりのノンゼロ係数の数を係数行列Aと比べて低減させることができる。その結果、Λの逆行列Λ-1の計算が容易になる。そして、(数40)および(数41)により、fを直接法により、繰り返し計算を行わずに、より少ない演算量と回路規模で求めることができる。
また、滑らかさの拘束として(数14)を利用することにより、奇数行目のG画素Gr、奇数行目のR画素、偶数行目のB画素、偶数行目のG画素Gbを独立に計算することができるため、メモリアクセスを削減し、演算量ならびに回路規模を削減しながら、色ずれを生じさせることなく、S/Nをより改善することができる。この場合、本願の撮像処理装置では、1ラインごとの各色の画素(例えば幅1000画素×高さ1画素×処理するフレーム数)のみで処理を行なうことが可能なため、メモリアクセスを大幅に削減し、演算量ならびに回路規模を削減することができる。 Further, by using (Equation 14) as a constraint on smoothness, the G pixel Gr in the odd row, the R pixel in the odd row, the B pixel in the even row, and the G pixel Gb in the even row are calculated independently. Therefore, the S / N can be further improved without causing color misregistration while reducing memory access, reducing the amount of calculation and the circuit scale. In this case, the imaging processing apparatus of the present application can perform processing only with pixels of each color for each line (for example, 1000 pixels wide × 1 pixel high × number of frames to be processed), so that memory access is greatly reduced. In addition, the calculation amount and the circuit scale can be reduced.
また、本願の撮像処理装置における画素配置は、図3に限ったものではなく、図5A〜5Gのいずれでも構わない。前述のとおり、本願の撮像処理装置においては、単板カラー撮像素子102の各色画素において、x方向に長時間露光および短時間露光を行うそれぞれの画素が、順番に混在している必要がある。図5A〜5Gはいずれもこの条件を満たす。
Further, the pixel arrangement in the imaging processing apparatus of the present application is not limited to that in FIG. 3, and any of FIGS. As described above, in the imaging processing apparatus of the present application, in each color pixel of the single-plate
(実施形態2)
近年、多くの機器において電子式ビューファインダが利用され始めている。しかしながら、特許文献1に記載の技術によってそのような電子式ビューファインダを実現しようとすると、撮影時にビューファインダに色にじみや遅延のない映像を表示することが困難であった。その理由は、ある1つの色について全画素で長時間露光をしているためである。
(Embodiment 2)
In recent years, electronic viewfinders have begun to be used in many devices. However, when such an electronic viewfinder is realized by the technique described in
これに対して、本発明の実施形態2では、第1色から第3色までのすべてで、一部またはすべての画素を短時間露光で撮影している。そのため、本実施形態では、短時間露光で撮影された画素の情報をビューファインダに表示することにより、遅延や色にじみのない映像を撮影者に提示する。
On the other hand, in
図14は、本実施形態における撮像処理装置400の構成を示すブロック図である。図14において、図1と同一の動作をするものについては、図1と同一の符号を付し、説明を省略する。
FIG. 14 is a block diagram illustrating a configuration of the
撮像処理装置400は、光学系101と、単板カラー撮像素子102と、読み出し制御部103と、制御部104と、画像処理部105と、表示制御部801と、表示部802とを備えている。
The
単板カラー撮像素子102によって短時間露光撮影された画素信号は、表示制御部801に入力される。
A pixel signal captured by the single-plate
表示制御部801は、入力された短時間露光画像の画素信号に表示のための処理を施す。たとえば表示制御部801は、簡単な補間処理によって、RGB各色のサンプリング位置を揃え、また、アスペクト比を調整する。本願の撮像処理装置では、RGGB4画素のうち、RGB3画素を短時間露光で撮影する。そのため、表示制御部801は、これらの短時間露光画素を補間処理することで、表示のための処理を行なう。
The
一例として、図15は、短時間露光画像を構成するR,G,およびBの各色画像に補間処理を行い、その後、各色画像を縮小して表示部802に表示するための各色画像を生成する処理の概念図である。他の例として、図16は、短時間露光画像を構成するR,G,およびBの各色画像に補間処理およびアスペクト比の変更処理を行って表示部802に表示するための各色画像を生成する処理の概念図である。表示制御部801は、図15および図16に示すような処理を行った後、各色画像に、サンプリング位置を揃えるための位置合わせ処理を行い、表示部802に表示する。
As an example, FIG. 15 performs interpolation processing on each of the R, G, and B color images constituting the short-time exposure image, and then generates each color image to be displayed on the
撮影者は、表示された画像を見ることで、構図やフォーカス調整を行うことができる。 The photographer can perform composition and focus adjustment by looking at the displayed image.
以上述べたように、本発明にかかる撮像処理装置は、光学系、撮像素子、読み出し制御部、画像処理部を有し、小型撮像素子による高解像度かつ高感度撮影向けの技術として有用である。 As described above, the imaging processing apparatus according to the present invention has an optical system, an imaging device, a readout control unit, and an image processing unit, and is useful as a technique for high-resolution and high-sensitivity imaging using a small imaging device.
なお、上述の実施形態では、読み出し制御部103、制御部104、画像処理部105、表示制御部801は異なる構成要素として図示し、説明した。これらは各々が別個のプロセッサによって実現され得る。しかしながらその構成は一例である。2以上の構成要素の機能を、1つのプロセッサによって実現してもよい。もちろん、全ての構成要素の機能を、1つのプロセッサによって実現してもよい。その場合には、たとえば上述した各構成要素の動作に対応する動作を行うためのプログラムモジュールを用意しておき、当該プロセッサがある時点においていずれか1つのまたは複数のプログラムモジュールを実行すればよい。これにより、上述した各構成要素の動作が1つプロセッサによって実現されることになる。
In the above-described embodiment, the
上述したある例示的な実施形態によれば、撮像処理装置の単板カラー撮像素子は、所定のフレームレートに対応する露光時間で露光して得られた画素信号が読み出される複数の第1画素(短時間露光画素)および当該所定のフレームレートよりも長い露光時間で露光して得られた画素信号が読み出される複数の第2画素(長時間露光画素)を有している。この単板カラー撮像素子は、第1色成分、第2色成分および第3色成分の光を第1画素および第2画素の各々で検出する画素が複数設けられている。この単板カラー撮像素子を用いることで、1ラインごとに各色成分について、あるフレームレートで動画像の画素信号と、当該フレームレートよりも長い露光時間で撮影された動画像の画素信号とが得られる。これにより、第1色成分、第2色成分および第3色成分の動画像を常に長時間露光によって撮影した場合と比較して、被写体の動きに起因する色にじみを抑制した画像信号を得ることができる。 According to the exemplary embodiment described above, the single-chip color imaging device of the imaging processing device has a plurality of first pixels (from which pixel signals obtained by exposure with an exposure time corresponding to a predetermined frame rate are read out) Short exposure pixels) and a plurality of second pixels (long exposure pixels) from which pixel signals obtained by exposure with an exposure time longer than the predetermined frame rate are read out. This single-plate color imaging device is provided with a plurality of pixels for detecting light of the first color component, the second color component, and the third color component by each of the first pixel and the second pixel. By using this single-plate color imaging device, a pixel signal of a moving image at a certain frame rate and a pixel signal of a moving image captured at an exposure time longer than the frame rate are obtained for each color component for each line. It is done. Thereby, it is possible to obtain an image signal in which the color blur caused by the movement of the subject is suppressed as compared with the case where the moving images of the first color component, the second color component, and the third color component are always taken by long exposure. Can do.
本願の他の例示的な実施形態によれば、撮像処理装置は、すべての画素を、2種類の画素、すなわち長時間露光の画素と、短時間露光の画素と、2通り、各種類の画素から信号を読み出す。この際、各色成分において長時間露光の画素と、短時間露光の画素は読み出し方向に対して順番に撮影するように画素を配置する。このような画素配置における読み出し信号に対して、画像復元処理を行うことにより、全て長時間露光のみによって画像信号を得た場合と比較して被写体の動きに起因する色にじみを抑制した画像信号を得ることができる。 According to another exemplary embodiment of the present application, the imaging processing device includes two types of pixels, two types of pixels, that is, a long-time exposure pixel and a short-time exposure pixel. Read signal from. At this time, in each color component, the pixels are arranged so that the long-time exposure pixels and the short-time exposure pixels are sequentially photographed in the readout direction. By performing an image restoration process on the readout signal in such a pixel arrangement, an image signal that suppresses color bleeding caused by the movement of the subject compared to a case where the image signal is obtained by only long-time exposure. Can be obtained.
なお、本明細書における画像処理部105は装置として実現されなくてもよい。例えば、コンピュータである汎用のプロセッサがコンピュータ読み取り可能な記録媒体に記録されたコンピュータプログラムを実行することにより、上述した画像処理部105の動作を行ってもよい。そのようなコンピュータプログラムは、たとえば図7のフローチャートによって実現される処理をコンピュータに実行させるための命令群を含んでいる。コンピュータプログラムは、CD−ROM等の記録媒体に記録されて製品として市場に流通され、または、インターネット等の電気通信回線を通じて伝送される。
Note that the
上述の実施形態においては、R,GおよびBの3色でカラー動画像を撮影し、Gのみ短時間露光と長時間露光の両方で撮像するとして説明した。しかしながら、これらの色成分の分け方は一例である。例えば、シアン、マゼンタ、イエローの3色のカラーフィルタを用いてもよい。また、3色ではなく、2色または4色以上のフィルタを用いてもよい。 In the above-described embodiment, it has been described that a color moving image is captured with three colors of R, G, and B, and only G is captured with both short-time exposure and long-time exposure. However, how to separate these color components is an example. For example, three color filters of cyan, magenta, and yellow may be used. Further, instead of three colors, filters of two colors or four colors or more may be used.
本発明の撮像装置および処理装置は、低光量時の高解像度撮影や小型画素による撮像に有用である。また、プログラムとしても適用が可能である。 The imaging apparatus and processing apparatus of the present invention are useful for high-resolution imaging at low light amounts and imaging with small pixels. It can also be applied as a program.
100 撮像処理装置
101 光学系
102 単板カラー撮像素子
103 読み出し制御部
104 制御部
105 画像処理部
DESCRIPTION OF
Claims (8)
前記単板カラー撮像素子の奇数ラインでは第1色画素および第2色画素が交互に配列され、偶数ラインでは前記第1色画素および第3色画素が交互に配列され、
同一ラインに設けられた複数の前記第1色画素からは、配列された順序にしたがって交互に第1露光時間、および前記第1露光時間よりも長い第2露光時間で画素値を読み出すことが可能であり、
同一ラインに設けられた複数の前記第2色画素からは、配列された順序にしたがって交互に前記第1露光時間および前記第2露光時間で画素値を読み出すことが可能であり、
同一ラインに設けられた複数の前記第3色画素からは、配列された順序にしたがって交互に前記第1露光時間および前記第2露光時間で画素値を読み出すことが可能であり、
前記画像処理部は、前記第1露光時間で読み出された画素値と、前記第2露光時間で読み出された画素値とに基づいて、前記所定のフレームレートの新たな動画像を生成する、撮像処理装置。 An image processing apparatus including a single-plate color image sensor and an image processing unit,
In the odd-numbered line of the single-plate color image sensor, the first color pixel and the second color pixel are alternately arranged, and in the even line, the first color pixel and the third color pixel are alternately arranged,
It is possible to read pixel values from a plurality of the first color pixels provided on the same line alternately with a first exposure time and a second exposure time longer than the first exposure time according to the arrangement order. And
From a plurality of the second color pixels provided on the same line, it is possible to read pixel values alternately in the first exposure time and the second exposure time according to the arrangement order,
From the plurality of third color pixels provided on the same line, it is possible to read pixel values alternately in the first exposure time and the second exposure time according to the arrangement order,
The image processing unit generates a new moving image having the predetermined frame rate based on the pixel value read out during the first exposure time and the pixel value read out during the second exposure time. , Imaging processing device.
前記第1露光時間で読み出された画素値と、前記第2露光時間で読み出された画素値とに基づいて得られた、被写体の前記第1色成分の動画像、前記第2色成分の動画像、および前記第3色成分の動画像を受け取り、
(a)前記第1露光時間で読み出された前記第1色成分、前記第2色成分および前記第3色成分の各動画像と、前記新たな動画像を前記第1露光時間でサンプリングして得られた動画像との第1の差、および
(b)前記第2露光時間で読み出された前記第1色成分、前記第2色成分および前記第3色成分の各動画像と、前記新たな動画像を前記第2露光時間でサンプリングして得られた動画像との第2の差
を含む評価式を設定し、前記評価式を予め定められた所定の条件で満足する動画像を、前記新たな動画像として求める、請求項1に記載の撮像処理装置。 The image processing unit
The moving image of the first color component of the subject, the second color component obtained based on the pixel value read out during the first exposure time and the pixel value read out during the second exposure time And a moving image of the third color component,
(A) The moving image of the first color component, the second color component and the third color component read out at the first exposure time and the new moving image are sampled at the first exposure time. A first difference from the moving image obtained in the above, and (b) each moving image of the first color component, the second color component and the third color component read out in the second exposure time, and An evaluation formula including a second difference from a moving image obtained by sampling the new moving image at the second exposure time is set, and the moving image satisfies the evaluation formula under a predetermined condition. The imaging processing device according to claim 1, wherein the image processing device is obtained as the new moving image.
前記第1露光時間で読み出された前記第1色成分、前記第2色成分、および前記第3色成分の各動画像を利用して、前記被写体の動きを検出する動き検出部と、
前記動きの検出結果を利用して前記新たな動画像の動きの分布に関する拘束条件項を設定し、前記動きの分布に関する拘束条件項をさらに含む前記評価式を最小化する動画像を、前記新たな動画像として求める画像生成部と
を備えた、請求項3に記載の撮像処理装置。 The image processing unit
A motion detection unit that detects the motion of the subject using the moving images of the first color component, the second color component, and the third color component read out in the first exposure time;
A constraint condition term relating to the motion distribution of the new moving image is set using the detection result of the motion, and a moving image that minimizes the evaluation expression further including the constraint condition term related to the motion distribution is set as the new motion image. An image processing apparatus according to claim 3, further comprising: an image generation unit that is obtained as a simple moving image.
前記表示制御部によって画像処理された前記第1動画像、前記第2動画像および前記第3動画像を表示する表示部と
をさらに備えた、請求項7に記載の撮像処理装置。 For display on the moving image of the first color component, the moving image of the second color component, and the moving image of the third color component obtained based on the pixel signal read out in the first exposure time. A display control unit for performing predetermined image processing;
The imaging processing apparatus according to claim 7, further comprising: a display unit that displays the first moving image, the second moving image, and the third moving image that have been subjected to image processing by the display control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012095423A JP2013223209A (en) | 2012-04-19 | 2012-04-19 | Image pickup processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012095423A JP2013223209A (en) | 2012-04-19 | 2012-04-19 | Image pickup processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013223209A true JP2013223209A (en) | 2013-10-28 |
Family
ID=49593864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012095423A Pending JP2013223209A (en) | 2012-04-19 | 2012-04-19 | Image pickup processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013223209A (en) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015098108A1 (en) * | 2013-12-27 | 2015-07-02 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Information processing program, receiving program and information processing device |
US9083544B2 (en) | 2012-05-24 | 2015-07-14 | Panasonic Intellectual Property Corporation Of America | Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image |
US9085927B2 (en) | 2012-12-27 | 2015-07-21 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9088362B2 (en) | 2012-12-27 | 2015-07-21 | Panasonic Intellectual Property Corporation Of America | Information communication method for obtaining information by demodulating bright line pattern included in an image |
US9087349B2 (en) | 2012-12-27 | 2015-07-21 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9088360B2 (en) | 2012-12-27 | 2015-07-21 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9094120B2 (en) | 2012-12-27 | 2015-07-28 | Panasonic Intellectual Property Corporaton Of America | Information communication method |
US9247180B2 (en) | 2012-12-27 | 2016-01-26 | Panasonic Intellectual Property Corporation Of America | Video display method using visible light communication image including stripe patterns having different pitches |
US9252878B2 (en) | 2012-12-27 | 2016-02-02 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9262954B2 (en) | 2012-12-27 | 2016-02-16 | Panasonic Intellectual Property Corporation Of America | Visible light communication signal display method and apparatus |
US9560284B2 (en) | 2012-12-27 | 2017-01-31 | Panasonic Intellectual Property Corporation Of America | Information communication method for obtaining information specified by striped pattern of bright lines |
US9608727B2 (en) | 2012-12-27 | 2017-03-28 | Panasonic Intellectual Property Corporation Of America | Switched pixel visible light transmitting method, apparatus and program |
US9608725B2 (en) | 2012-12-27 | 2017-03-28 | Panasonic Intellectual Property Corporation Of America | Information processing program, reception program, and information processing apparatus |
US9646568B2 (en) | 2012-12-27 | 2017-05-09 | Panasonic Intellectual Property Corporation Of America | Display method |
US10142020B2 (en) | 2014-11-14 | 2018-11-27 | Panasonic Intellectual Property Corporation Of America | Reproduction method for reproducing contents |
US10171165B2 (en) | 2015-11-06 | 2019-01-01 | Panasonic Intellectual Property Corporation Of America | Visible light signal generating method, signal generating apparatus, and program |
US10263701B2 (en) | 2015-11-12 | 2019-04-16 | Panasonic Intellectual Property Corporation Of America | Display method, non-transitory recording medium, and display device |
US10303945B2 (en) | 2012-12-27 | 2019-05-28 | Panasonic Intellectual Property Corporation Of America | Display method and display apparatus |
US10504584B2 (en) | 2015-12-17 | 2019-12-10 | Panasonic Intellectual Property Corporation Of America | Display method and display device |
US10523876B2 (en) | 2012-12-27 | 2019-12-31 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10530486B2 (en) | 2012-12-27 | 2020-01-07 | Panasonic Intellectual Property Corporation Of America | Transmitting method, transmitting apparatus, and program |
CN111601054A (en) * | 2020-05-15 | 2020-08-28 | 上海集成电路研发中心有限公司 | Time sequence control method for novel drum-type exposure of image sensor |
US10819428B2 (en) | 2016-11-10 | 2020-10-27 | Panasonic Intellectual Property Corporation Of America | Transmitting method, transmitting apparatus, and program |
US10951310B2 (en) | 2012-12-27 | 2021-03-16 | Panasonic Intellectual Property Corporation Of America | Communication method, communication device, and transmitter |
-
2012
- 2012-04-19 JP JP2012095423A patent/JP2013223209A/en active Pending
Cited By (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9143339B2 (en) | 2012-05-24 | 2015-09-22 | Panasonic Intellectual Property Corporation Of America | Information communication device for obtaining information from image data by demodulating a bright line pattern appearing in the image data |
US9083544B2 (en) | 2012-05-24 | 2015-07-14 | Panasonic Intellectual Property Corporation Of America | Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image |
US9083543B2 (en) | 2012-05-24 | 2015-07-14 | Panasonic Intellectual Property Corporation Of America | Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image |
US9456109B2 (en) | 2012-05-24 | 2016-09-27 | Panasonic Intellectual Property Corporation Of America | Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image |
US9300845B2 (en) | 2012-05-24 | 2016-03-29 | Panasonic Intellectual Property Corporation Of America | Information communication device for obtaining information from a subject by demodulating a bright line pattern included in an obtained image |
US9166810B2 (en) | 2012-05-24 | 2015-10-20 | Panasonic Intellectual Property Corporation Of America | Information communication device of obtaining information by demodulating a bright line pattern included in an image |
US9756255B2 (en) | 2012-12-27 | 2017-09-05 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US11165967B2 (en) | 2012-12-27 | 2021-11-02 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9094120B2 (en) | 2012-12-27 | 2015-07-28 | Panasonic Intellectual Property Corporaton Of America | Information communication method |
US9088360B2 (en) | 2012-12-27 | 2015-07-21 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9087349B2 (en) | 2012-12-27 | 2015-07-21 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9998220B2 (en) | 2012-12-27 | 2018-06-12 | Panasonic Intellectual Property Corporation Of America | Transmitting method, transmitting apparatus, and program |
US9203515B2 (en) | 2012-12-27 | 2015-12-01 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9247180B2 (en) | 2012-12-27 | 2016-01-26 | Panasonic Intellectual Property Corporation Of America | Video display method using visible light communication image including stripe patterns having different pitches |
US9252878B2 (en) | 2012-12-27 | 2016-02-02 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9262954B2 (en) | 2012-12-27 | 2016-02-16 | Panasonic Intellectual Property Corporation Of America | Visible light communication signal display method and apparatus |
US9281895B2 (en) | 2012-12-27 | 2016-03-08 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9088362B2 (en) | 2012-12-27 | 2015-07-21 | Panasonic Intellectual Property Corporation Of America | Information communication method for obtaining information by demodulating bright line pattern included in an image |
US9331779B2 (en) | 2012-12-27 | 2016-05-03 | Panasonic Intellectual Property Corporation Of America | Information communication method for obtaining information using ID list and bright line image |
US9341014B2 (en) | 2012-12-27 | 2016-05-17 | Panasonic Intellectual Property Corporation Of America | Information communication method using change in luminance |
US11659284B2 (en) | 2012-12-27 | 2023-05-23 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9407368B2 (en) | 2012-12-27 | 2016-08-02 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9450672B2 (en) | 2012-12-27 | 2016-09-20 | Panasonic Intellectual Property Corporation Of America | Information communication method of transmitting a signal using change in luminance |
US9085927B2 (en) | 2012-12-27 | 2015-07-21 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9462173B2 (en) | 2012-12-27 | 2016-10-04 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9467225B2 (en) | 2012-12-27 | 2016-10-11 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9515731B2 (en) | 2012-12-27 | 2016-12-06 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9560284B2 (en) | 2012-12-27 | 2017-01-31 | Panasonic Intellectual Property Corporation Of America | Information communication method for obtaining information specified by striped pattern of bright lines |
US9564970B2 (en) | 2012-12-27 | 2017-02-07 | Panasonic Intellectual Property Corporation Of America | Information communication method for obtaining information using ID list and bright line image |
US9571191B2 (en) | 2012-12-27 | 2017-02-14 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9591232B2 (en) | 2012-12-27 | 2017-03-07 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US11490025B2 (en) | 2012-12-27 | 2022-11-01 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9608727B2 (en) | 2012-12-27 | 2017-03-28 | Panasonic Intellectual Property Corporation Of America | Switched pixel visible light transmitting method, apparatus and program |
US9608725B2 (en) | 2012-12-27 | 2017-03-28 | Panasonic Intellectual Property Corporation Of America | Information processing program, reception program, and information processing apparatus |
US9613596B2 (en) | 2012-12-27 | 2017-04-04 | Panasonic Intellectual Property Corporation Of America | Video display method using visible light communication image including stripe patterns having different pitches |
US9635278B2 (en) | 2012-12-27 | 2017-04-25 | Panasonic Intellectual Property Corporation Of America | Information communication method for obtaining information specified by striped pattern of bright lines |
US9641766B2 (en) | 2012-12-27 | 2017-05-02 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9646568B2 (en) | 2012-12-27 | 2017-05-09 | Panasonic Intellectual Property Corporation Of America | Display method |
US10051194B2 (en) | 2012-12-27 | 2018-08-14 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9768869B2 (en) | 2012-12-27 | 2017-09-19 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9794489B2 (en) | 2012-12-27 | 2017-10-17 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US9859980B2 (en) | 2012-12-27 | 2018-01-02 | Panasonic Intellectual Property Corporation Of America | Information processing program, reception program, and information processing apparatus |
US9184838B2 (en) | 2012-12-27 | 2015-11-10 | Panasonic Intellectual Property Corporation Of America | Information communication method for obtaining information using ID list and bright line image |
US9088363B2 (en) | 2012-12-27 | 2015-07-21 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10951310B2 (en) | 2012-12-27 | 2021-03-16 | Panasonic Intellectual Property Corporation Of America | Communication method, communication device, and transmitter |
US10148354B2 (en) | 2012-12-27 | 2018-12-04 | Panasonic Intellectual Property Corporation Of America | Luminance change information communication method |
US10165192B2 (en) | 2012-12-27 | 2018-12-25 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10887528B2 (en) | 2012-12-27 | 2021-01-05 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10205887B2 (en) | 2012-12-27 | 2019-02-12 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10225014B2 (en) | 2012-12-27 | 2019-03-05 | Panasonic Intellectual Property Corporation Of America | Information communication method for obtaining information using ID list and bright line image |
US10742891B2 (en) | 2012-12-27 | 2020-08-11 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10303945B2 (en) | 2012-12-27 | 2019-05-28 | Panasonic Intellectual Property Corporation Of America | Display method and display apparatus |
US10354599B2 (en) | 2012-12-27 | 2019-07-16 | Panasonic Intellectual Property Corporation Of America | Display method |
US10361780B2 (en) | 2012-12-27 | 2019-07-23 | Panasonic Intellectual Property Corporation Of America | Information processing program, reception program, and information processing apparatus |
US10368006B2 (en) | 2012-12-27 | 2019-07-30 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10368005B2 (en) | 2012-12-27 | 2019-07-30 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10666871B2 (en) | 2012-12-27 | 2020-05-26 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10447390B2 (en) | 2012-12-27 | 2019-10-15 | Panasonic Intellectual Property Corporation Of America | Luminance change information communication method |
US10455161B2 (en) | 2012-12-27 | 2019-10-22 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10638051B2 (en) | 2012-12-27 | 2020-04-28 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10516832B2 (en) | 2012-12-27 | 2019-12-24 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10523876B2 (en) | 2012-12-27 | 2019-12-31 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10521668B2 (en) | 2012-12-27 | 2019-12-31 | Panasonic Intellectual Property Corporation Of America | Display method and display apparatus |
US10530486B2 (en) | 2012-12-27 | 2020-01-07 | Panasonic Intellectual Property Corporation Of America | Transmitting method, transmitting apparatus, and program |
US10531010B2 (en) | 2012-12-27 | 2020-01-07 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10531009B2 (en) | 2012-12-27 | 2020-01-07 | Panasonic Intellectual Property Corporation Of America | Information communication method |
US10616496B2 (en) | 2012-12-27 | 2020-04-07 | Panasonic Intellectual Property Corporation Of America | Information communication method |
WO2015098108A1 (en) * | 2013-12-27 | 2015-07-02 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Information processing program, receiving program and information processing device |
JPWO2015098108A1 (en) * | 2013-12-27 | 2017-03-23 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information processing program, reception program, and information processing apparatus |
CN105637783A (en) * | 2013-12-27 | 2016-06-01 | 松下电器(美国)知识产权公司 | Information processing program, receiving program and information processing device |
US10389446B2 (en) | 2014-11-14 | 2019-08-20 | Panasonic Intellectual Property Corporation Of America | Reproduction method for reproducing contents |
US10142020B2 (en) | 2014-11-14 | 2018-11-27 | Panasonic Intellectual Property Corporation Of America | Reproduction method for reproducing contents |
US10171165B2 (en) | 2015-11-06 | 2019-01-01 | Panasonic Intellectual Property Corporation Of America | Visible light signal generating method, signal generating apparatus, and program |
US10263701B2 (en) | 2015-11-12 | 2019-04-16 | Panasonic Intellectual Property Corporation Of America | Display method, non-transitory recording medium, and display device |
US10951309B2 (en) | 2015-11-12 | 2021-03-16 | Panasonic Intellectual Property Corporation Of America | Display method, non-transitory recording medium, and display device |
US10504584B2 (en) | 2015-12-17 | 2019-12-10 | Panasonic Intellectual Property Corporation Of America | Display method and display device |
US10819428B2 (en) | 2016-11-10 | 2020-10-27 | Panasonic Intellectual Property Corporation Of America | Transmitting method, transmitting apparatus, and program |
CN111601054A (en) * | 2020-05-15 | 2020-08-28 | 上海集成电路研发中心有限公司 | Time sequence control method for novel drum-type exposure of image sensor |
CN111601054B (en) * | 2020-05-15 | 2022-07-19 | 上海集成电路研发中心有限公司 | Time sequence control method for novel drum-type exposure of image sensor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013223209A (en) | Image pickup processing device | |
JP4598162B2 (en) | Imaging processing device | |
JP5017419B2 (en) | Image generating apparatus, image generating method, and program | |
JP4215267B2 (en) | Image generating apparatus and image generating method | |
JP3934151B2 (en) | Image generating apparatus and image generating method | |
JP5002738B2 (en) | Image generation device | |
JP5128726B1 (en) | Solid-state imaging device and imaging apparatus including the device | |
JP5096645B1 (en) | Image generating apparatus, image generating system, method, and program | |
JP6711612B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
EP2088788B1 (en) | Image picking-up processing device, image picking-up device, image processing method and computer program | |
JP2020043435A (en) | Image processing apparatus, image processing method, and image processing program | |
JP2004221839A (en) | Apparatus and method for image processing, recording medium, and program | |
JP2013031154A (en) | Image processing device, image processing method, image capturing device, and program | |
WO2018230119A1 (en) | Imaging device, imaging element and image processing method | |
US9083883B2 (en) | Camera module, electronic apparatus, and photographing method for image stabilization and increasing resolution | |
JP2015087543A (en) | Imaging apparatus, imaging system, method of controlling the imaging apparatus, program, and storage medium | |
JP2012216957A (en) | Imaging processing device | |
JP2013223208A (en) | Image pickup processing device | |
JP2007329596A (en) | Device and method for generating image | |
JP4496883B2 (en) | Image processing method, image processing apparatus, program, and recording medium | |
JP2011015228A (en) | Image processing device, image processing device, image processing method, and control program of image processor | |
US7656441B2 (en) | Hue correction for electronic imagers | |
JP6415330B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP2013223207A (en) | Image pickup processing device | |
JP4708180B2 (en) | Image processing device |