JP2020123857A - Imaging apparatus, image correction method, and program - Google Patents

Imaging apparatus, image correction method, and program Download PDF

Info

Publication number
JP2020123857A
JP2020123857A JP2019014867A JP2019014867A JP2020123857A JP 2020123857 A JP2020123857 A JP 2020123857A JP 2019014867 A JP2019014867 A JP 2019014867A JP 2019014867 A JP2019014867 A JP 2019014867A JP 2020123857 A JP2020123857 A JP 2020123857A
Authority
JP
Japan
Prior art keywords
image
light
pixel
output
read
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019014867A
Other languages
Japanese (ja)
Inventor
健司 岩本
Kenji Iwamoto
健司 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019014867A priority Critical patent/JP2020123857A/en
Publication of JP2020123857A publication Critical patent/JP2020123857A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging apparatus that can prevent a reduction in image quality even when a direction of reading out the output of pixels from an image pick-up device is changed.SOLUTION: An imaging apparatus has an image pick-up device 130 from which the output of pixels is read out from top to bottom or bottom to top, and comprises: the image pick-up device that has a first light-shielding area 11 having pixels the output of which is not read out according to whether the output of pixels is read out from top to bottom or read out from bottom to top, a second light-shielding area 12 having pixels the output of which is read out when the output of pixels is read out from top to bottom or read out from bottom to top, and an effective area 13 that outputs image data for incident light; storage means for defective pixel information in which the coordinates of a defective pixel are registered; and image correction means that excludes the defective pixel registered in the defective pixel information from the second light-shielding area, determines a black level from the output of pixels from the second light-shielding area, and corrects an image in the effective area based on the black level.SELECTED DRAWING: Figure 10

Description

本発明は、撮像装置、画像補正方法、及び、プログラムに関する。 The present invention relates to an imaging device, an image correction method, and a program.

撮像装置において暗電流による黒レベルの変化の画像への影響を低減するために、遮光領域(オプティカルブラック)を設けておき黒レベルの基準とする方法がある。 In order to reduce the influence on the image of the change in black level due to dark current in the image pickup apparatus, there is a method in which a light-shielding area (optical black) is provided and used as a reference for the black level.

また、撮像素子の高解像度化に伴って撮像素子が欠陥画素を有する場合があり、従来から、出荷前に欠陥画素の座標をそれぞれ登録しておき、ユーザが撮像操作を行った際に登録されている座標の画素の出力を補正する方法が採られている。欠陥画素は遮光領域にも生じるので、遮光領域の出力から黒レベルを決定する際にも予め登録されている欠陥画素の出力は黒レベルの決定には用いられない。 In addition, the image sensor may have a defective pixel as the resolution of the image sensor increases, and conventionally, the coordinates of the defective pixel are registered before shipment, and are registered when the user performs an image capturing operation. A method of correcting the output of the pixel at the given coordinates is adopted. Since defective pixels also occur in the light-shielded area, the output of the defective pixel registered in advance is not used for determining the black level when determining the black level from the output of the light-shielded area.

ところで、広角な画角を撮像できる撮像装置では複数の撮像素子が搭載される場合があるが、複数の撮像素子が撮像した画像データのつなぎ目の品質を担保するために、撮像素子によって画素の出力の読み出し方向を変える技術が考案されている(例えば特許文献1参照。)。特許文献1には、つなぎ目の品質を担保するために撮像素子の露光タイミングのずれを補正する撮像装置が開示されている。 By the way, an image pickup apparatus capable of picking up a wide angle of view may be equipped with a plurality of image pickup elements. However, in order to ensure the quality of joints of image data picked up by the plurality of image pickup elements, the image pickup elements output pixels. There has been devised a technique for changing the reading direction of (see Patent Document 1, for example). Patent Document 1 discloses an imaging device that corrects the exposure timing deviation of the imaging element in order to ensure the quality of the joint.

しかしながら、撮像素子によって画素の出力の読み出し方向が変わると、事前に登録されている欠陥画素の座標と遮光領域から読み出される欠陥画素の座標とが一致しない場合が生じ、この結果、遮光領域のうち黒レベルの補正に使用できる画素数が減少するという問題があった。黒レベルの補正に使用できる画素数が減少すると、黒レベルの精度が低下し画質が低下するおそれがある。 However, when the pixel output read direction changes depending on the image sensor, the coordinates of the defective pixel registered in advance and the coordinates of the defective pixel read from the light-shielding area may not match. There is a problem that the number of pixels that can be used for black level correction is reduced. If the number of pixels that can be used to correct the black level decreases, the accuracy of the black level may decrease and the image quality may deteriorate.

本発明は、上記課題に鑑み、撮像素子の画素の出力の読み出し方向が変わっても画質の低下を抑制できる撮像装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an imaging device capable of suppressing deterioration of image quality even when the output reading direction of pixels of an imaging element is changed.

上記課題に鑑み、本発明は、画素の出力が上から下、又は、下から上に読み出される撮像素子を有する撮像装置であって、画素の出力を上から下に読み出すか、又は、下から上に読み出すかによって、出力が読み出されない画素を有する第一遮光領域、画素の出力を上から下に読み出しても、又は、下から上に読み出しても、出力が読み出される画素を有する第二遮光領域、及び、入射光に対する画像データを出力する有効領域、を有する撮像素子と、欠陥画素の座標が登録された欠陥画素情報の記憶手段と、前記欠陥画素情報に登録されている前記欠陥画素を前記第二遮光領域から除外して、前記第二遮光領域の画素の出力から黒レベルを決定し、前記黒レベルに基づいて前記有効領域の画像を補正する画像補正手段と、を有することを特徴とする。 In view of the above problems, the present invention is an imaging device having an imaging device in which pixel outputs are read from top to bottom or from bottom to top, and pixel outputs are read from top to bottom, or from bottom. A first light-shielding region having a pixel whose output is not read, depending on whether to read upward, a second light-shielding region having a pixel whose output is read even if the pixel output is read from top to bottom or from bottom to top An image sensor having a light-shielding area and an effective area for outputting image data for incident light, a storage unit for storing defective pixel information in which the coordinates of the defective pixel are registered, and the defective pixel registered in the defective pixel information. Is excluded from the second light-shielding region, the black level is determined from the output of the pixel of the second light-shielding region, and the image correction unit that corrects the image of the effective region based on the black level is included. Characterize.

撮像素子の画素の出力の読み出し方向が変わっても画質の低下を抑制できる撮像装置を提供することができる。 It is possible to provide an image pickup apparatus capable of suppressing deterioration in image quality even if the reading direction of the pixel output of the image pickup element changes.

撮像素子と撮像素子に設けられた第一遮光領域を拡大して示す図の一例である。It is an example of the figure which expands and shows an image sensor and the 1st shade area provided in an image sensor. 撮像装置の断面図の一例である。It is an example of a sectional view of an imaging device. 撮像装置のハードウェア構成図の一例である。It is an example of the hardware block diagram of an imaging device. 撮像装置が備える機能をブロック状に示す機能ブロック図の一例である。FIG. 3 is an example of a functional block diagram showing, in block form, the functions of the imaging device. 撮像装置が実行する撮像手順を示すフローチャート図の一例である。It is an example of a flow chart showing the imaging procedure performed by the imaging device. 撮像装置における射影関係を説明する図の一例である。It is an example of the figure explaining the projection relation in an imaging device. 全天球画像の画像データのデータ構造を説明する図の一例である。It is an example of the figure explaining the data structure of the image data of a spherical image. 撮像装置が用いる変換パラメータを説明する図の一例である。It is an example of a diagram illustrating a conversion parameter used by the imaging device. 撮像装置が2つの部分画像から生成する全天球画像を示す図の一例である。It is an example of the figure which shows the omnidirectional image which an imaging device produces|generates from two partial images. 撮像素子に設けられた遮光領域と有効領域の配置例を示す図である。It is a figure which shows the example of arrangement|positioning of the light-shielding area and effective area|region provided in the image sensor. 非反転読み出しと反転読み出しにおける第二遮光領域の欠陥画素の座標の一例を示す図である。It is a figure which shows an example of the coordinate of the defective pixel of the 2nd shade area in non-inversion reading and inversion reading. 画像補正部が遮光領域の出力を使って暗電流による有効領域の画質低下を抑制する手順を示すフローチャート図の一例である。FIG. 6 is an example of a flowchart showing a procedure in which the image correction unit uses the output of the light-shielded region to suppress the image quality deterioration of the effective region due to dark current. 有効領域の飽和による暗電流補正の影響の低減について説明する図の一例である。FIG. 6 is an example of a diagram illustrating reduction of the influence of dark current correction due to saturation of the effective area. 飽和領域が生じても、画像補正部が遮光領域の出力を使って暗電流による有効領域の画質低下を抑制する手順を示すフローチャート図の一例である。FIG. 6 is an example of a flowchart showing a procedure in which the image correction unit uses the output of the light-shielded region to suppress the deterioration of the image quality of the effective region due to the dark current even when the saturated region occurs.

以下、本発明を実施するための形態の一例として、撮像装置と撮像装置が行う画像補正方法について図面を参照しながら説明する。 Hereinafter, as an example of a mode for carrying out the present invention, an image pickup apparatus and an image correction method performed by the image pickup apparatus will be described with reference to the drawings.

<従来技術に関する補足>
まず、図1を用いて従来技術について補足する。図1は、撮像素子130と撮像素子130に設けられた第一遮光領域11を拡大して示す図である。
<Supplementary information on conventional technology>
First, the conventional technique will be supplemented with reference to FIG. FIG. 1 is an enlarged view showing the image sensor 130 and the first light-shielding region 11 provided in the image sensor 130.

画素欠陥は長秒撮像時に多く発生する傾向があり、画質の低下を招くので出荷前の調整工程で欠陥画素の座標を登録しておくことが一般的に行われている。撮像時には登録されている座標の画素(欠陥画素)の出力を周囲の画素の出力で補正する。また、欠陥画素は第一遮光領域11にも存在し、第一遮光領域11の出力(検波)の値に誤差を生じさせるので、第一遮光領域11の欠陥画素の座標も調整工程で登録されている。撮像時に黒レベルを決定する際には、登録されている座標の画素(欠陥画素)の出力を黒レベルの決定に用いない(以下、単に「除去する」という)。 Since pixel defects tend to occur frequently during long-time imaging, which leads to deterioration in image quality, it is common to register the coordinates of defective pixels in the adjustment process before shipping. At the time of image capturing, the output of the pixel (defective pixel) at the registered coordinates is corrected by the output of the surrounding pixels. In addition, since the defective pixel also exists in the first light-shielding region 11 and causes an error in the output (detection) value of the first light-shielding region 11, the coordinates of the defective pixel in the first light-shielding region 11 are also registered in the adjustment process. ing. When determining the black level at the time of image capturing, the output of the pixel (defective pixel) at the registered coordinates is not used for determining the black level (hereinafter, simply referred to as “removal”).

ところで、図1のような撮像素子130を複数有する撮像装置では、複数の撮像素子130の各々により撮像された画像を繋ぎ合わせて1つの画像を生成する必要があり、つなぎ目の画質を高めるため、複数の撮像素子130で読み出し方向を異ならせることでつなぎ目部分の露光タイミングを合わせることが望ましいとされている。こうすることで異なる撮像素子130のつなぎ目部分の撮像時刻のずれを低減できつなぎ目の画質を高めることができる。 By the way, in an image pickup apparatus having a plurality of image pickup elements 130 as shown in FIG. 1, it is necessary to join images picked up by each of the plurality of image pickup elements 130 to generate one image. It is said that it is desirable to match the exposure timing of the joint portion by making the reading directions different among the plurality of image pickup devices 130. By doing so, it is possible to reduce the deviation of the imaging time of the joint portion of different image pickup devices 130 and improve the image quality of the joint portion.

例えば読み出し方向を揃える方法としては物理的に異なる複数の撮像素子基板(撮像素子130が実装された基板)を用意することが考えられるが、この場合、異なる種類の撮像素子基板が必要になりコストが増大する。そこで、コストを抑えるために1種類の撮像素子基板を用い、撮像素子130からの読み出し方向(ライン単位の画素を上から読み出すか、下から読み出すか)を逆方向に動作させて、読み出し方向を調整するという手法が採用される場合がある。 For example, as a method of aligning the reading directions, it is conceivable to prepare a plurality of physically different image pickup device substrates (substrates on which the image pickup device 130 is mounted), but in this case, different types of image pickup device substrates are required and the cost is increased. Will increase. Therefore, in order to reduce the cost, one type of image pickup device substrate is used, and the read direction from the image pickup device 130 (whether the pixels in line units are read from above or below) is operated in the opposite direction to change the read direction. A method of adjusting may be adopted.

図1の撮像素子130は上から下(非反転読み出し方向)、又は、下から上(反転読み出し方向)に読み出されることになるが、読み出し方向が決まる工程と、欠陥画素の座標の登録工程の順番が常に決まっているとは限らなかった。つまり、読み出し方向が定まった状態で欠陥画素の座標の事前の登録が行われるとは限らない。このため、以下のような不都合が生じる。 The image sensor 130 of FIG. 1 is read from the top to the bottom (non-reverse reading direction) or from the bottom to the top (reverse reading direction). The reading direction is determined and the coordinate of the defective pixel is registered. The order was not always fixed. That is, the coordinates of the defective pixel are not necessarily registered in advance in the state where the reading direction is fixed. Therefore, the following inconvenience occurs.

図1(a)は第一遮光領域11の物理配置と、読み出し方向による読み出し領域の違いを示している。実線で囲まれた領域は非反転読み出し方向で読みだされる非反転読み出し領域35であり、点線で囲まれた領域は反転読み出し方向で読みだされる反転読み出し領域34である。図示するように、非反転読み出し領域35と反転読み出し領域34は完全には一致しない。このため、非反転読み出し領域35の上帯部33は反転読み出し方向の場合は読み出されず、反転読み出し領域34の下帯部32は非反転読み出し方向の場合は読み出されない。 FIG. 1A shows the physical arrangement of the first light shielding area 11 and the difference between the reading areas depending on the reading direction. The area surrounded by the solid line is the non-inverted read area 35 read in the non-inverted read direction, and the area surrounded by the dotted line is the inverted read area 34 read in the inverted read direction. As shown, the non-inverted read region 35 and the inverted read region 34 do not completely match. Therefore, the upper band 33 of the non-inverted read region 35 is not read in the reverse read direction, and the lower band 32 of the reverse read region 34 is not read in the non-inverted read direction.

これは、第一遮光領域11の画素を全て読み取る必要はないこと、第一遮光領域11の高さは必ずしも一定でないこと、又は、画像データとしてユーザが眼にすることはないため上下反転することもなく一部分だけ読み取ればよいこと、等を理由としている。なお、後述するように、被写体の画像が投影される有効領域13(非遮光領域)が反転読み出しされた場合は、画像データが上下逆になるため、上下反転という処理が行われる。 This is because it is not necessary to read all the pixels of the first light-shielding area 11, the height of the first light-shielding area 11 is not always constant, or the image data is not viewed by the user, and thus the image is inverted. The reason is that it is only necessary to read a part. As will be described later, when the effective area 13 (non-light-shielded area) on which the image of the subject is projected is read out in reverse, the image data is turned upside down, so a process called upside down is performed.

非反転読み出し領域35と反転読み出し領域34の重複領域は、非反転読み出しでも反転読み出しでも登録されている欠陥画素の座標と一致する欠陥画素があるため、一致領域31という。 The overlapping area of the non-inverted read area 35 and the inverted read area 34 is referred to as a match area 31 because there are defective pixels that match the coordinates of the defective pixels registered in both the non-inverted read and the inverted read.

図1(b)は、反転読み出しされた反転読み出し領域34と欠陥画素41a〜41d、42a、42bを示す。反転読み出しであるため図1(a)の下帯部32が上側にあり、下側に一致領域31がある。下帯部32と一致領域31にそれぞれ欠陥画素が存在する。 FIG. 1B shows an inverted read area 34 that has been inverted read and defective pixels 41a to 41d, 42a, and 42b. Since reverse reading is performed, the lower band portion 32 of FIG. 1A is on the upper side and the matching region 31 is on the lower side. Defective pixels exist in the lower band portion 32 and the matching area 31, respectively.

図1(c)は非反転読み出しされた非反転読み出し領域35と欠陥画素を示す。非反転読み出しであるため図1(a)の上帯部33が上側にあり、下側に一致領域31がある。上帯部33と一致領域31にそれぞれ欠陥画素が存在する。 FIG. 1C shows the non-inverted read area 35 and the defective pixel which are non-inverted read. Since non-inverted reading is performed, the upper band portion 33 of FIG. 1A is on the upper side and the matching region 31 is on the lower side. Defective pixels exist in the upper band portion 33 and the matching area 31, respectively.

図1(b)と図1(c)を比較すると、一致領域31に存在する欠陥画素41a〜41dは読み出し方向が反対に変わっても一致領域31の上下に線対称な位置に存在する(一致領域31を水平に折りたたむと別の読み出し方向の一致領域31の欠陥画素がある)。つまり、一致領域31の欠陥画素41a〜41dは、座標が事前に登録されていれば、つなぎ目の画質維持のために決定された読み出し方向が非反転読み出し方向でも反転読み出し方向でも、座標が登録されているため撮像時の黒レベルの決定から除外できる。 Comparing FIG. 1B and FIG. 1C, the defective pixels 41a to 41d existing in the matching area 31 are present in line symmetrical positions above and below the matching area 31 even if the reading direction is changed. When the region 31 is folded horizontally, there is a defective pixel in the matching region 31 in another reading direction). That is, if the coordinates of the defective pixels 41a to 41d in the matching area 31 are registered in advance, the coordinates are registered regardless of whether the read direction determined for maintaining the image quality of the joint is the non-reversed read direction or the reversed read direction. Therefore, it can be excluded from the determination of the black level at the time of imaging.

しかし、下帯部32の欠陥画素は、つなぎ目の画質維持のために決定された読み出し方向が非反転読み出し方向の場合は、撮像時の画質補正に使用できない。上帯部33の欠陥画素は、つなぎ目の画質維持のために決定された読み出し方向が反転読み出し方向の場合は、撮像時の画質補正に使用できない。 However, the defective pixel of the lower band portion 32 cannot be used for image quality correction at the time of imaging when the read direction determined for maintaining the image quality at the joint is the non-reverse read direction. The defective pixel of the upper band 33 cannot be used for image quality correction at the time of imaging when the read direction determined to maintain the image quality of the joint is the reverse read direction.

このように、欠陥画素の座標の登録工程における読み出し方向と撮像装置として出荷された状態の読み出し方向が一致しない場合、第一遮光領域11から読み出された画像データが、欠陥画素の座標が登録されていない領域を含みうるため、結果的に第一遮光領域11として使える領域が一致領域31のみとなってしまい、遮光領域のサンプル数の減少により黒レベルの精度が低下してしまうという不都合があった。 As described above, when the reading direction in the process of registering the coordinates of the defective pixel does not match the reading direction in the state shipped as the imaging device, the image data read from the first light-shielding area 11 has the coordinates of the defective pixel registered. Since the unshielded region may be included, as a result, the region that can be used as the first light shielding region 11 is only the coincidence region 31, and the accuracy of the black level is deteriorated due to the decrease in the number of samples in the light shielding region. there were.

<用語について>
画素の出力の読み出し方向とは1ライン分の出力が撮像素子の上から下に順番に読み出されるのか、下から上に順番に読み出されるのかをいう。
<About terms>
The reading direction of the pixel output refers to whether the output for one line is sequentially read from the top to the bottom of the image sensor or from the bottom to the top.

入射光に対する画像データを出力する有効領域とは遮光されていない画素の領域をいう。 The effective area for outputting image data with respect to the incident light refers to an area of pixels that is not shielded.

画像の補正とは、真に近い値に変更すること、適切な画素値に変更すること、画質を向上させることをいう。 Image correction means changing to a value close to true, changing to an appropriate pixel value, and improving image quality.

<構成例>
以下、図2及び図3を参照しながら、本実施形態による撮像装置100の全体構成について説明する。図2は、本実施形態による撮像装置100の断面図である。図2に示す撮像装置100は、撮像体19と、上記撮像体19その他コントローラボードやバッテリなどの部品を保持する筐体17と、上記筐体17に設けられた撮像ボタン18とを備える。
<Structure example>
Hereinafter, the overall configuration of the imaging device 100 according to the present embodiment will be described with reference to FIGS. 2 and 3. FIG. 2 is a sectional view of the image pickup apparatus 100 according to the present embodiment. The image pickup apparatus 100 shown in FIG. 2 includes an image pickup body 19, a casing 17 that holds the image pickup body 19 and other components such as a controller board and a battery, and an image pickup button 18 provided on the casing 17.

図2に示す撮像体19は、2つの結像光学系20A,20Bと、撮像素子130A,撮像素子130Bと、を有する(撮像素子130A、130Bのうち任意の撮像素子を撮像素子130とする)。撮像素子130A,130Bは、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどである。結像光学系20A、20Bは、例えば6群7枚の魚眼レンズとして構成される。上記魚眼レンズは、図2に示す実施形態では、180度(=360度/n;光学系の数n=2)より大きい全画角を有し、好適には、190度以上の画角を有する。このような広角な結像光学系20A,20Bと撮像素子130とを1個ずつ組み合わせたものを広角撮像光学系と称する。 The image pickup body 19 shown in FIG. 2 has two image forming optical systems 20A and 20B and an image pickup element 130A and an image pickup element 130B (any image pickup element of the image pickup elements 130A and 130B is set as the image pickup element 130). .. The image pickup devices 130A and 130B are CCD (Charge Coupled Device) sensors, CMOS (Complementary Metal Oxide Semiconductor) sensors, and the like. The image forming optical systems 20A and 20B are configured, for example, as fisheye lenses of 7 elements in 6 groups. In the embodiment shown in FIG. 2, the fish-eye lens has a total angle of view larger than 180 degrees (=360 degrees/n; the number of optical systems n=2), and preferably has a field angle of 190 degrees or more. .. A combination of such wide-angle imaging optical systems 20A and 20B and one image pickup device 130 is called a wide-angle image pickup optical system.

2つの結像光学系20A,20Bの光学素子(レンズ、プリズム、フィルタ及び開口絞り)は、撮像素子130A,130Bに対して位置が定められる。結像光学系20A,20Bの光学素子の光軸が、対応する撮像素子130A,130Bの受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように位置決めが行われる。 The positions of the optical elements (lens, prism, filter, and aperture stop) of the two imaging optical systems 20A and 20B are determined with respect to the image pickup elements 130A and 130B. The optical axes of the optical elements of the imaging optical systems 20A and 20B are positioned orthogonal to the center of the light receiving areas of the corresponding image pickup elements 130A and 130B, and the light receiving areas are the image forming planes of the corresponding fisheye lenses. Positioning is performed so that

図2に示す実施形態では、結像光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するようにして、互いに逆向きに組み合わせられる。撮像素子130A,130Bは、受光した光分布を画像信号に変換し、コントローラボード上の画像処理ブロックに、順次、画像フレームを出力する。詳細は後述するが、撮像素子130A,130Bでそれぞれ撮像された画像は、合成処理されて、これにより、立体角4πステアラジアンの画像(以下「全天球画像」と参照する。)が生成される。全天球画像は、撮像地点から見渡すことのできる全ての方向を撮像したものとなる。説明する実施形態では、全天球画像を生成するものとして説明するが、水平面のみ広角に(例えば、90度〜360度)を撮像した、いわゆるパノラマ画像であってもよく、全天球の全景のうちの一部を撮像した画像であってもよい。また、全天球画像は、静止画として保存することもできるし、動画として保存することもできる。 In the embodiment shown in FIG. 2, the image forming optical systems 20A and 20B have the same specifications and are combined in opposite directions so that their optical axes coincide with each other. The image pickup devices 130A and 130B convert the received light distribution into image signals and sequentially output image frames to the image processing blocks on the controller board. Although details will be described later, the images captured by the image pickup devices 130A and 130B are combined to generate an image with a solid angle of 4π stearadians (hereinafter referred to as a “spherical image”). It The omnidirectional image is an image of all directions that can be overlooked from the imaging point. In the embodiment to be described, it is assumed that a spherical image is generated. However, a so-called panoramic image obtained by capturing a wide-angle image (for example, 90 degrees to 360 degrees) only on a horizontal plane may be used, and a panoramic view of the spherical surface. It may be an image obtained by capturing a part of the above. Further, the spherical image can be saved as a still image or a moving image.

図3は、本実施形態による撮像装置100のハードウェア構成を示す。撮像装置100は、CPU(Central Processing Unit)112と、ROM(Read Only Memory)114と、画像処理ブロック116と、動画圧縮ブロック118と、DRAM(Dynamic Random Access Memory)インタフェース120を介して接続されるDRAM132と、外部ストレージインタフェース122を介して接続される外部ストレージ134と、外部センサインタフェース124を介して接続される姿勢センサ136と、USBインタフェース126を介して接続されるUSBコネクタ138と、シリアルブロック128を介して接続される無線NIC(Network Interface Card)140と、映像出力インタフェース129と、を有する。 FIG. 3 shows a hardware configuration of the image pickup apparatus 100 according to the present embodiment. The image pickup apparatus 100 is connected via a CPU (Central Processing Unit) 112, a ROM (Read Only Memory) 114, an image processing block 116, a moving image compression block 118, and a DRAM (Dynamic Random Access Memory) interface 120. The DRAM 132, the external storage 134 connected via the external storage interface 122, the attitude sensor 136 connected via the external sensor interface 124, the USB connector 138 connected via the USB interface 126, and the serial block 128. A wireless NIC (Network Interface Card) 140 and a video output interface 129 which are connected to each other via the.

CPU112は、撮像装置100の各部の動作及び全体動作を制御する。ROM114は、CPU112が解読可能なコードで記述された制御プログラム(特許請求の範囲のプログラムの一例)や各種パラメータを格納する。画像処理ブロック116は、撮像素子130A,撮像素子130Bと接続され、それぞれで撮像された画像の画像信号が入力される。撮像素子130Aは撮像素子130Aの温度を検出する第1温度センサ150Aを有し、撮像素子130Bは撮像素子130Bの温度を検出する第2温度センサ150Bを有している。 The CPU 112 controls the operation and overall operation of each unit of the imaging device 100. The ROM 114 stores a control program (an example of a program in the claims) written in a code readable by the CPU 112 and various parameters. The image processing block 116 is connected to the image pickup device 130A and the image pickup device 130B, and the image signal of the image picked up by each of them is input. The image sensor 130A has a first temperature sensor 150A that detects the temperature of the image sensor 130A, and the image sensor 130B has a second temperature sensor 150B that detects the temperature of the image sensor 130B.

画像処理ブロック116は、ISP(Image Signal Processor)などを含み構成され、撮像素子130から入力された画像信号に対し、シェーディング補正、ベイヤー補間、ホワイト・バランス補正、ガンマ補正などを行う。画像処理ブロック116は、更に、撮像素子130Aと撮像素子130Bから上記処理を経て取得された複数の画像を合成処理し、これにより、上記した全天球画像を生成する処理を行う。 The image processing block 116 is configured to include an ISP (Image Signal Processor) and the like, and performs shading correction, Bayer interpolation, white balance correction, gamma correction, and the like on the image signal input from the image sensor 130. The image processing block 116 further performs a process of synthesizing a plurality of images acquired from the image pickup device 130A and the image pickup device 130B through the above process, thereby performing the process of generating the above-described spherical image.

動画圧縮ブロック118は、MPEG−4 AVC/H.264などの動画圧縮及び伸張を行うコーデック・ブロックである。動画圧縮ブロック118は、生成された全天球画像の動画データを保存するため、又は、保存された動画データを再生出力するために用いられる。DRAM132は、各種信号処理及び画像処理を施す際にデータを一時的に保存する記憶領域を提供する。 The moving picture compression block 118 is an MPEG-4 AVC/H. It is a codec block that performs video compression and decompression such as H.264. The moving image compression block 118 is used to store the generated moving image data of the spherical image, or to reproduce and output the stored moving image data. The DRAM 132 provides a storage area for temporarily storing data when performing various kinds of signal processing and image processing.

姿勢センサ136は、加速度センサ、ジャイロセンサ、地磁気センサ又はこれらの組み合わせで構成され、撮像装置100の姿勢を特定するために用いられる。例えば、3軸の加速度センサは、3軸の加速度成分を検出することができる。3軸のジャイロセンサは、3軸の角速度を検出することができる。地磁気センサは、磁界の向きを計測することができる。これらのセンサの出力を単独で又は組み合わせることにより、撮像装置100の3つの姿勢角が与えられる。姿勢センサ136から得られる情報は、全天球画像の天頂補正を施すために用いられ、また、後述する注目点に応じた画像回転処理を施すために用いることができる。 The attitude sensor 136 includes an acceleration sensor, a gyro sensor, a geomagnetic sensor, or a combination thereof, and is used to specify the attitude of the imaging device 100. For example, a triaxial acceleration sensor can detect a triaxial acceleration component. The triaxial gyro sensor can detect triaxial angular velocities. The geomagnetic sensor can measure the direction of the magnetic field. The outputs of these sensors are used alone or in combination to provide three attitude angles of the image pickup apparatus 100. The information obtained from the attitude sensor 136 is used to perform the zenith correction of the omnidirectional image, and can also be used to perform the image rotation processing according to the attention point described later.

外部ストレージインタフェース122には、メモリカードスロットに挿入されたメモリカードなどの外部ストレージ134が接続される。外部ストレージインタフェース122は、外部ストレージ134に対する読み書きを制御する。 An external storage 134 such as a memory card inserted in a memory card slot is connected to the external storage interface 122. The external storage interface 122 controls reading and writing with respect to the external storage 134.

USBインタフェース126には、USBコネクタ138が接続される。USBインタフェース126は、USBコネクタ138を介して接続されるパーソナル・コンピュータなどの外部機器とのUSB通信を制御する。シリアルブロック128は、パーソナル・コンピュータなどの外部機器とのシリアル通信を制御し、無線NIC140が接続される。映像出力インタフェース129は、HDMI(High−Definition Multimedia Interface,HDMIは登録商標である。)などの外部ディスプレイと接続するためのインタフェースであり、記録前や記録中の画像又は、記録した画像を外部ディスプレイなどに映像出力することができる。 A USB connector 138 is connected to the USB interface 126. The USB interface 126 controls USB communication with an external device such as a personal computer connected via the USB connector 138. The serial block 128 controls serial communication with an external device such as a personal computer, and is connected to the wireless NIC 140. The video output interface 129 is an interface for connecting to an external display such as HDMI (High-Definition Multimedia Interface, HDMI is a registered trademark), and an image before or during recording or a recorded image is displayed on the external display. You can output the video to.

なお、一例として、USBコネクタ138、無線NIC140、HDMI(登録商標)による映像出力インタフェース129を示しているが、特定の規格に限定されるものではない。他の実施形態では、有線LAN(Local Area Network)などの有線通信、Bluetooth(登録商標)やワイヤレスUSBなどの他の無線通信、DisplayPort(登録商標)やVGA(Video Graphics Array)などの他の映像出力インタフェースを介して、外部機器と接続されてもよい。 Although the USB connector 138, the wireless NIC 140, and the video output interface 129 based on HDMI (registered trademark) are shown as an example, the invention is not limited to a specific standard. In other embodiments, wired communication such as wired LAN (Local Area Network), other wireless communication such as Bluetooth (registered trademark) and wireless USB, other video such as DisplayPort (registered trademark) and VGA (Video Graphics Array). It may be connected to an external device via the output interface.

電源スイッチの操作によって通電状態になると、上記制御プログラムがメインメモリにロードされる。CPU112は、メインメモリに読み込まれた制御プログラムに従って、装置各部の動作を制御すると共に、制御に必要なデータをメモリ上に一時的に保存する。これにより、撮像装置100の後述する各機能部及び処理が実現される。 When the power is turned on by operating the power switch, the control program is loaded into the main memory. The CPU 112 controls the operation of each part of the device according to the control program read into the main memory, and temporarily stores the data necessary for the control in the memory. Thereby, each functional unit and processing of the image capturing apparatus 100, which will be described later, are realized.

<機能について>
図4は、撮像装置100が備える機能をブロック状に示す機能ブロック図の一例である。撮像装置100は、撮像画像取得部202と、画像補正部203と、つなぎ合わせ処理部204と、天頂補正部206と、全天球画像生成部208と、画像圧縮部210とを有する。
<About functions>
FIG. 4 is an example of a functional block diagram showing the functions of the image capturing apparatus 100 in block form. The imaging apparatus 100 includes a captured image acquisition unit 202, an image correction unit 203, a stitching processing unit 204, a zenith correction unit 206, a celestial sphere image generation unit 208, and an image compression unit 210.

また、撮像装置100はROM114などに構築された欠陥画素DB305を有している。表1は欠陥画素DB305に登録されている欠陥画素の座標を示す。 The image pickup apparatus 100 also has a defective pixel DB 305 built in the ROM 114 or the like. Table 1 shows the coordinates of defective pixels registered in the defective pixel DB 305.

Figure 2020123857
欠陥画素DB305には例えば座標順に欠陥画素の座標が登録されている。欠陥画素DB305は欠陥画素の座標が登録された欠陥画素情報の記憶手段である。欠陥画素とは正常画素と特性が異なる画素(典型的な例として白傷、黒傷がある)をいう。欠陥画素は撮像された画像の劣化をもたらすため、撮像装置は撮像された有効領域の画像を補正することが一般的である。なお、欠陥画素DB305には有効領域の欠陥画素の座標と、第一遮光領域の欠陥画素の座標と、第二遮光領域の欠陥画素の座標が登録されている。それぞれが区別して登録されていてもよい。区別されていないとしても有効領域、第一遮光領域及び第二遮光領域の座標が既知なので、欠陥画素DB305からそれぞれの欠陥画素を特定できる。
Figure 2020123857
In the defective pixel DB 305, the coordinates of defective pixels are registered in the order of coordinates, for example. The defective pixel DB 305 is a storage unit of defective pixel information in which the coordinates of defective pixels are registered. A defective pixel is a pixel having characteristics different from those of a normal pixel (typical examples include white scratches and black scratches). Since the defective pixel causes deterioration of the captured image, the image capturing device generally corrects the captured image of the effective region. In the defective pixel DB 305, the coordinates of the defective pixels in the effective area, the coordinates of the defective pixels in the first light shielding area, and the coordinates of the defective pixels in the second light shielding area are registered. Each may be registered separately. Even if they are not distinguished, the coordinates of the effective area, the first light shielding area, and the second light shielding area are known, so that each defective pixel can be specified from the defective pixel DB 305.

(各機能の説明)
撮像画像取得部202は、上記した撮像素子130A,撮像素子130Bを制御し、それぞれからの撮像画像を取得する。静止画の場合は、シャッターが押されたタイミングで取得された1フレーム分の2つの撮像画像が取得される。動画の場合は、連続したフレームが順次撮像され、各フレームごとに2つの撮像画像が取得される。撮像素子130各々で撮像される画像は、概ね全天球のうちの半球を視野に収めた魚眼画像であり、全天球画像の部分的な画像を構成する。以下、撮像素子130それぞれが撮像した画像を部分画像と称する場合がある。
(Explanation of each function)
The captured image acquisition unit 202 controls the above-described image sensor 130A and image sensor 130B and acquires captured images from each of them. In the case of a still image, two captured images for one frame acquired at the timing when the shutter is pressed are acquired. In the case of a moving image, consecutive frames are sequentially captured, and two captured images are acquired for each frame. The image picked up by each of the image pickup devices 130 is a fish-eye image in which a hemisphere of the whole celestial sphere is included in the field of view, and constitutes a partial image of the whole celestial sphere image. Hereinafter, the image captured by each of the image sensors 130 may be referred to as a partial image.

画像補正部203は(画像補正手段の一例)、欠陥画素DB305から欠陥画素の座標を取得し、欠陥画素の画素値を補正又は除外する。有効領域13においては主に欠陥画素の周囲の画素の画素値を用いて欠陥画素の画素値を補正する。第一遮光領域11及び第二遮光領域12においては黒レベルを決定するための画素から欠陥画素を除外する。本実施形態の画像補正部203は図1で説明した不都合を解消するため、第二遮光領域12の画素の出力を用いて黒レベルを決定する。 The image correction unit 203 (an example of an image correction unit) acquires the coordinates of the defective pixel from the defective pixel DB 305 and corrects or excludes the pixel value of the defective pixel. In the effective area 13, the pixel value of the defective pixel is mainly corrected by using the pixel values of the pixels around the defective pixel. In the first light shielding area 11 and the second light shielding area 12, defective pixels are excluded from the pixels for determining the black level. In order to eliminate the inconvenience described with reference to FIG. 1, the image correction unit 203 of this embodiment determines the black level by using the output of the pixel of the second light shielding area 12.

つなぎ合わせ処理部204は(つなぎ合わせ手段の一例)、取得された2つの部分画像間のつなぎ位置を検出し、2つの部分画像をつなぎ合わせるための処理を実行する。つなぎ位置検出処理では、フレーム毎に、複数の部分画像間に存在する重複領域において、複数の対応点各々の位置ずらし量を検出する処理が行われる。 The stitching processing unit 204 (an example of stitching means) detects the stitching position between the two acquired partial images, and executes processing for stitching the two partial images. In the joint position detection process, a process of detecting the position shift amount of each of the plurality of corresponding points in the overlapping region existing between the plurality of partial images is performed for each frame.

天頂補正部206は、図3に示した姿勢センサ136を制御し、撮像装置100の姿勢角を検出し、生成される全天球画像の天頂方向が所定の基準方向に一致するようにするための補正処理を実行する。ここで、所定の基準方向とは、典型的には、鉛直方向であり、重力加速度が作用する方向である。全天球画像の天頂方向が鉛直方向(天方向)に一致するよう補正することにより、特に動画像において、閲覧時に視野の変更を行う場合でもユーザに3次元酔いなどの違和感を与えないようにすることが可能となる。 The zenith correcting unit 206 controls the posture sensor 136 shown in FIG. 3 to detect the posture angle of the imaging device 100, and to make the zenith direction of the generated omnidirectional image coincide with the predetermined reference direction. The correction process of is executed. Here, the predetermined reference direction is typically a vertical direction, and is a direction in which gravitational acceleration acts. By correcting the zenith direction of the omnidirectional image so as to match the vertical direction (the zenith direction), especially in a moving image, even if the field of view is changed at the time of browsing, the user does not feel uncomfortable such as three-dimensional sickness It becomes possible to do.

全天球画像生成部208は、つなぎ合わせ処理部204及び天頂補正部206の処理結果が反映された状態で、撮像された2つの部分画像から全天球画像を生成する処理を実行する。なお、説明する実施形態においては、2つの部分画像から全天球画像を生成するための変換パラメータが存在し、つなぎ合わせ処理部204は、この変換パラメータに対し、つなぎ位置検出の結果を反映する。天頂補正部206も、変換パラメータに対し天頂補正の結果を反映する。そして、全天球画像生成部208は、これらの処理結果が反映された変換パラメータを用いて、2つの部分画像から全天球画像を生成する。このように処理することにより、最終的な全天球画像を得るための処理負荷を軽減することができる。 The omnidirectional image generation unit 208 executes a process of generating an omnidirectional image from the two captured partial images in a state in which the processing results of the joining processing unit 204 and the zenith correction unit 206 are reflected. In the embodiment to be described, there is a conversion parameter for generating the omnidirectional image from the two partial images, and the joint processing unit 204 reflects the result of joint position detection on this conversion parameter. .. The zenith correcting unit 206 also reflects the result of the zenith correction on the conversion parameter. Then, the celestial sphere image generation unit 208 generates a celestial sphere image from the two partial images by using the conversion parameters in which these processing results are reflected. By processing in this way, the processing load for obtaining the final spherical image can be reduced.

しかしながら、上記した実施形態に限定されるものではなく、2つの部分画像をつなぎ合わせて全天球画像を生成し、生成された全天球画像に対して天頂補正処理を施して、天頂補正が施された全天球画像を生成するよう構成することもできる。なお、変換パラメータについては後述する。 However, the zenith correction is not limited to the above-described embodiment, and the two partial images are joined to generate a omnidirectional image, and the generated omnidirectional image is subjected to the zenith correction process. It can also be configured to generate a rendered spherical image. The conversion parameters will be described later.

画像圧縮部210は、静止画圧縮ブロックを含み構成され、静止画を撮像する場合、撮像された画像を、JPEG(Joint Photographic Experts Group)などの所定の静止画形式の画像データに圧縮する。画像圧縮部210は、また、図3に示した動画圧縮ブロック118を制御するものであり、動画を撮像する場合、撮像された連続する画像フレームを所定の動画形式の画像データに圧縮する。動画圧縮形式としては、特に限定されるものではないが、H.264/MPEG−4 AVC(Advanced Video Coding)、H.265/HEVC(High Efficiency Video Coding)、Motion JPEG、Motion JPEG2000などの種々の動画圧縮形式を挙げることができる。生成された画像データは、撮像装置100に装着された外部ストレージ134や、その他、撮像装置100が備えるフラッシュメモリなどのストレージに保存される。 The image compression unit 210 is configured to include a still image compression block, and when capturing a still image, compresses the captured image into image data in a predetermined still image format such as JPEG (Joint Photographic Experts Group). The image compression unit 210 also controls the moving image compression block 118 shown in FIG. 3, and when capturing a moving image, it compresses consecutive captured image frames into image data in a predetermined moving image format. The moving image compression format is not particularly limited, but H.264. H.264/MPEG-4 AVC (Advanced Video Coding), H.264. Various moving image compression formats such as H.265/HEVC (High Efficiency Video Coding), Motion JPEG, and Motion JPEG2000 can be cited. The generated image data is stored in the external storage 134 attached to the image capturing apparatus 100 or other storage such as a flash memory included in the image capturing apparatus 100.

<全体的な手順>
図5は、撮像装置100が実行する撮像手順を示すフローチャート図の一例である。以下、図5を参照しながら、撮像装置100が実行する処理について説明する。なお、図5に示す処理は、ユーザによる撮像ボタンの押下などの記録指示に応答して開始される。図5に示す処理は静止画を撮像する場合を説明している。
<Overall procedure>
FIG. 5 is an example of a flowchart showing an image capturing procedure executed by the image capturing apparatus 100. Hereinafter, the processing executed by the imaging device 100 will be described with reference to FIG. Note that the processing shown in FIG. 5 is started in response to a recording instruction such as pressing of the imaging button by the user. The process shown in FIG. 5 describes the case of capturing a still image.

ステップS101では、撮像画像取得部202が撮像素子130A,撮像素子130Bからの撮像画像を取得する。撮像画像について図6〜図8を参照して説明する。 In step S101, the captured image acquisition unit 202 acquires captured images from the image sensors 130A and 130B. The captured image will be described with reference to FIGS. 6 to 8.

図6は、本実施形態による撮像装置100における射影関係を説明する図である。本実施形態において、1つ魚眼レンズで撮像された画像は、撮像地点から概ね半球分の方位を撮像したものとなる。また、魚眼レンズは、図6(a)に示すように、光軸に対する入射角度φに対応した像高hで画像を生成する。像高hと、入射角度φとの関係は、所定の投影モデルに応じた射影関数で決定される。 FIG. 6 is a diagram illustrating a projection relationship in the image pickup apparatus 100 according to the present embodiment. In the present embodiment, an image picked up by one fisheye lens is an image picked up in a hemispherical direction from an image pickup point. Further, as shown in FIG. 6A, the fisheye lens generates an image with an image height h corresponding to the incident angle φ with respect to the optical axis. The relationship between the image height h and the incident angle φ is determined by a projection function according to a predetermined projection model.

射影関数は、魚眼レンズの性質によって異なる。上記投影モデルとしては、等距離射影方式(h=f・φ)、中心投影方式(h=f・tanφ)、立体射影方式(h=2f・tan(φ/2))、等立体角射影方式(h=2f・sin(φ/2))及び正射影方式(h=f・sinφ)を挙げることができる。いずれの方式においても、光軸からの入射角度φと焦点距離fとに対応して結像の像高hが決定される。また、本実施形態では、画像対角線よりもイメージサークル径が小さな、いわゆる円周魚眼レンズの構成を採用するものとし、得られる部分画像は、図6(b)に示すように、撮像範囲の概ね半球分が投影されたイメージサークル全体を含む平面画像となる。 The projection function depends on the nature of the fisheye lens. The projection model includes an equidistant projection method (h=f·φ), a central projection method (h=f·tan φ), a stereoscopic projection method (h=2f·tan(φ/2)), an equisolid angle projection method. (H=2f·sin(φ/2)) and the orthogonal projection method (h=f·sinφ). In either method, the image height h of the formed image is determined according to the incident angle φ from the optical axis and the focal length f. Further, in the present embodiment, it is assumed that a so-called circumferential fisheye lens having a smaller image circle diameter than the diagonal line of the image is adopted, and the partial image obtained is approximately a hemisphere of the imaging range as shown in FIG. 6B. It becomes a planar image including the entire image circle onto which the minutes are projected.

図7は、本実施形態で用いられる全天球画像の画像データのデータ構造を説明する図である。なお、図7はすでに2つの半球の画像がつなぎ合わされた状態を示す。図7(b)に示すように、全天球画像のフォーマットは、所定の軸に対するなす角度に対応する角度φと、上記軸周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。各座標値(θ,φ)は、図7(a)に示すように、撮像地点を中心とした全方位を表す球面上の各点と対応付けられており、全方位が全天球画像上にマッピングされる。 FIG. 7 is a diagram for explaining the data structure of the image data of the spherical image used in this embodiment. Note that FIG. 7 shows a state in which the images of two hemispheres have already been joined. As shown in FIG. 7B, the spherical image format has a pixel value in which an angle φ corresponding to an angle formed with respect to a predetermined axis and a horizontal angle θ corresponding to a rotation angle around the axis are coordinates. Expressed as an array of. As shown in FIG. 7A, each coordinate value (θ, φ) is associated with each point on the spherical surface representing the omnidirectional direction centered on the imaging point, and the omnidirectional direction is on the omnidirectional image. Is mapped to.

図8は、本実施形態による撮像装置が用いる変換パラメータを説明する図である。変換パラメータは、平面座標系で表現される部分画像から、球面座標系で表現される画像への射影を規定する。変換パラメータは、図8(a)及び(b)に示すように、各魚眼レンズごとに、補正後画像の座標値(θ,φ)と、該座標値(θ,φ)にマッピングされる補正前の部分画像の座標値(x、y)とを対応付ける情報を、全座標値(θ,φ)に対して保持したものである。図8の例示では、1画素が担当する角度は、φ方向及びθ方向いずれも1/10度であり、変換パラメータは、各魚眼レンズについて、3600×1800の対応関係を示す情報を有している。オリジナルの変換パラメータは、事前に製造元等で理想的なレンズモデルからの歪みを補正した上で計算され、テーブル化されたものを用いることができる。 FIG. 8 is a diagram for explaining conversion parameters used by the image pickup apparatus according to the present embodiment. The conversion parameter defines the projection from the partial image represented by the plane coordinate system to the image represented by the spherical coordinate system. As shown in FIGS. 8A and 8B, the conversion parameters are, for each fish-eye lens, the coordinate values (θ, φ) of the corrected image and the pre-correction mapped to the coordinate values (θ, φ). The information for associating with the coordinate values (x, y) of the partial image is stored for all coordinate values (θ, φ). In the example of FIG. 8, the angle that one pixel is in charge of is 1/10 degrees in both the φ direction and the θ direction, and the conversion parameter has information indicating the correspondence of 3600×1800 for each fisheye lens. .. The original conversion parameters may be calculated in advance after correcting the distortion from the ideal lens model by the manufacturer or the like and tabulated.

図5に戻って説明する。ステップS102では、画像補正部203が撮像素子130Aと撮像素子130Bがそれぞれ撮像した画像を補正する。この処理の詳細は後述する。 It returns to FIG. 5 and demonstrates. In step S102, the image correction unit 203 corrects the images captured by the image sensor 130A and the image sensor 130B, respectively. Details of this processing will be described later.

次に、ステップS103では、つなぎ合わせ処理部204が、取得された2つの部分画像間の重複領域にてつなぎ位置を検出し、変換パラメータに対し、つなぎ位置検出の結果を反映する。つなぎ位置検出の結果の反映により、図8(a)に示す変換パラメータは、補正後画像の座標値(θ,φ)に対し、つなぎ位置補正を反映した部分画像の座標値(x、y)が対応付けられるように修正される。 Next, in step S103, the joining processing unit 204 detects the joining position in the acquired overlapping area between the two partial images, and reflects the result of the joining position detection on the conversion parameter. By reflecting the result of the joint position detection, the conversion parameter shown in FIG. 8A shows that the coordinate values (x, y) of the partial image reflecting the joint position correction with respect to the coordinate value (θ, φ) of the corrected image. Are modified so that

ステップS104では、天頂補正部206が、撮像装置100の重力方向に対する姿勢角を検出し、生成される全天球画像の天頂方向が鉛直方向に一致するように変換パラメータを修正する。天頂補正は、詳細を後述する3次元回転変換と同様の処理により実施することができるが、ここでは詳細には立ち入らない。 In step S104, the zenith correction|amendment part 206 detects the attitude|position angle with respect to the gravity direction of the imaging device 100, and correct|amends a conversion parameter so that the zenith direction of the generated omnidirectional image may correspond to a vertical direction. The zenith correction can be performed by the same processing as the three-dimensional rotation conversion described in detail later, but the details will not be described here.

ステップS105では、全天球画像生成部208が変換パラメータを用いて、撮像された2つの部分画像から全天球画像を生成する処理を実行する。ステップS105においては、まず、変換パラメータを用いて、部分画像が、平面座標系から球面座標系へ変換される。そして、2つの球面座標系の部分画像が画像合成されて、全天球画像が生成される。 In step S105, the omnidirectional image generation unit 208 uses the conversion parameter to execute a process of generating an omnidirectional image from the two captured partial images. In step S105, the partial image is first converted from the plane coordinate system to the spherical coordinate system using the conversion parameter. Then, the partial images of the two spherical coordinate systems are image-synthesized to generate a spherical image.

図9は、本実施形態による撮像装置100が2つの部分画像から生成する全天球画像を示す。図9(a)は撮像装置100で撮像された半球画像(前側)、図9(b)は撮像装置100で撮像された半球画像(後側)、図9(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。 FIG. 9 shows a celestial sphere image generated from the two partial images by the image pickup apparatus 100 according to the present embodiment. 9A is a hemispherical image captured by the image capturing apparatus 100 (front side), FIG. 9B is a hemispherical image captured by the image capturing apparatus 100 (rear side), and FIG. 9C is an equirectangular projection method. It is the figure which showed the represented image (henceforth "equal cylinder projection image").

図9(a)に示されているように、撮像素子130Aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図9(b)に示されているように、撮像素子130Bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とが合成され、図9(c)に示されているように、正距円筒射影画像ECが作成される。 As shown in FIG. 9A, the image obtained by the image sensor 130A becomes a hemispherical image (front side) curved by the fisheye lens 102a described later. Further, as shown in FIG. 9B, the image obtained by the image sensor 130B becomes a hemispherical image (rear side) curved by the fisheye lens 102b described later. Then, the hemisphere image (front side) and the hemisphere image inverted by 180 degrees (rear side) are combined to create an equirectangular cylindrical projection image EC as shown in FIG. 9C.

OpenGL ES(Open Graphics Library for Embedded Systems)等が利用されることで、正距円筒射影画像が球面を覆うように貼り付けられ、全天球画像が作成される。このように、全天球画像は、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2−Dimensions) 及び3D(3−Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像は、静止画であっても動画であってもよい。 By using OpenGL ES (Open Graphics Library for Embedded Systems) etc., the equirectangular projection image is pasted so as to cover the spherical surface, and a spherical image is created. In this way, the omnidirectional image is represented as an image in which the equirectangular cylindrical projection image EC faces the center of the sphere. OpenGL ES is a graphics library used for visualizing 2D (2-Dimensions) and 3D (3-Dimensions) data. The spherical image may be a still image or a moving image.

図5に戻って説明する。ステップS106では、画像圧縮部210が生成された全天球画像の画像データを画像圧縮し、ステップS107で、生成された画像データをストレージに保存する。 It returns to FIG. 5 and demonstrates. In step S106, the image compression unit 210 performs image compression on the generated image data of the spherical image, and in step S107, the generated image data is stored in the storage.

<撮像素子における遮光領域について>
続いて、図10を用いて撮像素子130の遮光領域について説明する。図10は撮像素子130A,130Bに設けられた遮光領域と有効領域13の配置例を示す図である。なお、2つの撮像素子130A,130Bの構造は同じでよいため、図では1つの撮像素子130A又は130Bのみを示した。
<Regarding the light shielding area in the image sensor>
Next, the light blocking area of the image sensor 130 will be described with reference to FIG. FIG. 10 is a diagram showing an arrangement example of the light shielding areas and the effective area 13 provided in the image pickup devices 130A and 130B. Since the two image sensors 130A and 130B may have the same structure, only one image sensor 130A or 130B is shown in the figure.

CMOSやCCDなどのイメージセンサでは、高ゲイン時、長秒撮像時、又は、高温時など画素に光が入射していなくても暗電流による出力が生じることあり、暗電流により光が入射しているかのような画像となってしまうことがある(暗いはずの部分が明るく写ってしまう等)。暗電流による画質低下を抑制するため、撮像素子130A,130Bは1つ以上の遮光領域を有している。図10では第一遮光領域11と第二遮光領域12が設けられている。上側の端部にある第一遮光領域11をトップ遮光領域、横側(左側)の端部にある第二遮光領域12をサイド遮光領域という場合がある。なお、有効領域13は入射光に対する画像データを出力する(ユーザが眼にする画像データを出力する)。 In an image sensor such as a CMOS or a CCD, an output due to a dark current may be generated even when light is not incident on a pixel at the time of high gain, long-time imaging, or high temperature. The image may appear as if it were dark (a part that should be dark appears bright). In order to suppress image quality deterioration due to dark current, the image pickup devices 130A and 130B have one or more light shielding regions. In FIG. 10, a first light blocking area 11 and a second light blocking area 12 are provided. The first light-shielding region 11 at the upper end may be referred to as a top light-shielding region, and the second light-shielding region 12 at the lateral (left) end may be referred to as a side light-shielding region. The effective area 13 outputs the image data for the incident light (outputs the image data seen by the user).

遮光領域の画素も有効領域13の画素に近い(同程度の)暗電流を出力するので、画像補正部203は遮光領域の画素の出力を検出(検波)して、有効領域13から遮光領域の出力を減算することによって、入射光に対する有効領域13の画素の出力のみを取り出す。より具体的には、撮像時に遮光領域の出力の平均値を求めて黒レベルとし、この平均値(黒レベル)を有効領域13の各画素の出力から減算することで暗電流補正を行う。 Since the pixels in the light-shielded area also output a dark current that is close to (comparable to) the pixels in the effective area 13, the image correction unit 203 detects (detects) the output of the pixel in the light-shielded area and shifts from the effective area 13 to the light-shielded area. By subtracting the output, only the output of the pixel in the effective area 13 with respect to the incident light is extracted. More specifically, the dark current correction is performed by obtaining the average value of the output of the light-shielded area at the time of image capturing to obtain the black level, and subtracting this average value (black level) from the output of each pixel of the effective area 13.

遮光領域の画素の出力にもノイズが含まれるので、サンプル数(遮光領域の画素数)は多いほうが安定した黒レベルを算出することができる。図1にて説明したように、第一遮光領域11ではサンプル数(画素の数)が十分でなくなるおそれがあるので、本実施形態では第二遮光領域12を黒レベルの決定に使用する。必ずしも第二遮光領域12の全てを使用しなくてもよく、例えば第一遮光領域11と同程度のサイズに相当する一部の画素の出力のみを使用してもよい。なお、第二遮光領域12は撮像素子130A、130Bの右側にあってもよい。 Since noise is also included in the output of the pixels in the light-shielded area, a stable black level can be calculated as the number of samples (the number of pixels in the light-shielded area) increases. As described with reference to FIG. 1, the number of samples (the number of pixels) in the first light-shielding region 11 may become insufficient, so the second light-shielding region 12 is used for determining the black level in this embodiment. It is not always necessary to use all of the second light-shielding region 12, and for example, only the output of some pixels corresponding to the size of the first light-shielding region 11 may be used. The second light shielding area 12 may be on the right side of the image pickup devices 130A and 130B.

また、撮像素子130は上下(又は片方)にカラム並列ADC15を有する。カラム並列ADC15は各列の出力を並列に水平の1ラインごとに読み出すA/Dコンバータである。本実施形態では上から下(非反転読み出し)、又は、下から上(反転読み出し)のいずれかで水平方向1ラインごとに各画素の出力を読み出す。 Further, the image sensor 130 has column parallel ADCs 15 on the top and bottom (or one side). The column parallel ADC 15 is an A/D converter that reads out the output of each column in parallel for each horizontal line. In the present embodiment, the output of each pixel is read for each line in the horizontal direction either from top to bottom (non-reverse reading) or from bottom to top (reverse reading).

<第二遮光領域の欠陥画素の座標について>
第一遮光領域11では撮像時にも使用できる登録されている欠陥画素の数(一致領域31)が少なくなると説明したが、第二遮光領域12にはそのような不都合がない。
<Regarding the coordinates of the defective pixel in the second light shielding area>
Although it has been described that the number of registered defective pixels (matching region 31) that can be used during imaging is small in the first light-shielding region 11, the second light-shielding region 12 does not have such an inconvenience.

図11は、非反転読み出しと反転読み出しにおける第二遮光領域12の欠陥画素の座標の一例を示す。図11(a)は非反転読み出しによる出力画像を示し、図11(b)は反転読み出しによる出力画像を示す。図11では「F」という文字が撮像された場合を模式的に示している。図11(b)では下から上に読み出されたため「F」の上下が反転していることが分かる。 FIG. 11 shows an example of the coordinates of the defective pixel in the second light-shielding region 12 in the non-inverted reading and the inverted reading. FIG. 11A shows an output image by non-reverse reading, and FIG. 11B shows an output image by reverse reading. FIG. 11 schematically shows a case where the character “F” is picked up. In FIG. 11B, it can be seen that the “F” is inverted because it is read from bottom to top.

第二遮光領域12の欠陥画素51a〜51dも上下が反転しているが、第二遮光領域12の欠陥画素51a〜51dは有効領域13と同じ水平ライン上に存在している。このため、有効領域13と共に第二遮光領域12の出力も読み出され、読み出し方向によって読み出されない画素(非反転読み出しと反転読み出しで座標が一致しない画素)は全くないか又は非常に少ない。リングピクセル(フィルタ処理に必要とされる有効領域13周辺の合理的かつ最小限の画素)やベイヤー配列による領域の不一致(ベイヤフィルタと画素のずれによる画素の不一致)は多少あるとしても、有効領域13の画素に比べて無視できる程度である。従って、第二遮光領域12を使って暗電流に関する画像補正を行えば、図1で説明した不都合を抑制できる。 The defective pixels 51a to 51d in the second light shielding area 12 are also inverted vertically, but the defective pixels 51a to 51d in the second light shielding area 12 are on the same horizontal line as the effective area 13. Therefore, the output of the second light-shielding region 12 is also read together with the effective region 13, and there are no or very few pixels (pixels whose coordinates do not match between non-inverted read and inverted read) depending on the read direction. Even if there are some ring pixels (reasonable and minimum number of pixels around the effective area 13 required for filtering) and Bayer array area mismatch (pixel mismatch due to Bayer filter and pixel shift), the effective area is small. It is negligible compared to the 13 pixels. Therefore, if the image correction relating to the dark current is performed using the second light shielding region 12, the inconvenience described in FIG. 1 can be suppressed.

<画像補正の手順>
図12は、画像補正部203が遮光領域の出力を使って暗電流による有効領域13の画質低下を抑制する手順を示すフローチャート図の一例である。
<Procedure for image correction>
FIG. 12 is an example of a flowchart showing a procedure in which the image correction unit 203 suppresses the image quality deterioration of the effective region 13 due to the dark current by using the output of the light shielding region.

画像補正部203は、第一遮光領域11の出力を取り出す(S11)。非反転読み出しの場合は、非反転読み出し領域35の画素が取り出され、反転読み出しの場合は反転読み出し領域34の画素が取り出される。 The image correction unit 203 extracts the output of the first light shielding area 11 (S11). In the case of non-inverted read, the pixels in the non-inverted read area 35 are taken out, and in the case of inverted read, the pixels in the inverted read area 34 are taken out.

画像補正部203は、一致領域31の出力を取り出す(S12)。欠陥画素DB305には一致領域31の欠陥画素の座標しか登録されていないおそれがあるためである。一致領域31の座標は画像補正部203に予め登録されているものとする。仮に登録されていない場合、ステップS11で読み取った第一遮光領域11の画素のうち下から2/3程度を一致領域31と見なせばよい。図1(b)又は図1(c)に示したように非反転読み出しでも反転読み出しでも第一遮光領域11の下側に一致領域31が存在するためである。 The image correction unit 203 extracts the output of the matching area 31 (S12). This is because only the coordinates of the defective pixels in the matching area 31 may be registered in the defective pixel DB 305. It is assumed that the coordinates of the matching area 31 are registered in the image correction unit 203 in advance. If not registered, about 2/3 from the bottom of the pixels of the first light shielding area 11 read in step S11 may be regarded as the matching area 31. This is because, as shown in FIG. 1B or FIG. 1C, the coincidence region 31 exists below the first light-shielding region 11 in both non-inversion reading and inversion reading.

次に、画像補正部203は欠陥画素DB305から一致領域31の欠陥画素の座標を読み出す(S13)。一致領域31の画素範囲の座標を持つ欠陥画素を欠陥画素DB305から特定すればよい。そして、一致領域31の画素から欠陥画素を除外する(S14)。除外とは画素からの出力の平均の算出に使用しないことをいう。 Next, the image correction unit 203 reads the coordinates of the defective pixel in the matching area 31 from the defective pixel DB 305 (S13). A defective pixel having coordinates in the pixel range of the matching area 31 may be identified from the defective pixel DB 305. Then, the defective pixel is excluded from the pixels in the matching area 31 (S14). Exclusion means not being used to calculate the average output from the pixels.

次に、画像補正部203は第二遮光領域12の出力を取り出す(S15)。第二遮光領域12は、読み出し方向が変わっても変更がない。 Next, the image correction unit 203 extracts the output of the second light shielding area 12 (S15). The second light-shielding region 12 does not change even if the reading direction changes.

そして、画像補正部203は欠陥画素DB305から第二遮光領域12の欠陥画素の座標を読み出す(S16)。第二遮光領域12の画素範囲の座標を持つ欠陥画素を欠陥画素DB305から特定すればよい。 Then, the image correction unit 203 reads the coordinates of the defective pixel in the second light-shielding area 12 from the defective pixel DB 305 (S16). The defective pixel having the coordinates of the pixel range of the second light shielding area 12 may be specified from the defective pixel DB 305.

次に、画像補正部203は第二遮光領域12の画素から欠陥画素を除外する(S17)。除外とは画素からの出力の平均の算出に使用しないことをいう。 Next, the image correction unit 203 excludes the defective pixel from the pixels of the second light shielding area 12 (S17). Exclusion means not being used to calculate the average output from the pixels.

画像補正部203は、欠陥画素を除外した一致領域31の画素と第二遮光領域12の画素の出力の平均(黒レベル)を算出する(S18)。これにより、欠陥画素の出力を除いて黒レベルを決定できる。また、暗電流が有効領域13の出力に与える影響を推定できる。 The image correction unit 203 calculates the average (black level) of the outputs of the pixels of the matching area 31 excluding the defective pixels and the pixels of the second light shielding area 12 (S18). Thereby, the black level can be determined excluding the output of the defective pixel. Further, the influence of the dark current on the output of the effective area 13 can be estimated.

次に、画像補正部203は有効領域13の画素の出力からステップS18で算出した平均を減算する(S19)。これにより、有効領域13の画像データの本来は暗い領域が暗電流により明るく見えるような画質低下を抑制できる。 Next, the image correction unit 203 subtracts the average calculated in step S18 from the output of the pixels in the effective area 13 (S19). As a result, it is possible to suppress deterioration of image quality in which the originally dark area of the image data of the effective area 13 looks bright due to the dark current.

なお、図12の処理では第一遮光領域11を暗電流補正に使用しているが、第二遮光領域12を使用する場合はサンプル数が十分なので第一遮光領域11を暗電流補正に使用しなくてもよい。 In the process of FIG. 12, the first light-shielding region 11 is used for dark current correction, but when the second light-shielding region 12 is used, the number of samples is sufficient, so the first light-shielding region 11 is used for dark current correction. You don't have to.

<有効領域の飽和による暗電流補正の影響の低減>
図13は有効領域13の飽和による暗電流補正の影響の低減について説明する図である。有効領域13の任意の画素に強い光が入射するとこの画素が飽和することが知られている。飽和とは画素で発生した電荷を蓄積するコンデンサの容量の上限まで充電することをいう。飽和した画素領域を飽和領域53という。
<Reduction of influence of dark current correction due to saturation of effective area>
FIG. 13 is a diagram for explaining reduction of the influence of dark current correction due to saturation of the effective area 13. It is known that when intense light is incident on an arbitrary pixel in the effective area 13, this pixel is saturated. Saturation refers to charging up to the upper limit of the capacity of the capacitor that stores the charge generated in the pixel. The saturated pixel area is referred to as a saturated area 53.

第二遮光領域12は有効領域13と同じ水平ライン上に存在しているため、有効領域13に飽和領域53が生じると同一の水平ライン上に存在している第二遮光領域12の画素54の出力も影響を受けることがある。遮光されているのに、暗電流とは別に飽和領域53から流れ出た電荷を第二遮光領域12の画素が蓄積する場合がある。 Since the second light-shielding region 12 exists on the same horizontal line as the effective region 13, when the saturated region 53 occurs in the effective region 13, the pixel 54 of the second light-shielding region 12 existing on the same horizontal line. Output may also be affected. The pixels in the second light-shielding region 12 may accumulate the charges flowing out of the saturation region 53, in addition to the dark current, even though they are shielded from light.

本実施形態のように全天球を撮像できる広角な撮像装置では、撮像領域が広いのに対し飽和領域53の面積は小さく、影響は軽微と考えられるが、影響を可能な限り排除することが好ましい。 In the wide-angle imaging device capable of imaging the celestial sphere as in the present embodiment, although the imaging region is wide, the area of the saturation region 53 is small, and the influence is considered to be slight, but the influence can be eliminated as much as possible. preferable.

そこで、画像補正部203は、飽和領域53と同一の水平ライン上に存在している第二遮光領域12の画素54を検波除外領域として、黒レベルの決定の対象から除外する。こうすることで、有効領域13で飽和領域53が発生しても暗電流補正の効果が低下することを抑制できる。なお、飽和領域53の検出には実画像の画素値(例えば0〜255の画素値を取る場合に255の画素値を示した画素)を使ってもよいし、AE(Automatic Exposure)で評価値の算出に用いた画素ブロックのデータを使ってもよい。なお、AEは撮像素子130の出力から輝度値の評価値を算出し、評価値に基づいて適切な露出量が得られるようにゲイン、絞り及び露光時間(シャッター速度)を制御する機能である。 Therefore, the image correction unit 203 excludes the pixel 54 of the second light-shielding region 12 existing on the same horizontal line as the saturation region 53 from the target of black level determination as the detection exclusion region. By doing so, it is possible to suppress deterioration of the dark current correction effect even if the saturated region 53 occurs in the effective region 13. It should be noted that the pixel value of the actual image (for example, the pixel showing the pixel value of 255 when the pixel value of 0 to 255 is taken) may be used for the detection of the saturated region 53, or the evaluation value by AE (Automatic Exposure). The data of the pixel block used for the calculation may be used. The AE is a function of calculating an evaluation value of the brightness value from the output of the image sensor 130 and controlling the gain, aperture, and exposure time (shutter speed) so that an appropriate exposure amount can be obtained based on the evaluation value.

図14は、飽和領域53が生じても、画像補正部203が遮光領域の出力を使って暗電流による有効領域13の画質低下を抑制する手順を示すフローチャート図の一例である。なお、図14の説明では主に図12との相違を説明する。まず、ステップS11〜S17の処理は図12と同様でよい。 FIG. 14 is an example of a flowchart showing a procedure in which the image correction unit 203 suppresses the image quality deterioration of the effective area 13 due to the dark current by using the output of the light shielding area even when the saturated area 53 occurs. In the description of FIG. 14, differences from FIG. 12 will be mainly described. First, the processes of steps S11 to S17 may be the same as in FIG.

ステップS17−2において、画像補正部203は飽和領域があるか否かを判断する(S17−2)。そして、飽和領域がある場合、第二遮光領域12の画素のうち飽和領域と同じ水平ラインの画素を除外する(S17−3)。 In step S17-2, the image correction unit 203 determines whether or not there is a saturated region (S17-2). Then, if there is a saturated region, pixels of the same horizontal line as the saturated region are excluded from the pixels of the second light shielding region 12 (S17-3).

こうすることで、有効領域13で飽和領域が発生しても暗電流補正の効果が低下することを抑制できる。 By so doing, it is possible to prevent the effect of dark current correction from decreasing even if a saturated region occurs in the effective region 13.

<まとめ>
以上説明したように、本実施形態の撮像装置100は、第二遮光領域12(サイド遮光領域)を使って暗電流補正を行うので、複数の画像データをつなぎ合わせるために読み出し方向が異なる撮像素子が存在し、第一遮光領域11のサンプル数が少なくなっても、黒レベルの決定を精度よく行うことができ、画質が低下することを抑制できる。
<Summary>
As described above, the image pickup apparatus 100 according to the present embodiment performs the dark current correction using the second light-shielding region 12 (side light-shielding region), and thus the image pickup elements having different read directions for connecting a plurality of image data. Therefore, even if the number of samples in the first light-shielding region 11 is small, the black level can be accurately determined, and the deterioration of image quality can be suppressed.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments, but the present invention is not limited to these embodiments, and various modifications can be made without departing from the gist of the present invention. And substitutions can be added.

例えば、本実施形態では、2つの画像のつなぎ合わせの前に画像を補正しているが、画像の補正はつなぎ合わせ後に行ってもよい。 For example, in the present embodiment, the image is corrected before joining the two images, but the image may be corrected after joining.

また、本実施形態では、補正を撮像装置100が行っているが、撮像から画像の補正までのシステムで行ってもよい。例えば、撮像装置100は2つの画像と撮像条件をスマートフォンやサーバに送信し、スマートフォンやサーバが補正後の2つの画像データを撮像装置100に返す。 Further, in the present embodiment, the correction is performed by the image capturing apparatus 100, but the system from image capturing to image correction may be performed. For example, the imaging device 100 transmits two images and imaging conditions to the smartphone or the server, and the smartphone or server returns the corrected two image data to the imaging device 100.

また、以上の実施例で示した図4の構成例は、撮像装置100の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。撮像装置100は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。 Further, the configuration example of FIG. 4 shown in the above embodiment is divided according to the main function in order to facilitate understanding of the processing of the image pickup apparatus 100. However, the present invention is not limited by the division method or name of each processing unit. The image pickup apparatus 100 can be divided into more processing units according to the processing content. Also, one processing unit can be divided so as to include more processing.

11 第一遮光領域
12 第二遮光領域
13 有効領域
31 一致領域
34 反転読み出し領域
35 非反転読み出し領域
100 撮像装置
11 First Light-Shielding Area 12 Second Light-Shielding Area 13 Effective Area 31 Matching Area 34 Inversion Reading Area 35 Non-Inversion Reading Area 100 Imaging Device

特開2018‐137592号公報JP, 2008-137592, A

Claims (9)

画素の出力が上から下、又は、下から上に読み出される撮像素子を有する撮像装置であって、
画素の出力を上から下に読み出すか、又は、下から上に読み出すかによって、出力が読み出されない画素を有する第一遮光領域、
画素の出力を上から下に読み出しても、又は、下から上に読み出しても、出力が読み出される画素を有する第二遮光領域、及び、
入射光に対する画像データを出力する有効領域、を有する撮像素子と、
欠陥画素の座標が登録された欠陥画素情報の記憶手段と、
前記欠陥画素情報に登録されている前記欠陥画素を前記第二遮光領域から除外して、前記第二遮光領域の画素の出力から黒レベルを決定し、前記黒レベルに基づいて前記有効領域の画像を補正する画像補正手段と、
を有することを特徴とする撮像装置。
An image pickup device having an image pickup device in which the output of a pixel is read from top to bottom or from bottom to top,
A first light-shielding region having a pixel whose output is not read by reading the output of the pixel from top to bottom or from bottom to top;
Whether the pixel output is read from top to bottom or from bottom to top, a second light-shielding region having a pixel whose output is read, and
An image pickup device having an effective area for outputting image data for incident light;
Storage means for defective pixel information in which coordinates of defective pixels are registered;
The defective pixel registered in the defective pixel information is excluded from the second light-shielding region, the black level is determined from the output of the pixel in the second light-shielding region, and the image of the effective region is determined based on the black level. Image correction means for correcting
An imaging device comprising:
前記有効領域に出力が飽和した飽和領域がある場合、
前記画像補正手段は、前記飽和領域と同一の水平ラインにある前記第二遮光領域の画素を、前記第二遮光領域から除外して、前記第二遮光領域の画素の出力から黒レベルを決定することを特徴とする請求項1に記載の撮像装置。
When there is a saturated region where the output is saturated in the effective region,
The image correction unit excludes the pixels in the second light-shielding region on the same horizontal line as the saturation region from the second light-shielding region, and determines the black level from the output of the pixels in the second light-shielding region. The image pickup apparatus according to claim 1, wherein
前記画像補正手段は、前記第一遮光領域において、前記撮像素子の出力を上から下に読み出しても、下から上に読み出しても画素の出力が読み出される一致領域の画素から、前記欠陥画素情報に登録されている前記欠陥画素を除外して、前記第一遮光領域の画素の出力から黒レベルを決定することを特徴とする請求項1又は2に記載の撮像装置。 In the first light-shielding region, the image correction unit reads the output of the image sensor from the top to the bottom or reads from the bottom to the top, and the defective pixel information is read from the pixel in the matching region from which the pixel output is read. 3. The image pickup apparatus according to claim 1, wherein the defective pixel registered in the above is excluded, and the black level is determined from the output of the pixel in the first light shielding region. 前記第一遮光領域は前記撮像素子の上側の端部に設けられていることを特徴とする請求項1〜3のいずれか1項に記載の撮像装置。 The image pickup apparatus according to claim 1, wherein the first light-shielding region is provided on an upper end portion of the image pickup element. 前記第二遮光領域は前記撮像素子の左側又は右側いずれかの端部に設けられていることを特徴とする請求項1〜4のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 4, wherein the second light-shielding region is provided at an end portion on either the left side or the right side of the image pickup element. 複数の撮像素子を有し、
前記複数の撮像素子が撮像した画像データをつなぎ合わせるつなぎ合わせ手段を有し、
つなぎ合わされた2つの画像データにより全天球画像を生成することを特徴とする請求項1〜5のいずれか1項に記載の撮像装置。
Having multiple image sensors,
A connecting means for connecting the image data picked up by the plurality of image pickup devices,
The image pickup apparatus according to claim 1, wherein a celestial sphere image is generated from the two pieces of image data that have been joined together.
前記複数の撮像素子が撮像した画像データは読み出し方向が異なることを特徴とする請求項6に記載の撮像装置。 The image pickup apparatus according to claim 6, wherein the image data picked up by the plurality of image pickup elements have different read directions. 画素の出力を上から下に読み出すか、又は、下から上に読み出すかによって、出力が読み出されない画素を有する第一遮光領域、
画素の出力を上から下に読み出しても、又は、下から上に読み出しても、出力が読み出される画素を有する第二遮光領域、及び、
入射光に対する画像データを出力する有効領域、を有する撮像素子と、
欠陥画素の座標が登録された欠陥画素情報の記憶手段と、を有し、画素の出力が上から下、又は、下から上に読み出される撮像素子を有する撮像装置が行う画像補正方法であって、
画像補正手段が、前記欠陥画素情報に登録されている前記欠陥画素を前記第二遮光領域から除外して、前記第二遮光領域の画素の出力から黒レベルを決定し、前記黒レベルに基づいて前記有効領域の画像を補正する、
ことを特徴とする画像補正方法。
A first light-shielding region having a pixel whose output is not read by reading the output of the pixel from top to bottom or from bottom to top;
Whether the pixel output is read from top to bottom or from bottom to top, a second light-shielding region having a pixel whose output is read, and
An image pickup device having an effective area for outputting image data for incident light;
An image correction method performed by an image pickup apparatus having a storage unit for storing defective pixel information in which the coordinates of defective pixels are registered, and having an image pickup device whose pixel output is read from top to bottom or from bottom to top. ,
The image correction means excludes the defective pixel registered in the defective pixel information from the second light-shielding region, determines a black level from the output of the pixel of the second light-shielding region, and based on the black level. Correct the image of the effective area,
An image correction method characterized by the above.
画素の出力を上から下に読み出すか、又は、下から上に読み出すかによって、出力が読み出されない画素を有する第一遮光領域、
画素の出力を上から下に読み出しても、又は、下から上に読み出しても、出力が読み出される画素を有する第二遮光領域、及び、
入射光に対する画像データを出力する有効領域、を有する撮像素子と、
欠陥画素の座標が登録された欠陥画素情報の記憶手段と、を有し、画素の出力が上から下、又は、下から上に読み出される撮像素子を有する撮像装置を、
前記欠陥画素情報に登録されている前記欠陥画素を前記第二遮光領域から除外して、前記第二遮光領域の画素の出力から黒レベルを決定し、前記黒レベルに基づいて前記有効領域の画像を補正する画像補正手段、
として機能させるためのプログラム。
A first light-shielding region having a pixel whose output is not read by reading the output of the pixel from top to bottom or from bottom to top;
Whether the pixel output is read from top to bottom or from bottom to top, a second light-shielding region having a pixel whose output is read, and
An image pickup device having an effective area for outputting image data for incident light;
A defective pixel information storage unit in which the coordinates of the defective pixel are registered; and an image pickup device having an image pickup device whose pixel output is read from top to bottom or from bottom to top,
The defective pixel registered in the defective pixel information is excluded from the second light-shielding region, the black level is determined from the output of the pixel in the second light-shielding region, and the image of the effective region is determined based on the black level. Image correction means for correcting
Program to function as.
JP2019014867A 2019-01-30 2019-01-30 Imaging apparatus, image correction method, and program Pending JP2020123857A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019014867A JP2020123857A (en) 2019-01-30 2019-01-30 Imaging apparatus, image correction method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019014867A JP2020123857A (en) 2019-01-30 2019-01-30 Imaging apparatus, image correction method, and program

Publications (1)

Publication Number Publication Date
JP2020123857A true JP2020123857A (en) 2020-08-13

Family

ID=71993637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019014867A Pending JP2020123857A (en) 2019-01-30 2019-01-30 Imaging apparatus, image correction method, and program

Country Status (1)

Country Link
JP (1) JP2020123857A (en)

Similar Documents

Publication Publication Date Title
JP6721065B2 (en) Imaging device, image processing device and method
JP6927382B2 (en) Imaging systems, methods, programs, video display devices and image processing devices.
US10805531B2 (en) Image processing system, image generation apparatus, and image generation method
US20200296282A1 (en) Imaging system, imaging apparatus, and system
JP6919334B2 (en) Image processing device, image processing method, program
JP5920507B1 (en) Image processing system, image processing method, and program
JP2017208619A (en) Image processing apparatus, image processing method, program and imaging system
CN109413334B (en) Photographing method and photographing apparatus
JP7031280B2 (en) Image processing equipment, image processing systems and programs
US11196929B2 (en) Signal processing device, imaging device, and signal processing method
JP6824143B2 (en) Imaging equipment, imaging systems, image processing methods, information processing equipment, and programs
US11128814B2 (en) Image processing apparatus, image capturing apparatus, video reproducing system, method and program
US11102403B2 (en) Image device, information processing apparatus, information processing method, system, and storage medium
JP6256513B2 (en) Imaging system, imaging apparatus, method, and program
JP7306089B2 (en) Image processing system, imaging system, image processing device, imaging device, and program
JP2020123837A (en) Imaging apparatus, imaging method, and program
JP2020088419A (en) Imaging apparatus, image correction method, and program
JP2020123857A (en) Imaging apparatus, image correction method, and program
JP7206797B2 (en) Imaging device, information processing device, correction value calculation method and program
JP7484242B2 (en) Image processing device, image processing method, imaging device, image processing system, and program
JP2020078065A (en) Imaging apparatus, information processing apparatus, correction amount setting method, and program
JP2018011172A (en) Imaging apparatus, imaging system and program