JP2022524023A - White balance using a reference illuminant - Google Patents
White balance using a reference illuminant Download PDFInfo
- Publication number
- JP2022524023A JP2022524023A JP2021552771A JP2021552771A JP2022524023A JP 2022524023 A JP2022524023 A JP 2022524023A JP 2021552771 A JP2021552771 A JP 2021552771A JP 2021552771 A JP2021552771 A JP 2021552771A JP 2022524023 A JP2022524023 A JP 2022524023A
- Authority
- JP
- Japan
- Prior art keywords
- image
- color
- series
- pixel
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 61
- 238000001228 spectrum Methods 0.000 claims abstract description 53
- 239000003086 colorant Substances 0.000 claims description 35
- 239000011159 matrix material Substances 0.000 claims description 24
- 230000007935 neutral effect Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims 1
- 238000004590 computer program Methods 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 abstract description 9
- 230000003595 spectral effect Effects 0.000 abstract description 8
- 238000012512 characterization method Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 24
- 230000000875 corresponding effect Effects 0.000 description 15
- 239000000758 substrate Substances 0.000 description 15
- 238000013459 approach Methods 0.000 description 11
- 239000000463 material Substances 0.000 description 11
- 238000012545 processing Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 7
- 238000000926 separation method Methods 0.000 description 7
- 235000000177 Indigofera tinctoria Nutrition 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 229940097275 indigo Drugs 0.000 description 6
- COHYTHOBJLSHDF-UHFFFAOYSA-N indigo powder Natural products N1C2=CC=CC=C2C(=O)C1=C1C(=O)C2=CC=CC=C2N1 COHYTHOBJLSHDF-UHFFFAOYSA-N 0.000 description 6
- 230000001681 protective effect Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 235000008733 Citrus aurantifolia Nutrition 0.000 description 4
- 235000011941 Tilia x europaea Nutrition 0.000 description 4
- JNDMLEXHDPKVFC-UHFFFAOYSA-N aluminum;oxygen(2-);yttrium(3+) Chemical compound [O-2].[O-2].[O-2].[Al+3].[Y+3] JNDMLEXHDPKVFC-UHFFFAOYSA-N 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000004571 lime Substances 0.000 description 4
- XOFYZVNMUHMLCC-ZPOLXVRWSA-N prednisone Chemical compound O=C1C=C[C@]2(C)[C@H]3C(=O)C[C@](C)([C@@](CC4)(O)C(=O)CO)[C@@H]4[C@@H]3CCC2=C1 XOFYZVNMUHMLCC-ZPOLXVRWSA-N 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 239000000126 substance Substances 0.000 description 4
- 229910019901 yttrium aluminum garnet Inorganic materials 0.000 description 4
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- -1 560 <λ <575) Substances 0.000 description 2
- 240000007320 Pinus strobus Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000001444 catalytic combustion detection Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000011248 coating agent Substances 0.000 description 2
- 238000000576 coating method Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 229910052755 nonmetal Inorganic materials 0.000 description 2
- JBRZTFJDHDCESZ-UHFFFAOYSA-N AsGa Chemical compound [As]#[Ga] JBRZTFJDHDCESZ-UHFFFAOYSA-N 0.000 description 1
- 229910001218 Gallium arsenide Inorganic materials 0.000 description 1
- 229910003564 SiAlON Inorganic materials 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 239000011230 binding agent Substances 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005282 brightening Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 239000003822 epoxy resin Substances 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000005669 field effect Effects 0.000 description 1
- 239000002223 garnet Substances 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 239000003365 glass fiber Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229910052698 phosphorus Inorganic materials 0.000 description 1
- 239000011574 phosphorus Substances 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920000647 polyepoxide Polymers 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 229910052814 silicon oxide Inorganic materials 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
- WFKWXMTUELFFGS-UHFFFAOYSA-N tungsten Chemical compound [W] WFKWXMTUELFFGS-UHFFFAOYSA-N 0.000 description 1
- 229910052721 tungsten Inorganic materials 0.000 description 1
- 239000010937 tungsten Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002759 woven fabric Substances 0.000 description 1
- QTQOWPNJTRPSPZ-UHFFFAOYSA-K zinc rubidium(1+) phosphate Chemical compound [Zn++].[Rb+].[O-]P([O-])([O-])=O QTQOWPNJTRPSPZ-UHFFFAOYSA-K 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/88—Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/60—Colour correction or control
- H04N1/6077—Colour balance, e.g. colour cast correction
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/02—Illuminating scene
- G03B15/03—Combinations of cameras with lighting apparatus; Flash units
- G03B15/05—Combinations of cameras with electronic flash apparatus; Electronic flash units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/60—Colour correction or control
- H04N1/6083—Colour correction or control controlled by factors external to the apparatus
- H04N1/6086—Colour correction or control controlled by factors external to the apparatus by scene illuminant, i.e. conditions at the time of picture capture, e.g. flash, optical filter used, evening, cloud, daylight, artificial lighting, white point measurement, colour temperature
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/125—Colour sequential image capture, e.g. using a colour wheel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B2215/00—Special procedures for taking photographs; Apparatus therefor
- G03B2215/05—Combinations of cameras with electronic flash units
- G03B2215/0503—Built-in units
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B2215/00—Special procedures for taking photographs; Apparatus therefor
- G03B2215/05—Combinations of cameras with electronic flash units
- G03B2215/0564—Combinations of cameras with electronic flash units characterised by the type of light source
- G03B2215/0567—Solid-state light source, e.g. LED, laser
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B2215/00—Special procedures for taking photographs; Apparatus therefor
- G03B2215/05—Combinations of cameras with electronic flash units
- G03B2215/0564—Combinations of cameras with electronic flash units characterised by the type of light source
- G03B2215/0571—With second light source
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Color Television Image Signal Generators (AREA)
- Spectrometry And Color Measurement (AREA)
- Studio Devices (AREA)
Abstract
本明細書に提示するのは、既知の反射スペクトルが全くない場合において、忠実度の高い色再現を実現するためのコンピュータプログラム、及び、関連するコンピュータ実装技術である。すなわち、忠実度の高い色再現が、グレーカードやカラーチェッカー等のポータブルリファレンスを用いることなく実現可能である。これを実現するために、新規なリファレンススペクトル「リファレンス発光体スペクトル」が、画像センサによって画像化されることになるシーンに導入される。リファレンス発光体スペクトルは、スペクトル特性が既知のマルチチャネル光源によって作成される。【選択図】図6Presented herein are computer programs and related computer implementation techniques for achieving high fidelity color reproduction in the absence of any known reflection spectrum. That is, color reproduction with high fidelity can be realized without using a portable reference such as a gray card or a color checker. To achieve this, a new reference spectrum, the "reference illuminant spectrum," is introduced into the scene that will be imaged by the image sensor. The reference illuminant spectrum is created by a multi-channel light source with known spectral characteristics. [Selection diagram] FIG. 6
Description
関連出願の相互参照
本出願は、“High Fidelity Color Technologies"と題され、2019年3月13日に出願された米国仮出願第62/818,055号の優先権を主張する。
Cross-reference to related applications This application, entitled "High Fidelity Color Technologies", claims priority to US Provisional Application No. 62 / 818,055 filed March 13, 2019.
技術分野
様々な実施形態は、デジタル画像内のピクセルの色値を補正することによって高忠実度の色再現を達成するためのコンピュータプログラム及び関連するコンピュータ実装技術に関する。
Technical Fields Various embodiments relate to computer programs and related computer implementation techniques for achieving high fidelity color reproduction by correcting the color values of pixels in a digital image.
発光体は、ケルビン(K)度で測定される色温度によって特徴付けられ得る。発光体の色温度は、加熱された黒体から放出される光の色が発光体の色と一致する温度である。蛍光球や発光ダイオード(LED)のような、黒体を実質的に模倣しない発光体では、加熱された黒体から放出される光の色が発光体の色に近似する温度は、相関色温度(CCT)と称される。 The illuminant can be characterized by a color temperature measured in Kelvin (K) degrees. The color temperature of the illuminant is a temperature at which the color of the light emitted from the heated blackbody matches the color of the illuminant. In a light emitter that does not substantially mimic a blackbody, such as a fluorescent sphere or light emitting diode (LED), the temperature at which the color of the light emitted from the heated blackbody approximates the color of the light emitter is the correlated color temperature. It is called (CCT).
理想的には、デジタル画像内のシーンは、同じ色温度の1つ以上の発光体によって照らされる。しかしながら、そのようなことはめったに起こらない。代わりに、シーンは通常、色温度が異なる複数の発光体によって照らされる(これは「混合ライティング」と称される状況である)。例えば、屋内のシーンは、頭上のライティング要素、窓から差し込む間接的な日光等によって照らされる可能性がある。このような状況は、色温度が異なる様々なライティング条件によっても生じることがある。例えば、屋外シーンのデジタル画像のペアがほんの僅かな時間差で作成されることがあるが、その間に太陽が暗くなると、色温度が異なることになる。 Ideally, the scene in a digital image is illuminated by one or more emitters of the same color temperature. However, such things rarely happen. Instead, the scene is usually illuminated by multiple emitters with different color temperatures (this is a situation referred to as "mixed lighting"). For example, indoor scenes can be illuminated by overhead lighting elements, indirect sunlight shining through windows, and so on. Such a situation may also occur due to various lighting conditions with different color temperatures. For example, a pair of digital images of an outdoor scene may be created with a slight time lag, but if the sun darkens in the meantime, the color temperature will be different.
ホワイトバランス調整は、色温度をニューラル(neural)に戻そうとしてデジタル画像のバランスをとるプロセスである。高いレベルで、ホワイトバランスは非現実的な色被りを取り除き、人の目が白いオブジェクトを見るときに行うことを模倣する。これは、人の目に白く見えるデジタル画像内のオブジェクトが、それらのデジタル画像内で白くレンダリングされるようにするために行われる。 White balance adjustment is the process of balancing a digital image in an attempt to return the color temperature to neural. At a high level, white balance removes unrealistic color casts and mimics what the human eye does when looking at white objects. This is done so that objects in digital images that look white to the human eye are rendered white in those digital images.
本特許又は出願は、少なくとも1つのカラーで実施された図面を包含している。請求及び必要な料金の支払いに応じて、本特許又は出願の公報のカラー図面付きのコピーが官庁から提供されるであろう。 This patent or application includes drawings made in at least one color. Upon request and payment of the required fees, a copy with color drawings of the Gazette of this patent or application will be provided by the Office.
本明細書に記載される技術の様々な特徴は、図面と併せて本詳細な説明を検討することによって当業者にはより明らかになるであろう。実施形態は、これらの図面に限定ではなく例として例示されており、同様の参照は、同様の要素を示すことがある。これらの図面は、例示の目的で様々な実施形態を描写しているが、当業者は、これらの技術の原理から逸脱することなく、代替の実施形態が採用されてもよいことを認識するであろう。したがって、特定の実施形態が図面に示されている一方で、これらの技術は様々な修正に適している。 Various features of the techniques described herein will become more apparent to those skilled in the art by reviewing this detailed description in conjunction with the drawings. Embodiments are exemplified, but not limited to, in these drawings, and similar references may indicate similar elements. Although these drawings depict various embodiments for illustrative purposes, those skilled in the art will recognize that alternative embodiments may be employed without departing from the principles of these techniques. There will be. Thus, while certain embodiments are shown in the drawings, these techniques are suitable for various modifications.
後処理の間にホワイトバランスを手動で修正することは、時間のかかる処理であるだけでなく、専門家が実行した場合でも、結果に一貫性がなくなる傾向がある。一部の専門家はよりウォームなデジタル画像を好む傾向がある一方で、他の専門家はよりクールなデジタル画像を好む傾向がある。これらの問題に対処するために、最新のデジタルカメラは、ホワイトバランスを自動的に実行するように設計されている。例えば、デジタルカメラは、自動ホワイトバランス(AWB)設定を有していることがあり、このAWB設定は、選択された際に、最も明るい部分を白色点として識別した後、そのリファレンスに基づいてデジタル画像の色のバランス調整することを試みるように設計されたアルゴリズムによって、シーンを評価されるようにする。 Manually correcting the white balance during post-processing is not only a time-consuming process, but it also tends to result in inconsistent results, even when performed by an expert. Some experts tend to prefer warmer digital images, while others tend to prefer cooler digital images. To address these issues, modern digital cameras are designed to automatically perform white balance. For example, a digital camera may have an automatic white balance (AWB) setting, which, when selected, identifies the brightest part as a white point and then digitally bases it on its reference. Allows the scene to be evaluated by an algorithm designed to attempt to balance the colors of the image.
カラーが重要な状況では、AWBアルゴリズムで問題が発生しないように、ニュートラルリファレンスがシーンに導入されることがある。例えば、プロの写真家/映像作家は、シーンに簡単に追加され得るポータブルリファレンスを携帯していることがある。ポータブルリファレンスの一例は、平坦な反射スペクトルに由来するニュートラルグレー色の平坦な表面である。ポータブルリファレンスの別の例は、種々異なる反射スペクトルに対応する一連の種々異なる色の平坦な表面である。前者は通常「グレーカード」と称され、後者は通常「カラーチェッカー」と称される。その形式に関係なく、ポータブルリファレンスは、アルゴリズムによって自動ホワイトバランス調整のリファレンスとして使用可能な既知の反射スペクトルをシーンに導入することになる。 In situations where color is important, neutral references may be introduced into the scene to avoid problems with the AWB algorithm. For example, a professional photographer / videographer may carry a portable reference that can be easily added to the scene. An example of a portable reference is a neutral gray flat surface derived from a flat reflection spectrum. Another example of a portable reference is a series of flat surfaces of different colors that correspond to different reflection spectra. The former is usually referred to as a "gray card" and the latter is usually referred to as a "color checker". Regardless of its format, the portable reference will introduce into the scene a known reflection spectrum that the algorithm can use as a reference for automatic white balance adjustment.
該シーンが既知の反射スペクトルを含まないとき、AWBアルゴリズムは、色に関して目に見えて不正確なデジタル画像を生成する可能性がある(多くの場合、そうなる)。例えば、該シーンにおいて赤色が支配的である場合、AWBアルゴリズムはこれをウォームな発光体によって誘発された色被りと間違えて、平均色をニューラル(neural)に近づけることによって補正することを試みることがある。しかしながら、これによって青みがかった色被りが導入され、この色被りはかなり目立ち得る。図10~図16は、AWBアルゴリズムが色値を適切にスケーリングできなかったいくつかの画像の例を含む。 When the scene does not contain a known reflection spectrum, the AWB algorithm can (and often does) produce a digital image that is visibly inaccurate with respect to color. For example, if red is dominant in the scene, the AWB algorithm may try to correct it by confusing it with a warm illuminant-induced color cast and bringing the average color closer to neural. be. However, this introduces a bluish tint, which can be quite noticeable. 10-16 include examples of some images for which the AWB algorithm was unable to properly scale the color values.
したがって、本明細書では、ポータブルリファレンスを用いずに忠実度の高い色再現を実現するためのコンピュータプログラム、及び、関連するコンピュータ実装技術が提示される。これを実現するために、新規なリファレンススペクトル「リファレンス発光体スペクトル」が、画像センサによって画像化されることになるシーンに導入される。リファレンス発光体スペクトルは、スペクトル特性が既知である発光体によって作成される。 Therefore, the present specification presents a computer program for achieving high fidelity color reproduction without using a portable reference, and related computer mounting techniques. To achieve this, a new reference spectrum, the "reference illuminant spectrum," is introduced into the scene that will be imaged by the image sensor. The reference illuminant spectrum is created by an illuminant whose spectral characteristics are known.
以下でさらに説明するように、単一のリファレンス発光体は、シーンにおける色を適切にレンダリングするには不十分なことがある。これは、任意の単一の発光体スペクトルについて、種々異なる反射特性を備えたオブジェクトに対応するピクセルが画像センサによって測定されたものと同じ色値を有する、カラーメタメリズムのインスタンスがあるためである。すなわち、これらのピクセルは、実際には同じ色ではないが、画像センサにとっては同じように見える。したがって、カラーメタメリズムの影響を軽減するために、複数のリファレンス発光体スペクトルが示差的に導入されることがある。 As further described below, a single reference illuminant may not be sufficient to properly render the colors in the scene. This is because for any single illuminant spectrum, there are instances of color metamerism in which the pixels corresponding to the objects with different reflection characteristics have the same color values as those measured by the image sensor. That is, these pixels are not actually the same color, but look the same to the image sensor. Therefore, multiple reference illuminant spectra may be introduced differentially to mitigate the effects of color metamerism.
実施形態は、特定の電子デバイス、光源又は画像センサを参照して説明され得る。例えば、本技術は、複数の異なる色のLEDを備えたマルチチャネル光源と、赤色、緑色及び青色のチャネルを備えたマルチチャネル画像センサとを含む携帯電話の文脈において説明され得る。しかしながら、当業者は、これらの特徴が他のタイプの電子デバイス、光源及び画像センサに等しく適用可能であることを認識するであろう。例えば、可視光に代えて又はそれに加えて、非可視光(例えば、紫外線及び/又は赤外線)を生成するように構成されたマルチチャネル光源によって、同じ特徴が適用されてもよい。したがって、実施形態は、複数の「色チャネル」を備えた光源の文脈で説明され得るが、これらの特徴は、非色チャネル(すなわち、非可視光を生成する1つ以上の発光体を有するチャネル)に等しく適用可能であり得る。 Embodiments may be described with reference to a particular electronic device, light source or image sensor. For example, the art can be described in the context of a mobile phone including a multi-channel light source with multiple different colored LEDs and a multi-channel image sensor with red, green and blue channels. However, those skilled in the art will recognize that these features are equally applicable to other types of electronic devices, light sources and image sensors. For example, the same features may be applied by a multi-channel light source configured to produce invisible light (eg, ultraviolet and / or infrared) in place of or in addition to visible light. Thus, embodiments can be described in the context of a light source with multiple "color channels", but these features are non-color channels (ie, channels with one or more illuminants that produce invisible light). ) Can be equally applicable.
実施形態はまた、「フラッシュイベント」を参照して説明され得る。一般に、フラッシュイベントは、シーンのデジタル画像がキャプチャされている間、該シーンを短時間可視光で溢れさせるために電子デバイスによって実行される。しかしながら、本明細書に記載の機能は、他の照明イベントにも同様に適用可能である。例えば、電子デバイスは、マルチチャネル光源の色チャネルをストロボ照明して、それぞれの色チャネルの効果を決定した後、少なくともいくつかの色チャネルを同時に駆動し、それによって該シーンに溢れる可視光を延長して生成することができる。したがって、実施形態は、デジタル画像をキャプチャして処理するという文脈で説明され得るが、当業者は、その特徴が、ビデオのフレームを表す一連のデジタル画像をキャプチャして処理するために等しく適用可能であることを認識するであろう。 Embodiments may also be described with reference to "flash events". Generally, a flash event is performed by an electronic device to flood the scene with visible light for a short period of time while a digital image of the scene is being captured. However, the features described herein are applicable to other lighting events as well. For example, an electronic device strobes the color channels of a multi-channel light source to determine the effect of each color channel and then drives at least several color channels simultaneously, thereby extending the visible light flooding the scene. Can be generated. Accordingly, embodiments may be described in the context of capturing and processing digital images, but those of skill in the art are equally applicable to capture and process a series of digital images representing frames of video. You will recognize that.
本技術は、専用ハードウェア(例えば、回路)、ソフトウェア及び/若しくはファームウェアで適切にプログラムされたプログラム可能な回路、又は、専用ハードウェアとプログラム可能な回路との組み合わせを用いて具体化することができる。したがって、実施形態は、実行された際に、電子デバイスに対して、一連の発光体スペクトルをシーンに導入させ、該一連の発光体スペクトルと併せて一連の画像をキャプチャさせた後、該一連の画像の分析に基づくピクセル単位で情報スペクトルを確立させる命令を有する機械可読媒体を含んでいてもよい。 The art may be embodied using dedicated hardware (eg, circuits), programmable circuits properly programmed with software and / or firmware, or a combination of dedicated hardware and programmable circuits. can. Thus, an embodiment, when executed, causes an electronic device to introduce a series of illuminant spectra into the scene, capture a series of images in conjunction with the series of illuminant spectra, and then capture the series of images. It may include a machine-readable medium with instructions to establish an information spectrum on a pixel-by-pixel basis based on image analysis.
用語
本説明における「ある実施形態」又は「一実施形態」への言及は、記載されている特徴、機能、構造又は特性が、少なくとも1つの実施形態に含まれることを意味する。そのような句が現れたとしても、同じ実施形態を必ずしも示すわけではなく、相互に排他的な別の実施形態を必ずしも示すわけでもない。
Terminology Reference to "an embodiment" or "one embodiment" in this description means that the features, functions, structures or properties described are included in at least one embodiment. The appearance of such a phrase does not necessarily indicate the same embodiment, nor does it necessarily indicate another embodiment that is mutually exclusive.
文脈上明確に別段の求めがない限り、単語「含む(comprise)」及び「含んでいる(comprising)」は、排他的又は網羅的な意味ではなく、包括的な意味で(すなわち、「含むが、それに限定されない」という意味で)解釈されるべきである。用語「接続(connected)」、「結合(coupled)」又はそれらの任意の変形は、2つ以上の要素間の任意の接続又は結合を含むことを意図され、直接的であるか間接的であるかを問わない。これらの接続/結合は、物理的、論理的又はそれらの組み合わせであり得る。例えば、コンポーネントは、物理的接続を共有することなく、互いに電気的又は通信的に結合されていてもよい。 Unless otherwise explicitly requested in the context, the words "comprise" and "comprising" are not exclusive or exhaustive, but in a comprehensive sense (ie, "contains". , But not limited to it. " The terms "connected", "coupled" or any variation thereof are intended to include any connection or connection between two or more elements and are direct or indirect. It doesn't matter. These connections / connections can be physical, logical or a combination thereof. For example, the components may be electrically or communically coupled to each other without sharing a physical connection.
用語「基づく」はまた、排他的又は網羅的な意味ではなく、包括的な意味で解釈されるべきである。したがって、別段の言及がない限り、用語「基づく」は、「少なくとも部分的に基づく」ことを意味することを意図される。 The term "based" should also be interpreted in a comprehensive sense, not in an exclusive or exhaustive sense. Therefore, unless otherwise stated, the term "based" is intended to mean "at least partially based".
用語「モジュール」は、ソフトウェアコンポーネント、ファームウェアコンポーネント及び/又はハードウェアコンポーネントを広く示す。モジュールは、典型的には、指定された(1つ以上の)入力に基づいて有用なデータ又はその他の(1つ以上の)出力を生成可能な機能コンポーネントである。モジュールは、自己完結型であってもよい。コンピュータプログラムは、1つ以上のモジュールを含んでいてもよい。例えば、コンピュータプログラムは、種々異なるタスクを完了することを担当する複数のモジュール、又は、全てのタスクを完了することを担当する単一のモジュールを含んでいてもよい。 The term "module" broadly refers to software components, firmware components and / or hardware components. A module is typically a functional component capable of producing useful data or other (one or more) outputs based on a specified (one or more) inputs. The module may be self-contained. The computer program may include one or more modules. For example, a computer program may include multiple modules responsible for completing different tasks, or a single module responsible for completing all tasks.
複数の項目からなるリストを参照して使用される際において、単語「又は」は、該リスト内の項目のいずれか、該リスト内の項目の全て、及び、該リスト内の項目の任意の組み合わせとの解釈の全てを網羅することを意図される。 When used with reference to a multi-item list, the word "or" is any of the items in the list, all of the items in the list, and any combination of the items in the list. It is intended to cover all of the interpretations of.
本明細書に記載の任意のプロセスにおいて実行される一連のステップは、例示的なものである。しかしながら、物理的可能性に反しない限り、これらのステップは、様々な順序及び組み合わせで実行されてもよい。例えば、本明細書に記載のプロセスにステップが追加可能であり、該プロセスからステップが削除可能である。同様に、ステップは置換又は並べ替え可能である。したがって、任意のプロセスの説明は、オープンエンド(open-ended)であることが意図される。 The sequence of steps performed in any of the processes described herein is exemplary. However, these steps may be performed in various orders and combinations as long as they do not violate physical potential. For example, steps can be added to the process described herein, and steps can be removed from the process. Similarly, the steps can be replaced or rearranged. Therefore, the description of any process is intended to be open-ended.
光源の概要
図1Aは、種々異なる色を生成可能な複数の色チャネルを含むマルチチャネル光源100の上面図を示す。各色チャネルは、実質的に同様の色の光を生成するように設計された1つ以上の発光体102を含み得る。例えば、マルチチャネル光源100は、第1の色を生成するように構成された単一の発光体、第2の色を生成するように構成された複数の発光体等を含んでいてもよい。なお、簡略化の目的で、色チャネルは、該色チャネルに含まれる個別の発光体の数に関わらず「発光体」と称する。
Outline of Light Source FIG. 1A shows a top view of a multi-channel
光源の一例としては、LEDが挙げられる。LEDは、一般に無機半導体材料からなる2リード発光体である。実施形態はLEDの文脈で説明され得るが、本技術は、他のタイプの発光体にも同様に適用可能である。表1は、LEDにおいて使用可能な色の複数の例、並びに、対応する波長範囲及び代表的な材料を含む。
表1に示されていない他の色もまた、光源100に組み込まれていてもよい。そのような色の例には、藍紫色(シアン、490<λ<515)、石灰色(ライム、560<λ<575)、琥珀色(アンバー、580<λ<590)及び藍色(インディゴ、425<λ<450)が含まれる。当業者は、これらの波長範囲が単に例示の目的で含まれていることを認識するであろう。
Other colors not shown in Table 1 may also be incorporated into the
上記のように、マルチチャネル光源100は、異なる色を生成可能な複数の色チャネルを含んでいてもよい。例えば、光源100は、青色光、緑色光及び赤色光を生成するように構成された、3つの個別の色チャネルを含んでいてもよい。そのような光源は「RGB光源」と称されることがある。別の例として、光源100は、青色光、緑色光、赤色光、及び、琥珀色光又は白色光のどちらかを生成するように構成された、4つの別個の色チャネルを含んでいてもよい。そのような光源は、「RGBA光源」又は「RGBW光源」と称されることがある。別の例として、光源100は、青色光、藍紫色光、石灰色光、琥珀色光、及び赤色光を生成するように構成された5つの別個の色チャネルを含んでいてもよい。別の例として、光源100は、青色光、藍紫色光、緑色光、琥珀色光、赤色光、紫色光及び白色光を生成するように構成された、7つの別個の色チャネルを含んでいてもよい。したがって、光源100は、3つのチャネル、4つのチャネル、5つのチャネル、7つのチャネル等を含み得る。
As described above, the multi-channel
3チャネル及び4チャネルの光源は、従来のフラッシュ技術を改善するが、波立ったスペクトル分布を有していることや、高忠実度の範囲が狭いことがある。結果として、マルチチャネル光源100は、少なくとも5つの異なる色チャネルを含むことが多くなる。色チャネルの数が増えると、光の品質、CCT範囲、範囲全体の品質及びスペクトルサンプリングもまた、概ね増加する。例えば、適切に選択された発光体を備えた5チャネル光源は、ΔuV±0.002での広いCCT範囲(例えば、1650K~10000K超)にわたって、フルスペクトルの白色光を送達するように設計され得る。さらに、5チャネル光源を使用することにより、スペクトル分布は、実質的に連続的な(すなわち、波立っていない)方法でサンプリングされ得る。
The 3-channel and 4-channel light sources improve conventional flash techniques, but may have a wavy spectral distribution and a narrow range of high fidelity. As a result, the multi-channel
LEDは発熱量が少ないため、互いに近接して配置され得る。したがって、マルチチャネル光源の発光体102がLEDである場合、光源100は、任意に近接して配置された複数のダイからなるアレイを含んでいてもよい。しかしながら、その配置は、隣接するダイ間の「ホワイトウォール」空間によって制限される場合があることに留意されたい。ホワイトウォール空間は、概ね約0.1ミリメートル(mm)であるが、これは光源100の全体としての所望の直径に基づいて(例えば、0.2mm以下にまで)制限されることがある。例えば、図2では、アレイには5つの異なる色チャネルに関連付けられた8つのダイが含まれる。このようなアレイは、従来のフラッシュ技術と同様の寸法に収まるサイズにされていてもよい。該アレイはまた、例えば石灰色-琥珀色-藍紫色-赤色-青色の面積比2-1-1-0.5-0.5を要する標準的な製造ダイに基づいていてもよい。該アレイは、1つ以上の線形電界効果トランジスタベース(FETベース)の電流制御されたドライバ110によって駆動されてもよい。いくつかの実施形態では、各色チャネルは、対応するドライバによって駆動される。これらのドライバ110は、発光体102の下方に配置された基板104に取り付けられてもよく、該基板104内に埋め込まれてもよい。
Since the LEDs generate less heat, they can be placed close to each other. Therefore, when the
各色チャネルを独立して駆動することにより、マルチチャネル光源100は、種々異なるCCTで白色光を生成することができる。例えば、マルチチャネル光源100は、電子デバイスによる画像のキャプチャと併せてシーンを照明する光のフラッシュを放出してもよい。電子機器の例には、携帯電話、タブレットコンピュータ、デジタルカメラ(例えば、一眼レフ(SLR)カメラ、デジタルSLR(DSLR)カメラ及びライトフィールドカメラ(「プレノプティックカメラ」とも称される))等が含まれる。マルチチャネル光源100によって生成される光は、コンシューマ写真、プロシューマ写真、プロフェッショナル写真等の文脈において撮影される画像の品質を改善することができる。
By driving each color channel independently, the multi-channel
このような方法でマルチチャネル光源を制御することにより、従来のライティング技術と比較して、様々な動作状態にわたってスペクトル制御の精度/正確さを改善することができる。従来のライティング技術は全て、電磁スペクトルの所望のセグメントにおいて光を放射するように設計されている。しかしながら、光(すなわち、電磁スペクトルのセグメント)は、温度、経年劣化、明るさ等の要因に基づいて変化する。従来のライティング技術とは異なり、マルチチャネル光源は、各チャネルの出力が常にわかるように処理可能である。この情報を使用して、コントローラ112は、(i)各チャネルに提供される電流を調整すること、及び/又は、(ii)スペクトルシフトを補償して該電磁スペクトルの所望のセグメントを維持するようにチャネルの比率を調整することによって、上記因子を補償することができる。コントローラ112の例としては、中央処理装置(「プロセッサ」とも称される)が挙げられる。 By controlling the multi-channel light source in such a way, it is possible to improve the accuracy / accuracy of the spectrum control over various operating states as compared with the conventional lighting technique. All conventional lighting techniques are designed to emit light in the desired segment of the electromagnetic spectrum. However, light (ie, the segment of the electromagnetic spectrum) changes based on factors such as temperature, aging, and brightness. Unlike traditional lighting techniques, multi-channel light sources can be processed so that the output of each channel is always visible. Using this information, the controller 112 (i) adjusts the current provided to each channel and / or (ii) compensates for the spectral shift to maintain the desired segment of the electromagnetic spectrum. The above factors can be compensated by adjusting the ratio of channels to. Examples of the controller 112 include a central processing unit (also referred to as a "processor").
いくつかの実施形態では、マルチチャネル光源100は、適切な色チャネルを個別に駆動することによって、カラー光を生成することができる。例えば、コントローラ112は、単一の色チャネル(例えば、赤色光を生成するための赤色チャネル)又は複数の色チャネル(例えば、橙色の光を生成するための赤色チャネル及び琥珀色チャネル)を駆動することによって、マルチチャネル光源100にカラー光を生成させてもよい。上記のように、コントローラ112はまた、各色チャネルを同時に駆動することによって、マルチチャネル光源100に所望のCCTを有する白色光を生成させてもよい。特に、コントローラ112は、混色モデルに基づいて、所望のCCTを達成するために必要な動作パラメータを決定してもよい。動作パラメータは、例えば、各色チャネルに提供されることになる駆動電流を指定してもよい。動作パラメータを変更することにより、コントローラは、白色光のCCTを必要に応じて調節し得る。
In some embodiments, the multi-channel
発光体102は、基板104上に位置するLEDのアレイとして図示されているが、他の配置もまた可能である。いくつかの場合では、熱的制約、サイズ制約、混色制約等の理由により、異なる配置が好ましいことがある。例えば、マルチチャネル光源100は、LEDの円形配置、グリッド配置、又はクラスター配置を含んでいてもよい。
The
図1Bは、マルチチャネル光源100の側面図を示しており、いくつかの実施形態おいて、どのように発光体102がハウジング内に存在するかを図示している。ハウジングは、発光体102を取り囲むベースプレート106、及び/又は、発光体102を覆う保護面108を含み得る。ここに示される保護面108はドームの形態であるが、当業者は、他の設計が可能であることを認識するであろう。例えば、保護面108は、代わりに基板104に対して平行に配置されてもよい。さらに、保護面108は、マルチチャネル光源100が電子デバイス内に固定されている際に、保護面108の上面が電子デバイスの外面と実質的に同一平面上にあるように設計されてもよい。保護基板108は、ガラス、プラスチック等の実質的に透明な材料からなり得る。
FIG. 1B shows a side view of the multi-channel
基板104は、発光体102によって生成された熱を適切に放散することができる任意の材料から構成され得る。
金属基板ではなく、エポキシ樹脂バインダー(例えば、FR4)を備えたガラス繊維織物からなるもののような非金属基板が使用されてもよい。例えば、FR4で構成される基板104は、複数の色チャネルによって生成された熱を、金属基板が典型的に遭遇する保持(retension)の問題を経験することなくより効率的に放散することができる。しかしながら、いくつかの非金属基板は、写真撮影及びビデオ撮影に一般的に使用される高出力発光体と組み合わせて使用することができないため、基板104は、金属、セラミック等からなることがあることに留意されたい。
The
Instead of a metal substrate, a non-metal substrate such as one made of a glass fiber woven fabric with an epoxy resin binder (eg, FR4) may be used. For example, the
発光体102を動作させるために必要な処理コンポーネントは、光源100から物理的に分離されていてもよい。例えば、処理コンポーネントは、基板104を通る導電性ワイヤを介して、発光体102に接続されてもよい。処理コンポーネントの例には、ドライバ110、コントローラ112、電源114(例えば、電池)等が含まれる。したがって、処理コンポーネントは、光源100内に位置する必要はない。代わりに、処理コンポーネントは、光源100が設置されている電子デバイス内の他の場所に位置していてもよい。
The processing components required to operate the
以下でさらに説明するように、マルチチャネル光源100は、画像センサと連動して動作するように設計されている。したがって、マルチチャネル光源100は、画像センサがシーンの画像をキャプチャするための命令を受信したとの決定に応答して光を放出するように構成され得る。該命令は、画像をキャプチャする要求を示す入力の受信に応答して作成されてもよい。図1Cに示されるように、画像センサ(ここでは、カメラ152)は、マルチチャネル光源と同じ電子デバイス内に収容されてもよい。該要求は、タッチ感知式ディスプレイの表面に沿った触覚入力、又は、電子デバイスの外側に沿ってアクセス可能な機械式ボタンの形で提供され得る。
As further described below, the multi-channel
いくつかの実施形態では、マルチチャネル光源は、電子デバイスのハウジング内に容易に設置可能なように設計されている。
図1Cは、周囲環境を照明するように構成された背面カメラ152及びマルチチャネル光源154を含む電子デバイス150を示す。マルチチャネル光源154は、例えば、図1A~Bのマルチチャネル光源100であってもよい。背面カメラ152は、光源100によって生成された光と併せて画像をキャプチャするように構成され得る画像センサの一例である。ここでは、電子機器150は、携帯電話である。しかしながら、当業者は、本明細書に記載の技術が、タブレットコンピュータやデジタルカメラ等の他のタイプの電子デバイスに容易に適合され得ることを認識するであろう。
In some embodiments, the multi-channel light source is designed for easy installation within the housing of the electronic device.
FIG. 1C shows an
カメラ152は、典型的には電子デバイス150内に含まれる複数の画像センサのうちの1つである。例えば、電子デバイス100は、個人がディスプレイを見ながら静止画像又はビデオをキャプチャすることを可能にする前面カメラを含んでいてもよい。背面カメラ及び前面カメラは、多くの場合、種々異なる用途を目的とした種々異なるタイプの画像センサであり得る。例えば、画像センサは、種々異なる解像度を有する画像をキャプチャ可能であってもよい。別の例として、画像センサは、種々異なる光源と組み合わせられ得る(例えば、背面カメラが前面カメラよりも強いフラッシュに関連付けられてもよく、前面カメラがシングルチャネル光源の近くに配置されている一方で、背面カメラがマルチチャネル光源の近くに配置されていてもよい)。
The camera 152 is typically one of a plurality of image sensors contained within the
図2は、発光体202のアレイ200の例を示す。発光体202がLEDである場合、アレイ200は、標準的なダイ(「チップ」とも称される)を使用して製造されてもよい。ダイは、ダイオードが位置している半導体材料の小さなブロックである。典型的には、特定の色に対応するダイオードは、単一のウェハ(例えば、電子グレードのシリコン、ガリウムヒ素などで構成される)上で大量に製造された後、該ウェハは多数のピースへと切断(「ダイシング」)され、該ピースのそれぞれに単一のダイオードが含まれる。これらの各部分が「ダイ」と称されることがある。
FIG. 2 shows an example of an
図2に示されるように、アレイ200は、種々異なる色の光を生成するように構成された複数の色チャネルを含む。ここでは、例えば、アレイ200は、5つの色チャネル(青色、藍紫色、石灰色、琥珀色及び赤色)を含む。各色チャネルは、1つ以上の発光体を含み得る。ここでは、例えば、3つの色チャネル(すなわち、青色、藍紫色及び赤色)が複数の発光体を含み、2つの色チャネル(すなわち、藍紫色及び琥珀色)が単一の発光体を含む。各色チャネル内の発光体の数、及び、アレイ200内のこれら発光体の配置は、最大CCT、最小CCT、最大温度等の所望の出力特性に基づいて変更されてもよい。
As shown in FIG. 2, the
アレイ200は、該して1,000ルーメンを超える光を生成可能であるが、いくつかの実施形態は、1,000ルーメン未満(例えば、フラッシュイベント中に、700~800ルーメン)の光を生成するように設計される。いくつかの実施形態では、発光体202は、空間的な色の均一性を改善するために、高度に対称的なパターンでアレイ200内に配置される。例えば、アレイ200が複数の色チャネルの同時駆動によって白色光を生成するように設計されている際、それらの色チャネルに対応する発光体は、カラー光の混合を容易にするために対称的に配置され得る。
The
アレイ200は、従来のフラッシュ部品に加えて又はそれに代えて、電子機器(例えば、図1Cの電子機器150)のハウジング内に設置可能なように設計されてもよい。例えば、携帯電話内に設置するように設計されたアレイのいくつかが直径4mm未満である一方で、携帯電話内に設置するように設計されたアレイのいくつかが直径3mm未満である。アレイ200はまた、高さが1mm未満であってもよい。いくつかの実施形態では、アレイにとって必要な推定総面積は、設置前において3mm2未満であり、設置後において6mm2未満であり得る。そのような設計は、携帯電話内のコンポーネントの大幅な再配置を必要とせず、アレイ200を携帯電話内に配置することを可能にする。
The
コンパクトなダイのアレイの利点の1つは、コリメータ、ディフューザ又はレンズを使用せずに、良好な色混合及び適切な視野(FOV)を実現できることである。しかしながら、発光体202によって生成される光の適切な空間的色均一性を保証するように設計されたコリメータ204(「混合パイプ」とも称される)が、アレイ200の周りに配置されてもよい。高水準では、コリメータ204は、発光体202によって放出される光のFOVのより均一な色混合及びより優れた制御を促進し得る。コリメータ204は、柔軟でない材料(例えば、ガラス)又は柔軟な材料(例えば、シリコーン)からなり得る。コリメータ204は、管状本体の形態であってもよい。いくつかの実施形態では、管状本体の出口開口は、アレイよりも狭い(例えば、出口開口は、2.5mm、3mm又は3.5mmの直径を有していてもよい)一方で、他の実施形態では、管状本体の出口開口は、アレイよりも広い(例えば、出口開口は、4.5mm、5mm又は5.5mmの直径を有していてもよい)。したがって、管状本体は、発光体202によって生成された光を集束又は分散させる傾斜した内面を有していてもよい。
One of the advantages of a compact die array is the ability to achieve good color mixing and proper field of view (FOV) without the use of collimators, diffusers or lenses. However, a collimator 204 (also referred to as a "mixing pipe") designed to ensure proper spatial color uniformity of the light produced by the
アレイ200は、画像のキャプチャと併せてフラッシュを生成するように構成された従来のフラッシュ技術に代えて又はそれに加えて使用されてもよい。したがって、電子デバイス(例えば、図1Cの電子デバイス150)は、シングルチャネル光源及び/又はマルチチャネル光源を含んでいてもよい。
The
実施形態はLEDの文脈で記載されることがあるが、当業者は、LEDに代えて又はそれに加えて、他のタイプの光源が使用され得ると認識するであろう。例えば、本技術の実施形態は、レーザー、量子ドット(「QD」)、有機LED(「OLED」)、共振空洞LED(「RCLED」)、垂直空洞表面発光レーザー(「VCSEL」)、超発光ダイオード(「SLD」又は「SLED」)、リン光物質層の下の青色の「ポンプ」LED、アップコンバージョンリン光物質(例えば、赤外線によって励起されたときに応答を提供する微細なセラミック粒子)、窒化物リン光物質(例えば、CaAlSiN、SrSiN、KSiF)、ダウンコンバージョンリン光物質(例えば、KSF:Mn4+、LiAlN)、リン酸亜鉛ルビジウム、イットリウム-アルミニウム-ガーネット(YAG)リン光物質、ルテチウム-アルミニウム-ガーネット(LAG)リン光物質、SiAlONリン光物質、SiONリン光物質、又は、その他それらの組み合わせを採用してもよい。例えば、アレイ200は、青色LED上のYAGリン光物質コーティングによって生成される石灰色等のリン光物質変換された色を含んでいてもよい。そのような実施形態では、非常に効率的な青色LEDは、ほぼ完全に吸収された後により広い黄緑色帯域で再放出される光子によって、該YAGリン光物質コーティングをポンピングする。これはまた、赤色、琥珀色、緑色、藍紫色等の他の色を作成するためにも実行され得る。別の例として、複数のVCSEL及び/又は複数のQDは、基板が電子デバイスのハウジング内に設置された際に該VCSEL及び/又はQDが電磁放射を外部に放出するように、基板上に所与のパターンで配置され得る。シーンを照明するために使用される発光体のタイプは、照明イベントのスケジュールに影響を与えることがある。換言すれば、いくつかの発光体は、タイミングの観点から調整することが求められることがある。例えば、リン光物質ベースの発光体は、概して励起の遅延及び脱励起の遅延を示すため、リン光物質ベースの光源は、オーバーラップ(すなわち、第2のリン光物質ベースの発光体がアクティブ化された際に第1のリン光物質ベースの発光体が未だにある程度の光を放出していること)を回避するために、早期オン・早期オフの方法でアクティブ化(例えば、ストロボ照射)されてもよい。
Although embodiments may be described in the context of LEDs, one of ordinary skill in the art will recognize that other types of light sources may be used in place of or in addition to LEDs. For example, embodiments of the present technology include lasers, quantum dots (“QD”), organic LEDs (“OLED”), resonant cavity LEDs (“RCLED”), vertical cavity surface emitting lasers (“VCSEL”), and superluminous diodes. ("SLD" or "SLED"), blue "pump" LED under the phosphorescent layer, up-conversion phosphorescent material (eg, fine ceramic particles that provide a response when excited by infrared light), nitrided Phosphorus light substance (eg CaAlSiN, SrSiN, KSiF), down conversion phosphor light substance (eg KSF: Mn4 +, LiAlN), zinc rubidium phosphate, yttrium-aluminum-garnet (YAG) phosphor light substance, lutetium-aluminum- Garnet (LAG) phosphorescent material, SiAlON phosphorescent material, SiON phosphorescent material, or any other combination thereof may be adopted. For example, the
画像センサの概要
画像センサは、画像を構成する情報を検出するセンサである。一般に、画像センサは、(例えば、物体を通過又は反射する際の)光波の可変減衰を電気信号に変換することによって、該情報検出を実現する。ここで、電気信号は、情報を伝達する電流の小さなバーストを表す。画像センサの例には、半導体-電荷結合素子(CCD)、及び、相補型金属-酸化物-半導体センサ(CMOS)センサが含まれる。どちらのタイプの画像センサも同じタスク、すなわち、キャプチャされた光を電気信号に変換するタスクを実行する。しかしながら、CMOSセンサは、概してCCDよりも安価、小型かつ低消費電力であるため、多くの電子デバイスが画像キャプチャのためにCMOSセンサを使用している。
Overview of image sensor An image sensor is a sensor that detects information that constitutes an image. In general, an image sensor realizes the information detection by converting a variable attenuation of a light wave (eg, when passing or reflecting an object) into an electrical signal. Here, the electrical signal represents a small burst of current carrying information. Examples of image sensors include semiconductor-charge-coupled device (CCD) and complementary metal-oxide-semiconductor sensor (CMOS) sensors. Both types of image sensors perform the same task: converting the captured light into an electrical signal. However, because CMOS sensors are generally cheaper, smaller, and consume less power than CCDs, many electronic devices use CMOS sensors for image capture.
画像センサは、分離メカニズムもまた異なり得る。最も一般的な分離メカニズムの1つは、選択されたピクセルセンサに様々な色の光を渡すフィルタアレイである。例えば、個々のセンサ要素はそれぞれ、化学染料で作製されたカラーゲルによって、赤色光、緑色光又は青色光のいずれかに対して感知可能になるようにされてもよい。画像センサは色に基づいて入射光を分離するため、複数のセンサチャネル又は複数の色チャネルを有しているといえる。したがって、種々異なる色に対応する複数のセンサチャネルを含む画像センサは、「マルチチャネル画像センサ」と称されることがある。 Image sensors can also have different separation mechanisms. One of the most common separation mechanisms is a filter array that passes light of different colors to selected pixel sensors. For example, each sensor element may be made sensitive to either red light, green light or blue light by a color gel made of a chemical dye. Since the image sensor separates the incident light based on the color, it can be said that the image sensor has a plurality of sensor channels or a plurality of color channels. Therefore, an image sensor including a plurality of sensor channels corresponding to various different colors may be referred to as a "multi-channel image sensor".
図3は、画像センサ304上に配置された分離機構302の例を示す。ここでは、分離機構302は、ピクセルごとに入射光を赤色光、緑色光又は青色光に分離するように設計された3つの異なるタイプのカラーフィルタを含むベイヤーフィルタアレイである。一方、画像センサ304は、CMOSセンサであってもよい。画像をキャプチャするために光化学フィルムを用いるのではなく、代わりに、画像センサ304によって生成された電子信号が、その後の分析のためにメモリに記録される。
FIG. 3 shows an example of the
(例えば、画像をキャプチャする要求を示す入力の受信に応答して)記録機能が開始された後、レンズは、分離機構602を通じて画像センサ604に光を集束させる。図3に示すように、画像センサ304は、別々の画像化要素のグリッドパターン内に配置されてもよい。概して、画像センサ304は、入射光の色ではなく、入射光の強度を決定する。代わりに、色は通常、各画像化要素に単一の色の光のみを許可する分離機構302の使用によって決定される。例えば、ベイヤーフィルタアレイは、入射光を3つの異なる色(すなわち、赤色、緑色、青色)に分離して、これらの異なる色を画像化要素の2×2配置内で平均化するために使用可能な、3つの異なるタイプのカラーフィルタを含む。所与の画像のそれぞれは、そのような画像化要素の配置に関連付けられてもよい。したがって、各ピクセルは、赤色光、緑色光及び青色光に別々の値を割り当てられ得る。色識別の別の方法は、それぞれが画像の一部(例えば、単一の色)についてキャプチャ専用となる別々の画像センサを採用して、それらの結果を組み合わせてフルカラー画像を生成できる。
After the recording function is initiated (eg, in response to receiving an input indicating a request to capture an image), the lens focuses light on the
特徴付けモジュールの概要
図4は、画像の色の忠実度を改善するようにプログラムされた特徴付けモジュール402を含む通信環境400の例を示す。用語「モジュール」は、ソフトウェアコンポーネント、ファームウェアコンポーネント及び/又はハードウェアコンポーネントを広く示す。したがって、以下に記載するプロセスの態様は、ソフトウェア、ファームウェア及び/又はハードウェアに実装され得る。例えば、これらのプロセスは、マルチチャネル画像センサ及びマルチチャネル光源を含む電子デバイス(例えば、携帯電話)上で実行されるソフトウェアプログラム(例えば、モバイルアプリケーション)によって実行され得るか、これらのプロセスは、マルチチャネル画像センサの一部である集積回路によって実行され得る。
Overview of characterization Modules FIG. 4 shows an example of a
図4に示すように、特徴付けモジュール402は、種々異なるソースからデータを取得してもよい。ここでは、例えば、特徴付けモジュール402は、マルチチャネル画像センサ408(例えば、図1Cのカメラ152)によって生成された第1のデータ404と、マルチチャネル光源410(例えば、図1Cの光源154)によって生成された第2のデータ406とを取得する。第1のデータ404は、ピクセル単位ベースで、各センサチャネルに適切な値を指定することができる。例えば、マルチチャネル画像センサ408が3つのセンサチャネル(例えば、赤色、緑色及び青色)を含む場合、各ピクセルは、少なくとも3つの別個の値(例えば、赤色の値、緑色の値及び青色の値)に関連付けられることになる。第2のデータ406は、マルチチャネル光源410の各チャネルの特徴を指定することができる。例えば、第2のデータ406は、照明イベント(「ライティングイベント」とも称される)中の各色チャネルの駆動電流、各色チャネルのドミナント波長、各色チャネルの照度プロファイル等を指定してもよい。
As shown in FIG. 4, the
いくつかの実施形態では、マルチチャネル画像センサ408及びマルチチャネル光源410は、同じ電子デバイス内に収容されている。他の実施形態では、マルチチャネル画像センサ408及びマルチチャネル光源410は、別々のハウジング内に存在する。例えば、プロフェッショナルの写真撮影又は映像撮影の文脈では、複数のマルチチャネル画像センサ及び複数のマルチチャネル光源は、シーンの種々異なる部分をキャプチャ/照明するために、様々な配置で配置されてもよい。
In some embodiments, the multi-channel image sensor 408 and the multi-channel
図5は、特徴付けモジュール502を含むネットワーク環境500を示す。個人は、インタフェース504を介して、特徴付けモジュール502とインタフェースし得る。以下でさらに説明するように、特徴付けモジュール502は、マルチチャネル画像センサによって生成された画像の色の忠実度を改善することを担当してもよい。特徴付けモジュール502はまた、個人が改善された画像を表示する、後処理操作を開始する、設定を管理する等を行うためのインタフェースを作成及び/又はサポートすることを担当してもよい。
FIG. 5 shows a
特徴付けモジュール502は、図5に示されるように、ネットワーク環境500に存在してもよい。したがって、特徴付けモジュール502は、1つ以上のネットワーク506a~bに接続されていてもよい。ネットワーク506a~bには、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、メトロポリタンエリアネットワーク(MAN)、セルラーネットワーク、インターネット等が含まれ得る。加えて又はそれに代えて、特徴付けモジュール502は、Bluetooth(登録商標)や近距離通信(NFC)等の短距離通信プロトコルを介して電子デバイスに通信可能に結合され得る。
The
いくつかの実施形態では、特徴付けモジュール502は、マルチチャネル画像センサ及びマルチチャネル光源と同じ電子デバイス上に存在する。例えば、特徴付けモジュール502は、携帯電話のマルチチャネル画像センサを操作することができるモバイルアプリケーションの一部であり得る。他の実施形態では、特徴付けモジュール502は、ネットワークを介してマルチチャネル画像センサ及び/又はマルチチャネル光源に通信可能に結合されている。例えば、特徴付けモジュール502は、コンピュータサーバ上に存在するネットワークアクセス可能なプラットフォーム(「クラウドプラットフォーム」とも称される)によって実行されてもよい。
In some embodiments, the
インタフェース504は、好ましくは、ウェブブラウザ、デスクトップアプリケーション、モバイルアプリケーション又はオーバー・ザ・トップ(OTT)アプリケーションを介してアクセス可能である。したがって、インタフェース504は、携帯電話、タブレットコンピュータ、パーソナルコンピュータ、ゲームコンソール、音楽プレーヤ、ウェアラブル電子デバイス(例えば、時計又はフィットネスアクセサリ)、ネットワーク接続された(「スマート」)電子デバイス(例えば、テレビ又はホームアシスタントデバイス)、仮想/拡張現実システム(例:ヘッドマウントディスプレイ)又はその他の電子デバイス上に表示されてもよい。
特徴付けモジュール502のいくつかの実施形態は、ローカルにホストされる。すなわち、特徴付けモジュール502は、マルチチャネル画像センサ又はマルチチャネル光源と同じ電子デバイス上に存在してもよい。例えば、特徴付けモジュール502は、携帯電話のマルチチャネル画像センサを動作させることが可能なモバイルアプリケーションの一部であり得る。
Some embodiments of the
特徴付けモジュール502の他の実施形態は、Amazon Web Services(登録商標)(AWS)、Google Cloud Platform(商標)Microsoft Azure(登録商標)又は同様のテクノロジーによって運用されるクラウドコンピューティングサービスによって実行される。そのような実施形態では、特徴付けモジュール502は、1つ以上のコンテンツコンピュータサーバ508に通信可能に結合されたホストコンピュータサーバ上に存在してもよい。コンテンツコンピュータサーバ508は、色混合モデル、後処理に必要なアイテム(例えば、ヒューリスティックやアルゴリズム)及び他のアセットを含み得る。
Other embodiments of the
実施形態は、ネットワーク接続された電子デバイスの文脈で説明されることがあるが、特徴付けモジュール502は、必ずしもネットワークを介して継続的にアクセス可能である必要はない。例えば、電子デバイスは、展開前の構成手順を完了している間はネットワークにアクセス可能なプラットフォームにのみアクセスする、自己完結型コンピュータプログラムを実行するように構成されてもよい。そのような実施形態では、自己完結型コンピュータプログラムは、単一の時点にて、情報をネットワークアクセス可能なプラットフォームからダウンロード、又は、該プラットフォームにアップロードしてもよい。電子デバイスの展開後(例えば、電子デバイスが販売のためにパッケージ化された後)、自己完結型コンピュータプログラムは、ネットワークアクセス可能なプラットフォームと通信しなくてもよい。
Although embodiments may be described in the context of networked electronic devices, the
リファレンス発光体スペクトルを使用したホワイトバランス
現代のデジタルカメラは、画像の生成時にホワイトバランスを自動的に実行するように設計されている。例えば、電子デバイスはAWB設定を有しており、該AWB設定は、選択されると、最も明るい部分を白色点として識別してからそのリファレンスに基づいてデジタル画像の色のバランスをとるように設計されたアルゴリズムによって、シーンを評価されるようにする。このようなアプローチは、リファレンスとして使用可能な既知の反射スペクトルがシーンに含まれている際は、忠実度の高い色を生成するのにかなり効果的である傾向がある。例えば、プロフェッショナル写真家/映像作家は通常、AWBアルゴリズムのリファレンスとして使用可能なシーンに、グレーカード又はカラーチェッカーを追加するようにしている。
White Balance Using Reference Emissive Spectrum Modern digital cameras are designed to automatically perform white balance when an image is generated. For example, an electronic device has an AWB setting that, when selected, is designed to identify the brightest part as a white point and then balance the colors of the digital image based on that reference. Allows the scene to be evaluated by the algorithm. Such an approach tends to be quite effective in producing high fidelity colors when the scene contains known reflection spectra that can be used as a reference. For example, professional photographers / videographers typically add gray cards or color checkers to scenes that can be used as a reference for AWB algorithms.
該シーンが既知の反射スペクトルを含まないとき、AWBアルゴリズムは、色に関して目に見えて不正確なデジタル画像を生成する可能性がある(多くの場合、そうなる)。例えば、該シーンにおいて赤色が支配的である場合、AWBアルゴリズムはこれをウォームな発光体によって誘発された色被りと間違えて、平均色をニューラル(neural)に近づけることによって補正することを試みることがある。しかしながら、これによって青みがかった色被りが導入され、この色被りはかなり目立ち得る。 When the scene does not contain a known reflection spectrum, the AWB algorithm can (and often does) produce a digital image that is visibly inaccurate with respect to color. For example, if red is dominant in the scene, the AWB algorithm may try to correct it by confusing it with a warm illuminant-induced color cast and bringing the average color closer to neural. be. However, this introduces a bluish tint, which can be quite noticeable.
既知の反射スペクトルを追加することは多くの状況において現実的でないため、忠実度の高い色で画像を生成するためのより良いアプローチが必要である。本明細書に提示するのは、既知の反射スペクトルが全くない場合において、忠実度の高い色再現を実現するためのコンピュータプログラム、及び、関連するコンピュータ実装技術である。すなわち、忠実度の高い色再現が、グレーカードやカラーチェッカー等のポータブルリファレンスを用いることなく実現可能である。これを実現するために、新規なリファレンススペクトル「リファレンス発光体スペクトル」が、画像センサによって画像化されることになるシーンに導入される。リファレンス発光体スペクトルは、スペクトル特性が既知のマルチチャネル光源によって作成される。 Adding known reflection spectra is not practical in many situations, so a better approach is needed to generate images with high fidelity colors. Presented herein are computer programs and related computer implementation techniques for achieving high fidelity color reproduction in the absence of any known reflection spectrum. That is, color reproduction with high fidelity can be realized without using a portable reference such as a gray card or a color checker. To achieve this, a new reference spectrum, the "reference illuminant spectrum," is introduced into the scene that will be imaged by the image sensor. The reference illuminant spectrum is created by a multi-channel light source with known spectral characteristics.
図6は、マルチチャネル画像センサとマルチチャネル光源とを含む電子デバイスを展開前に較正するプロセス600のフロー図を示す。プロセス600は、販売のためにパッケージ化される前に、電子デバイスの製造元によって開始されてもよい。
FIG. 6 shows a flow diagram of
まず、製造元は、少なくとも1つの既知の反射スペクトルを含むシーンを選択する(ステップ601)。通常、製造元は、1つ以上のポータブルリファレンスを含むシーンを選択及び/又は作成することによって、これを実現する。ポータブルリファレンスの一例は、フラットな反射スペクトルに由来するニュートラルグレーカラーのフラットな表面であり、これは「グレーカード」と称される。ポータブルリファレンスの別の例は、種々異なる反射スペクトルに対応する一連の種々異なる色のフラットな表面であり、「カラーチェッカー」と称される。一般に、製造元は、様々な異なる反射スペクトルが含まれるようにシーンを選択する。これらの種々異なる反射スペクトルは、単一のポータブルリファレンス(例:カラーチェッカー)、又は、複数のポータブルリファレンス(例:カラーチェッカーとグレーカード)によって提供され得る。 First, the manufacturer selects a scene that contains at least one known reflection spectrum (step 601). Manufacturers typically achieve this by selecting and / or creating a scene that contains one or more portable references. An example of a portable reference is a flat surface in neutral gray color derived from a flat reflection spectrum, which is referred to as a "gray card". Another example of a portable reference is a series of flat surfaces of different colors that correspond to different reflection spectra and is referred to as a "color checker". In general, the manufacturer selects the scene to include a variety of different reflection spectra. These different reflection spectra can be provided by a single portable reference (eg, color checker) or by multiple portable references (eg, color checker and gray card).
次に、シーンの画像のセットが、相次いでキャプチャされる。例えば、電子デバイスは、該シーンの第1の画像を、第1の露出間隔にわたって、自動ホワイトバランス(AWB)設定を用いてキャプチャする(ステップ602)と共に、該シーンの第2の画像を、第2の露出間隔にわたって、固定ホワイトバランス(FWB)設定を用いてキャプチャしてもよい(ステップ603)。第1の画像も第2の画像も、マルチチャネル光源によって実行される照明イベントと組み合わせて撮影されることはない。換言すれば、第1及び第2の画像は、同じ周囲光だが異なるホワイトバランス設定と組み合わせてキャプチャされる。通常、AWB設定は、色被りを自動的に修正するために、デフォルトでは電子デバイスによって適用される。一方、FWB設定は、カスタムホワイトバランスであるか、電子デバイスによって提供される、様々な色温度に対応するプリセットホワイトバランスのうち1つであるかのいずれかであってもよい。プリセットホワイトバランスの例には、タングステン、蛍光灯、日中、フラッシュ、曇天、日陰等が含まれる。概して、第1の露出間隔は、第2の露出間隔とは異なる。例えば、第2の露出間隔は、第1の露出間隔の10、20、30又は50パーセントであってもよい。 Next, a set of images of the scene is captured one after another. For example, the electronic device captures a first image of the scene over the first exposure interval using the automatic white balance (AWB) setting (step 602) and a second image of the scene. You may capture using the fixed white balance (FWB) setting over the exposure interval of 2 (step 603). Neither the first image nor the second image is taken in combination with a lighting event performed by a multi-channel light source. In other words, the first and second images are captured in combination with the same ambient light but different white balance settings. Normally, AWB settings are applied by electronic devices by default to automatically correct color cast. On the other hand, the FWB setting may be either a custom white balance or one of the preset white balances provided by the electronic device for various color temperatures. Examples of preset white balances include tungsten, fluorescent lights, daytime, flash, cloudy weather, shade and the like. In general, the first exposure interval is different from the second exposure interval. For example, the second exposure interval may be 10, 20, 30 or 50 percent of the first exposure interval.
電子デバイスはまた、該シーンの一連の示差的に照明された画像を、FWB設定を用いてキャプチャしてもよい(ステップ604)。すなわち、電子デバイスは、一連の種々異なる発光体スペクトルと組み合わせて一連の画像をキャプチャしてもよい。図9に関して以下でさらに説明するように、該一連の異なる発光体スペクトルは、全ての色チャネルが単一の色チャネルによってより高い強度で照明される一連のフラッシュが生成されるようにマルチチャネル光源の各色チャネルを集成する(addressing)ことによって、生成可能である。したがって、示差的に照明された画像の数は、マルチチャネル光源が有する色チャネルの数に対応してもよい。 The electronic device may also capture a series of differentially illuminated images of the scene using the FWB setting (step 604). That is, the electronic device may capture a series of images in combination with a series of different illuminant spectra. As further described below with respect to FIG. 9, the series of different emitter spectra is a multi-channel light source such that all color channels produce a series of flashes that are illuminated with higher intensity by a single color channel. It can be generated by addressing each color channel of. Therefore, the number of differentially illuminated images may correspond to the number of color channels of the multi-channel light source.
その後、特徴付けモジュールは、画像のセット、すなわち、第1の画像、第2の画像、及び一連の示差的に照明された画像の分析に基づいて、較正行列を計算することができる(ステップ605)。図7に関して以下でさらに説明するように、較正行列の各エントリは、画像のセット内の対応するピクセルから計算された係数のベクトルを含んでいてもよい。次に、特徴付けモジュールは、該較正行列を、電子デバイスにアクセス可能なメモリ内に格納することができる(ステップ606)。通常、較正行列は、後の画像化動作の間により迅速にコールバックされるために、電子デバイスのローカルメモリ内に格納される。しかしながら、較正行列は、ローカルメモリの代わりに又はそれに加えて、ネットワークを介して電子デバイスにアクセス可能なリモートメモリ内に格納される可能性がある。 The characterization module can then calculate the calibration matrix based on the analysis of a set of images, i.e., a first image, a second image, and a series of differentially illuminated images (step 605). ). As further described below with respect to FIG. 7, each entry in the calibration matrix may contain a vector of coefficients calculated from the corresponding pixels in the set of images. The characterization module can then store the calibration matrix in memory accessible to the electronic device (step 606). The calibration matrix is usually stored in the local memory of the electronic device for quicker callback during later imaging operations. However, the calibration matrix may be stored in remote memory accessible to electronic devices over the network, in place of or in addition to local memory.
図7は、AWB設定を用いてキャプチャされた第1の画像と、FWB設定を用いてキャプチャされた第2の画像と、FWB設定を用いてキャプチャされた一連の示差的に照明された画像とに基づいて、較正行列を計算するプロセス700のフロー図を示す。高水準では、特徴付けモジュールは、各ピクセル毎に、較正行列内の対応するエントリに登録するために使用可能な、周囲が差し引かれた色度フィンガープリント(又は、単に「色度フィンガープリント」)を生成できる。
FIG. 7 shows a first image captured using the AWB setting, a second image captured using the FWB setting, and a series of differentially illuminated images captured using the FWB setting. The flow diagram of the
まず、特徴付けモジュールは、第2の画像内の各ピクセルの赤色、緑色及び青色の値を、一連の示差的に照明された画像内の対応するピクセルの赤色、緑色及び青色の値から除算することによって、一連の改変された画像を作成する(ステップ701)。これにより、各ピクセルの赤色、緑色及び青色のチャネルが、照明されていない第2の画像におけるその量だけ減少した、改変された画像が得られる。 First, the characterization module divides the red, green, and blue values of each pixel in the second image from the red, green, and blue values of the corresponding pixels in a series of differentially illuminated images. This creates a series of modified images (step 701). This results in a modified image in which the red, green and blue channels of each pixel are reduced by that amount in the unlit second image.
次に、特徴付けモジュールは、各ピクセルが一連のa*値及び一連のb*値によって表されるように、一連の改変された画像をCIELAB色空間に変換する(ステップ702)。CIELAB色空間(「CIE L*a*b*色空間」又は「Lab色空間」とも称される)では、色は、明度L*(黒色(0)~白色(11))、a*(緑色(-)~赤色(+))、b*(青色(-)~黄色(+))の3つの値として表現される。色度フィンガープリントは、これらのa*値及びb*値からなる。例えば、マルチチャネル光源が5つの色チャネルを含んでいると仮定する。このような状況では、一連の改変された画像が5つの画像を含むことになり、各ピクセルについての色度フィンガープリント(F)は、以下のベクトル形式で表現可能である:
F=[a*
1b*
1a*
2b*
2a*
3b*
3a*
4b*
4a*
5b*
5]
ここで、各値のペア(a*
ib*
i)は、改変された画像の1つにおける対応するピクセルに関連付けられている。同様に、特徴付けモジュールは、各ピクセルがリファレンスa*値及びリファレンスb*値として表されるように、第1の画像をCIELAB色空間に変換することができる(ステップ703)。グラウンドトゥルースの答えを表すリファレンスa*及びb*値は、以下に示すベクトル形式で表すことができる。
[a*
rb*
r]
The characterization module then transforms a series of modified images into a CIELAB color space so that each pixel is represented by a series of a * values and a series of b * values (step 702). In the CIELAB color space (also referred to as "CIE L * a * b * color space" or "Lab color space"), the colors are lightness L * (black (0) to white (11)), a * (green). It is expressed as three values (-) to red (+)) and b * (blue (-) to yellow (+)). The chromaticity fingerprint consists of these a * and b * values. For example, suppose a multi-channel light source contains five color channels. In such a situation, the series of modified images will contain 5 images, and the chromaticity fingerprint (F) for each pixel can be represented in the following vector format:
F = [a * 1 b * 1 a * 2 b * 2 a * 3 b * 3 a * 4 b * 4 a * 5 b * 5 ]
Here, each value pair (a * i b * i ) is associated with the corresponding pixel in one of the modified images. Similarly, the characterization module can transform the first image into the CIELAB color space so that each pixel is represented as a reference a * value and a reference b * value (step 703). The reference a * and b * values representing Ground Truth's answer can be expressed in the vector format shown below.
[A * r b * r ]
各ピクセル毎に、特徴付けモジュールは、a*及びb*についての線形方程式系を、係数(C)のベクトルを用いて以下に示すように形成することができる。
C・[a*
1b*
1a*
2b*
2a*
3b*
3a*
4b*
4a*
5b*
5]xy=a*
r,xy
C・[a*
1b*
1a*
2b*
2a*
3b*
3a*
4b*
4a*
5b*
5]xy=b*
r,xy
ここで、C=[c1c2c3c4c5]であり、xyはピクセルの座標である。したがって、第1の画像の所与のピクセルの色の値は、係数のベクトルと、一連の改変された画像から決定された該ピクセルの色度フィンガープリントとの内積として規定される。高水準では、線形方程式系のそれぞれは、(i)所与のピクセルのリファレンスa*値と該所与のピクセルの一連のa*値とに基づく第1の線形方程式を表す(ステップ704)と共に(ii)所与のピクセルのリファレンスb*値及び該所与のピクセルの一連のb*値に基づく第2の線形方程式を表す(ステップ705)。
For each pixel, the characterization module can form a system of linear equations for a * and b * using the vector of coefficients (C) as shown below.
C ・ [a * 1 b * 1 a * 2 b * 2 a * 3 b * 3 a * 4 b * 4 a * 5 b * 5 ] xy = a * r, xy
C ・ [a * 1 b * 1 a * 2 b * 2 a * 3 b * 3 a * 4 b * 4 a * 5 b * 5 ] xy = b * r, xy
Here, C = [c 1 c 2 c 3 c 4 c 5 ], and xy is the coordinate of the pixel. Therefore, the color value of a given pixel in the first image is defined as the inner product of the coefficient vector and the chromaticity fingerprint of that pixel determined from a series of modified images. At a high level, each of the systems of linear equations, with (i) a first linear equation based on (i) a reference a * value of a given pixel and a series of a * values of the given pixel (step 704). (Ii) Represents a second linear equation based on a reference b * value of a given pixel and a series of b * values of the given pixel (step 705).
その後、特徴付けモジュールは、各ピクセル毎に、係数のベクトルを生成するために、線形方程式系に対して最小二乗最適化を実行することができる(ステップ706)。換言すれば、特徴付けモジュールは、係数を確立するために、最小二乗最適化を実行することができる。次に、特徴付けモジュールは、較正行列を表すデータ構造に、係数のベクトルを登録することができる(ステップ707)。較正行列内の各エントリは、対応するピクセルに対して確立された係数のベクトルを含んでいてもよい。 The characterization module can then perform a least squares optimization on the system of linear equations to generate a vector of coefficients for each pixel (step 706). In other words, the characterization module can perform least squares optimization to establish the coefficients. The characterization module can then register a vector of coefficients in the data structure representing the calibration matrix (step 707). Each entry in the calibration matrix may contain a vector of coefficients established for the corresponding pixel.
図8は、(例えば、図6のプロセス600を完了することによって)展開前の較正プロセス中に電子デバイス用に作成された較正行列を採用するプロセス800のフロー図を示す。較正行列を採用することによって、電子デバイスは、ポータブルリファレンスがシーン内に存在している必要なく、忠実度の高い色再現を達成することができる。
FIG. 8 shows a flow diagram of
まず、シーンの画像のセットが、相次いでキャプチャされる。例えば、電子デバイスは、該シーンの第1の画像を、第1の露出間隔にわたって、AWB設定を用いてキャプチャする(ステップ801)と共に、該シーンの第2の画像を、第2の露出間隔にわたって、FWB設定を用いてキャプチャしてもよい(ステップ802)。第1の画像も第2の画像も、マルチチャネル光源によって実行される照明イベントと組み合わせて撮影されることはない。概して、第1の露出間隔は、第2の露出間隔とは異なる。例えば、第2の露出間隔は、第1の露出間隔の10、20、30又は50パーセントであってもよい。電子デバイスはまた、該シーンの一連の示差的に照明された画像を、FWB設定を用いてキャプチャしてもよい(ステップ803)。すなわち、電子デバイスは、一連の種々異なる発光体スペクトルと組み合わせて一連の画像をキャプチャしてもよい。図9に関して以下でさらに説明するように、該一連の異なる発光体スペクトルは、全ての色チャネルが単一の色チャネルによってより高い強度で照明される一連のフラッシュが生成されるようにマルチチャネル光源の各色チャネルを集成することによって、生成可能である。したがって、示差的に照明された画像の数は、マルチチャネル光源が有する色チャネルの数に対応してもよい。 First, a set of images of the scene is captured one after another. For example, the electronic device captures the first image of the scene over the first exposure interval using the AWB setting (step 801) and captures the second image of the scene over the second exposure interval. , You may capture using the FWB setting (step 802). Neither the first image nor the second image is taken in combination with a lighting event performed by a multi-channel light source. In general, the first exposure interval is different from the second exposure interval. For example, the second exposure interval may be 10, 20, 30 or 50 percent of the first exposure interval. The electronic device may also capture a series of differentially illuminated images of the scene using the FWB setting (step 803). That is, the electronic device may capture a series of images in combination with a series of different illuminant spectra. As further described below with respect to FIG. 9, the series of different emitter spectra is a multi-channel light source such that all color channels produce a series of flashes that are illuminated with higher intensity by a single color channel. It can be generated by assembling each color channel of. Therefore, the number of differentially illuminated images may correspond to the number of color channels of the multi-channel light source.
次に、特徴付けモジュールは、第2の画像内の各ピクセルの赤色、緑色及び青色の値を、一連の示差的に照明された画像内の対応するピクセルの赤色、緑色及び青色の値から除算することによって、一連の改変された画像を作成する(ステップ804)。これにより、各ピクセルの赤色、緑色及び青色のチャネルが、照明されていない第2の画像におけるその量だけ減少した、改変された画像が得られる。次に、特徴付けモジュールは、各ピクセルについて、一連の改変された画像に基づいて、色度フィンガープリントを生成し得る(ステップ805)。図8のステップ805は、図7のステップ702と実質的に同様である。これらの色度フィンガープリントに較正行列を乗算し、それによって各ピクセル毎の較正されたa*値及び較正されたb*値を取得し得る(ステップ806)。より具体的には、各色度フィンガープリントに較正行列内の対応するエントリを乗算し、それによって較正されたa*及びb*値を取得し得る。概して、較正行列は、電子デバイスのローカルメモリ内に格納されている。しかしながら、較正行列は、電子デバイスがネットワークを介して接続されるリモートメモリから引き出され得る。 The characterization module then divides the red, green, and blue values of each pixel in the second image from the red, green, and blue values of the corresponding pixels in a series of differentially illuminated images. By doing so, a series of modified images is created (step 804). This results in a modified image in which the red, green and blue channels of each pixel are reduced by that amount in the unlit second image. The characterization module may then generate a chromaticity fingerprint for each pixel based on a series of modified images (step 805). Step 805 of FIG. 8 is substantially similar to step 702 of FIG. These chromaticity fingerprints can be multiplied by a calibration matrix to obtain calibrated a * and calibrated b * values for each pixel (step 806). More specifically, each chromaticity fingerprint can be multiplied by the corresponding entry in the calibration matrix to obtain the calibrated a * and b * values. Generally, the calibration matrix is stored in the local memory of the electronic device. However, the calibration matrix can be drawn from remote memory to which the electronic device is connected over the network.
その後、特徴付けモジュールは、各ピクセルがL*値、a*値、及びb*値として表されるように、第1の画像をCIELAB色空間に変換することができる(ステップ807)。しかしながら、これらのa*及びb*値を使用するのではなく、特徴付けモジュールは、それらをステップ806にて取得された較正されたa*及びb*値で置換することによって、較正された画像を生成することができる。この較正された画像は、第1の画像のL*値と、一連の改変された画像から導出された較正されたa*及びb*値を用いて、色を表現してもよい。
The characterization module can then transform the first image into the CIELAB color space so that each pixel is represented as an L * value, an a * value, and a b * value (step 807). However, rather than using these a * and b * values, the characterization module replaces them with the calibrated a * and b * values obtained in
物理的可能性に反しない限り、上述のステップは、様々な順序及び組み合わせで実行されてもよいことが想定される。例えば、図6のプロセス600の複数のインスタンスは、画像の複数のセットに対して実行され得る。他のステップもまた、いくつかの実施形態に含まれていてもよい。例えば、電子デバイスは、確認のために、較正された画像をインタフェース上に表示させることができる。電子デバイスは、個人が差異を確認できるように、較正された画像を第1の画像の近くに表示し得る、又は、電子デバイスは、個人が較正された画像と第1の画像とを交互に切り替えることを可能にし得る。
It is envisioned that the above steps may be performed in various orders and combinations, as long as it does not violate physical potential. For example, multiple instances of
図9は、マルチチャネル光源(又は単に「光源」)が一連の照明イベントを実行し、それによってシーンを示差的に照明する方法を図示する。示差的な照明は、図6に関して記載した較正プロセス及び図8に関して記載した最適化プロセスの鍵となる可能性がある。 FIG. 9 illustrates how a multi-channel light source (or simply a "light source") performs a series of lighting events, thereby illuminating the scene differentially. Differential lighting can be key to the calibration process described for FIG. 6 and the optimization process described for FIG.
例えば、光源に5つの異なる色チャネルが含まれており、5つの異なる発光体スペクトルが生成されるとする。各色チャネルは、個別に電流で駆動されてもよい。より具体的には、各色チャネルは、オフ状態(例えば、出力レベルが0である場合)と最大強度状態(例えば、出力レベルが255である場合)との間のいくつかの中間状態にて集成可能であってもよい。一例として、最大強度状態は、およそ1アンペアの出力電流に対応していてもよく、一方で、全ての中間状態は、何らかの小数アンペアに対応し得る。 For example, suppose a light source contains five different color channels and produces five different illuminant spectra. Each color channel may be individually driven by an electric current. More specifically, each color channel aggregates in some intermediate state between the off state (eg, when the output level is 0) and the maximum intensity state (eg, when the output level is 255). It may be possible. As an example, the maximum intensity state may correspond to an output current of approximately 1 amp, while all intermediate states may correspond to some fractional amp.
種々異なる発光体スペクトルを生成するために、種々異なる色チャネルの駆動電流が変更され得る。図9は、対応する複合発光体スペクトルと共に示さるチャネルスペクトルの5つの異なる組み合わせの例を含む。ここで、各複合発光体スペクトルは、4つの色チャネルを出力レベル100にて駆動し、1つの色チャネルを出力レベル150にて駆動することによって生成される。しかしながら、当業者は、これらの番号が単に説明の目的のためにのみ提供されていることを認識するであろう。概して、1つの出力レベルが他の出力レベルよりも高い限りにおいて、出力レベル自体は重要ではないが、白色光を生成するのに十分な電流で全ての色チャネルを駆動することが望ましいことがある。図9に示すように、各複合発光体スペクトルは、それぞれ異なるスペクトルパワー分布(SPD)を有する。 The drive currents of the different color channels can be modified to produce different illuminant spectra. FIG. 9 contains examples of five different combinations of channel spectra shown with the corresponding complex illuminant spectra. Here, each composite illuminant spectrum is generated by driving four color channels at an output level of 100 and one color channel at an output level of 150. However, one of ordinary skill in the art will recognize that these numbers are provided solely for explanatory purposes. In general, as long as one output level is higher than the other, the output level itself is not important, but it may be desirable to drive all color channels with sufficient current to produce white light. .. As shown in FIG. 9, each composite illuminant spectrum has a different spectral power distribution (SPD).
忠実度の高い色再現の必要性の証拠
図10~16は、忠実度の高い色を再現するために、本明細書に記載のリファレンス発光体ホワイトバランス(RIWB)アプローチが必要な理由を図示する。各図面において、左上隅の第1の画像は、既知の反射スペクトルを有さないシーンでAWB設定を用いて撮影されている一方で、右上隅の第2の画像は、(ここでは、カラーチェッカーによって提供される)既知の反射スペクトルを有する同じシーンでAWB設定を用いて撮影されている。高水準では、第2の画像は、第1の画像が実際にどのように見えるかを示す「グラウンドトゥルース」と考えることができる。
Evidence of the Need for High Fidelity Color Reproduction Figures 10-16 illustrate why the reference illuminant white balance (RIWB) approach described herein is needed to reproduce high fidelity colors. .. In each drawing, the first image in the upper left corner is taken with the AWB setting in a scene that does not have a known reflection spectrum, while the second image in the upper right corner (here, the color checker). The same scene with a known reflection spectrum (provided by) is taken with the AWB setting. At a high level, the second image can be thought of as a "ground truth" that shows what the first image actually looks like.
これらの画像の下には、2つの列がある。第1の列は、各画像のセグメント化された部分内におけるピクセルの平均色の比較を含み、第2の列は、それらのピクセルの明度スケーリング操作後における平均色の比較を視覚的に含む。これらの平均色値は、第1の画像のピクセルが第2の画像と比較してどれほど近いかについての指標を提供する。なお、これらの平均色値は、かなり離れている可能性があることに留意されたい。実際、これらの平均色値は、色誤差に対応するデルタE(dE)値によって示されるように、ほとんどの場合、互いに容易に区別できる。これらのデルタE値の多くは5.0を超えており、これは、第1の画像と第2の画像との視覚的な違いが非常に目立つはずであることを意味する。本明細書に記載のRIWBアプローチを採用することによって、1.0未満のデルタE値を達成することができる。ほとんどの場合、デルタE値が1.0未満である色のペアは、視覚的に互いに区別不可能となる。 Below these images are two columns. The first column contains a comparison of the average colors of the pixels within the segmented portion of each image, and the second column visually contains a comparison of the average colors of those pixels after the brightness scaling operation. These average color values provide an indicator of how close the pixels of the first image are compared to the second image. It should be noted that these average color values can be quite different. In fact, these average color values are, in most cases, easily distinguishable from each other, as indicated by the delta E (dE) value corresponding to the color error. Many of these delta E values are above 5.0, which means that the visual difference between the first and second images should be very noticeable. By adopting the RIWB approach described herein, a delta E value of less than 1.0 can be achieved. In most cases, color pairs with a delta E value of less than 1.0 are visually indistinguishable from each other.
第2の列は、セグメント化された部分が同じ明度になるように調整されていることを除いて、第1の列とほぼ同じである。すなわち、セグメント化された部分のピクセルは、CIELAB色空間で同じL*値を有するようにスケーリングされる。これは、既知の反射スペクトルと未知の反射スペクトルとを比較する際において、カラーチェッカーの導入が露出に影響し、それによって第2の画像が明るくなったり暗くなったりすることがあるために行われる。第2の列において見られるように、第1及び第2の画像のセグメント化された部分の間で輝度レベルを等しくしたにもかかわらず(すなわち、これらの画像の暗い部分を明るくしたり、これらの画像の明るい部分を暗くしたりすることによって)、色は未だ大幅にずれている。 The second column is similar to the first column, except that the segmented parts are adjusted to have the same lightness. That is, the pixels in the segmented portion are scaled to have the same L * value in the CIELAB color space. This is done because the introduction of a color checker can affect the exposure when comparing the known and unknown reflection spectra, which can make the second image brighter or darker. .. As can be seen in the second column, despite equalizing the brightness levels between the segmented parts of the first and second images (ie, brightening the dark parts of these images, or these. The colors are still significantly off (by darkening the bright areas of the image).
コンピューティングシステム
図17は、本明細書に記載の動作の少なくともいくつかを実装可能なコンピューティングシステム1700の例を示すブロック図である。例えば、コンピューティングシステム1700のいくつかのコンポーネントは、マルチチャネル光源及び/又はマルチチャネル画像センサを含む電子デバイス(例えば、図1の電子デバイス150)の一部であってもよい。
Computing System FIG. 17 is a block diagram showing an example of a
コンピューティングシステム1700は、1つ以上の中央処理ユニット(「プロセッサ」とも称される)1702と、メインメモリ1706と、不揮発性メモリ1710と、ネットワークアダプタ1712(例えば、ネットワークインタフェース)と、ビデオディスプレイ1718と、入力/出力デバイス1720と、制御デバイス1722(例えば、キーボード及びポインティングデバイス)と、記憶媒体1726を含むドライブユニット1724と、バス1716に通信可能に接続された信号生成デバイス1730とを含んでいてもよい。バス1716は、適切なブリッジ、アダプタ又はコントローラによって接続された1つ以上の物理バス及び/又はポイントツーポイント接続を表す抽象概念として図示されている。したがって、バス1716には、システムバス、周辺機器相互接続(Peripheral Component Interconnect、PCI)バス又はPCI-Expressバス、HyperTransport又は業界標準アーキテクチャ(ISA)バス、小型コンピュータシステムインタフェース(SCSI)バス、ユニバーサルシリアルバス(USB)、IIC(I2C)バス、又は電気電子技術者協会(IEEE)の標準1394バス(「Firewire」とも称される)が含まれ得る。
The
コンピューティングシステム1700は、パーソナルコンピュータ、タブレットコンピュータ、携帯電話、ゲームコンソール、音楽プレーヤ、ウェアラブル電子デバイス(例えば、時計又はフィットネストラッカー)、ネットワーク接続(「スマート」)デバイス(例えば、テレビ又はホームアシスタントデバイス)、仮想/拡張現実システム(例えば、ヘッドマウントディスプレイ)、又は、コンピューティングシステム1700によって行われることになる(1つ以上の)アクションを指定する命令のセットを(逐次的に又はそれ以外の方法で)実行可能な別の電子デバイスと同様のコンピュータプロセッサアーキテクチャを共有してもよい。
The
メインメモリ1706、不揮発性メモリ1710及び記憶媒体1726(「機械可読媒体」とも称される)は、単一の媒体として示されているが、用語「機械可読媒体」及び「記憶媒体」は、1つ以上の命令のセット1728を記憶する単一の媒体又は複数の媒体(例えば、集中データベース若しくは分散データベース、並びに/又は、関連するキャッシュ及びサーバ)を含むと解されるべきである。用語「機械可読媒体」及び「記憶媒体」は、コンピューティングシステム1700により実行される命令のセットを格納、符号化又は運搬可能な任意の媒体を含むと解されるべきである。
The main memory 1706, the
全体として、本開示の実施形態を実施するために実行されるルーチンは、オペレーティングシステム又は特定のアプリケーション、コンポーネント、プログラム、オブジェクト、モジュール若しくは命令シーケンス(あわせて「コンピュータプログラム」と称される)の一部として実装されてもよい。コンピュータプログラムは、典型的には、コンピュータの様々なメモリ及び記憶デバイス内に、種々の時点にセットされた1つ以上の命令(例えば、命令1704,1708,1728)を含む。該(1つ以上の)命令は、1つ以上のプロセッサ1702によって読み取られて実行された際に、コンピューティングシステム1700に、本開示の様々な態様を伴う要素を実行する動作を行わせる。
As a whole, the routine performed to implement the embodiments of the present disclosure is one of an operating system or a particular application, component, program, object, module or instruction sequence (collectively referred to as a "computer program"). It may be implemented as a part. A computer program typically comprises one or more instructions set at various time points (eg, instructions 1704, 1708, 1728) in various memory and storage devices of the computer. When the (one or more) instructions are read and executed by one or more processors 1702, the
さらに、実施形態は、完全に機能するコンピューティングデバイスの文脈にて記載されているが、当業者であれば、種々の実施形態が様々な形態のプログラム製品として配布可能であることを理解するであろう。本開示は、実際に配布を行うために使用される機械又はコンピュータ可読媒体の特定のタイプにかかわらず適用される。 Further, although embodiments are described in the context of fully functional computing devices, one of ordinary skill in the art will appreciate that different embodiments can be distributed as different forms of program product. There will be. This disclosure applies regardless of the particular type of machine or computer readable medium actually used for distribution.
機械可読記憶媒体、機械可読媒体又はコンピュータ可読媒体のさらなる例には、揮発性及び不揮発性メモリデバイス1710、フロッピー及び他のリムーバブルディスク、ハードディスクドライブ、光ディスク(例えば、コンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD))等のような記録可能型媒体、及び、デジタル及びアナログ通信リンクのような伝送型媒体が含まれる。
Further examples of machine-readable storage media, machine-readable media or computer-readable media include volatile and
ネットワークアダプタ1712は、コンピューティングシステム1700が、コンピューティングシステム1700及び外部エンティティによってサポートされる任意の通信プロトコルを通じて、コンピューティングシステム1700の外部にあるエンティティを用いてネットワーク1714内のデータを仲介することを可能にする。ネットワークアダプタ1712は、ネットワークアダプタカード、ワイヤレスネットワークインタフェースカード、ルータ、アクセスポイント、ワイヤレスルータ、スイッチ、マルチレイヤスイッチ、プロトコル変換器、ゲートウェイ、ブリッジ、ブリッジルータ、ハブ、デジタルメディアレシーバ及び/又はリピータを含むことができる。
The
ネットワークアダプタ1712は、コンピュータネットワーク内のデータにアクセス/プロキシするためのパーミッションを統御及び/又は管理してもよく、かつ、種々異なるマシン及び/又はアプリケーションの間の様々なレベルの信頼を追跡するファイアウォールを含んでいてもよい。ファイアウォールは、特定のマシンのセットとアプリケーションとの間、マシンとマシンとの間、及び/又は、アプリケーションとアプリケーションとの間で(例えば、これらのエンティティ間のトラフィック及びリソース共有のフローを規制するために)所定のアクセス権のセットを実施可能なハードウェア及び/又はソフトウェアコンポーネントの任意の組み合わせを有する、任意の数のモジュールであり得る。ファイアウォールはさらに、個人、マシン及び/又はアプリケーションによるオブジェクトのアクセス権及び操作権を含むパーミッション、並びに、パーミッション権が有効である状況について詳述するアクセス制御リストを管理する、及び/又は、該アクセス制御リストにアクセスすることができる。
The
本明細書にて提示される技術は、プログラム可能な回路(例えば、1つ以上のマイクロプロセッサ)、ソフトウェア及び/若しくはファームウェア、専用のハードワイヤード(すなわち、プログラム不可能な)回路、又は、そのような形態の組み合わせによって実装され得る。専用の回路は、1つ以上の特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)等の形式であり得る。 The techniques presented herein are programmable circuits (eg, one or more microprocessors), software and / or firmware, dedicated hard-wired (ie, non-programmable) circuits, or as such. It can be implemented by a combination of various forms. Dedicated circuits can be in the form of one or more application specific integrated circuits (ASICs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like.
備考
特許請求された主題における種々の実施形態についての前述の説明は、例示及び説明のために提供されたものである。該説明は、網羅的であることや、特許請求された主題を開示された正確な形態に限定することを意図したものではない。多くの改変及び変形は、当業者には明らかであろう。実施形態は、本発明の原理及びその実際の応用を最も良く説明するために選択及び記載されており、そのため、関連技術の当業者は、特許請求された主題、種々の実施形態及び考慮される特定の用途に適した種々の修正を、これらの実施形態から理解することができる。
NOTE The above description of the various embodiments in the claimed subject matter are provided for illustration and explanation. The description is not intended to be exhaustive or to limit the claimed subject matter to the exact form disclosed. Many modifications and variations will be apparent to those skilled in the art. Embodiments have been selected and described to best illustrate the principles of the invention and its practical application, so that those skilled in the art of related art will appreciate the claimed subject matter, various embodiments and considerations. Various modifications suitable for a particular application can be understood from these embodiments.
詳細な説明では特定の実施形態及び考慮される最良の形態について説明しているが、上記にてどの程度まで詳細に開示されているかにかかわらず、それらの実施形態は多くの方法にて実施され得る。実施形態は、それらの実装の詳細において相当に変化することがあるが、それらは依然として本明細書に包含される。種々の実施形態における特定の機能又は態様を説明する際に使用される特定の用語は、本明細書において、関連する本技術の特定の特徴、機能、又は態様に限定されるようにその用語が再定義されることを暗に意味するものとして理解されるべきではない。全体として、以下の特許請求の範囲にて使用される用語は、本明細書で明示的に定義されていない限り、本技術を本明細書に開示される特定の実施形態にまで限定するように解釈されるべきではない。したがって、本技術の実際の範囲は、開示の実施形態だけでなく、それらの実施形態を実施又は実装する全ての均等な方法を包含する。 Although the detailed description describes specific embodiments and the best embodiments to be considered, those embodiments are performed in many ways, regardless of how detailed they are disclosed above. obtain. Although embodiments may vary considerably in the details of their implementation, they are still incorporated herein. The particular term used in describing a particular function or embodiment in various embodiments is herein limited to a particular feature, function, or embodiment of the art in which it relates. It should not be understood as an implicit implication of being redefined. As a whole, the terms used in the following claims are intended to limit the technique to the specific embodiments disclosed herein, unless expressly defined herein. Should not be interpreted. Accordingly, the practical scope of the present invention includes not only the disclosed embodiments but all equal methods of implementing or implementing those embodiments.
本明細書で使用される言語は、主に可読性及び教示目的のために選択されたものであって、本発明の主題を線引き又は制限するために選択されていないことがある。したがって、本技術の範囲は、この詳細な説明によってではなく、本明細書に基づく出願において公表される任意の請求項によって限定されることが意図される。したがって、種々の実施形態の開示は、以下の特許請求の範囲に記載されるような技術の範囲を例示するものであって、それらを限定するものではないことが意図される。 The language used herein is selected primarily for readability and teaching purposes and may not be selected to delineate or limit the subject matter of the invention. Accordingly, the scope of the art is intended to be limited not by this detailed description but by any claims published in the application under this specification. Therefore, the disclosure of the various embodiments is intended to illustrate, but not limit, the scope of the art as described in the claims below.
Claims (19)
少なくとも1つの既知の反射スペクトルを有するシーンの第1の画像を、第1の露出間隔にわたって、自動ホワイトバランス(AWB)設定を用いてキャプチャするステップと、
前記シーンの第2の画像を、前記第1の露出間隔とは異なる第2の露出間隔にわたって、固定ホワイトバランス(FWB)設定を用いてキャプチャするステップと、
前記シーンの一連の示差的に照明された画像を、前記FWB設定を用いてキャプチャするステップと、
前記第1の画像、前記第2の画像及び前記一連の示差的に照明された画像に基づいて、較正行列を計算するステップと、
前記較正行列を、前記電子デバイスにアクセス可能なメモリ内に保存するステップと
を含む、方法。 A method for calibrating electronic devices using image sensors.
A step of capturing a first image of a scene with at least one known reflection spectrum using an automatic white balance (AWB) setting over the first exposure interval.
A step of capturing a second image of the scene with a fixed white balance (FWB) setting over a second exposure interval different from the first exposure interval.
A step of capturing a series of differentially illuminated images of the scene using the FWB settings.
A step of calculating a calibration matrix based on the first image, the second image, and the series of differentially illuminated images.
A method comprising storing the calibration matrix in a memory accessible to the electronic device.
前記一連の示差的に照明された画像が、前記一連の照明イベントと併せてキャプチャされる、請求項1に記載の方法。 Each color channel of the light source further comprises assembling by at least three color channels in such a way as to perform a series of lighting events in which all color channels are illuminated with higher intensity by one color channel.
The method of claim 1, wherein the series of differentially illuminated images is captured in conjunction with the series of lighting events.
前記第2の画像内の各ピクセルの赤色、緑色及び青色の値を、前記一連の示差的に照明された画像内の対応するピクセルの赤色、緑色及び青色の値から除算することによって、一連の改変された画像を作成するステップと、
各ピクセルが一連のa*値と一連のb*値によって表されるように、前記一連の改変された画像をCIELAB色空間に変換するステップと、
各ピクセルがリファレンスa*値及びリファレンスb*値として表されるように、前記第1の画像をCIELAB色空間に変換するステップと、
各ピクセル毎に、
(i)対応する前記リファレンスa*値と対応する前記一連のa*値とに基づく第1の線形方程式、及び
(ii)対応する前記リファレンスb*値と対応する前記一連のb*値とに基づく第2の線形方程式、
を含む線形方程式系を形成するステップと、
各ピクセル毎に、係数のベクトルを生成するために、前記第1及び前記第2の線形方程式に対して最小二乗最適化を実行するステップと、
前記較正行列を表すデータ構造に、前記係数のベクトルを登録するステップと
を含む、請求項1に記載の方法。 The calculation step is
A series by dividing the red, green, and blue values of each pixel in the second image from the red, green, and blue values of the corresponding pixels in the series of differentially illuminated images. Steps to create a modified image,
A step of converting the set of modified images into a CIELAB color space, such that each pixel is represented by a set of a * values and a series of b * values.
A step of converting the first image into a CIELAB color space so that each pixel is represented as a reference a * value and a reference b * value.
For each pixel,
(I) a first linear equation based on the corresponding reference a * value and the corresponding series of a * values, and (ii) the corresponding reference b * value and the corresponding series of b * values. Second linear equation based on,
Steps to form a system of linear equations, including
For each pixel, a step of performing least squares optimization on the first and second linear equations to generate a vector of coefficients.
The method of claim 1, comprising registering a vector of the coefficients in a data structure representing the calibration matrix.
シーンの第1の画像を、第1の露出間隔にわたって、自動ホワイトバランス(AWB)設定を用いてキャプチャするステップと、
前記シーンの第2の画像を、前記第1の露出間隔とは異なる第2の露出間隔にわたって、固定ホワイトバランス(FWB)設定を用いてキャプチャするステップと、
前記シーンの一連の示差的に照明された画像をキャプチャするステップと、
前記第2の画像内の各ピクセルの赤色、緑色及び青色の値を、前記一連の示差的に照明された画像内の対応する各ピクセルの赤色、緑色及び青色の値から除算することによって、一連の改変された画像を作成するステップと、
各ピクセル毎に、色度フィンガープリントを前記一連の改変された画像に基づいて生成するステップと、
各色度フィンガープリントに、前記電子デバイスのメモリ内に格納されている較正行列を乗算するステップであって、それによって各ピクセル毎の較正されたa*値及び較正されたb*値を取得する、ステップと、
各ピクセルがL*値、a*値及びb*値として表されるように、前記第1の画像をCIELAB色空間に変換するステップと、
色を表現する較正された画像を、前記L*値、前記較正されたa*値及び前記較正されたb*値を用いて生成するステップと
を含む、方法。 A method for using a calibration matrix created for an electronic device with an image sensor.
With the step of capturing the first image of the scene over the first exposure interval using the automatic white balance (AWB) setting,
A step of capturing a second image of the scene with a fixed white balance (FWB) setting over a second exposure interval different from the first exposure interval.
A step of capturing a series of differentially illuminated images of the scene,
A series by dividing the red, green, and blue values of each pixel in the second image from the red, green, and blue values of the corresponding pixels in the series of differentially illuminated images. Steps to create a modified image of
For each pixel, a step of generating a chromaticity fingerprint based on the series of modified images,
A step of multiplying each chromaticity fingerprint by a calibration matrix stored in the memory of the electronic device, thereby obtaining a calibrated a * value and a calibrated b * value for each pixel. Steps and
The step of converting the first image into the CIELAB color space so that each pixel is represented as an L * value, an a * value and a b * value.
A method comprising the steps of generating a calibrated image representing a color using the L * value, the calibrated a * value and the calibrated b * value.
各ピクセルが一連のa*値及び一連のb*値によって表されるように、前記一連の改変された画像をCIELAB色空間に変換するステップと、
各ピクセル毎に、前記一連のa*値及び前記一連のb*値を、前記色度フィンガープリントを表すベクトルに登録するステップと
を含む、請求項9に記載の方法。 The step to generate is
A step of converting the set of modified images into a CIELAB color space, such that each pixel is represented by a set of a * values and a series of b * values.
9. The method of claim 9, comprising registering the series of a * values and the series of b * values for each pixel in a vector representing the chromaticity fingerprint.
少なくとも3つの色チャネルを集成することによって光を生成するように構成された光源であって、各色チャネルは、実質的に同様の色を生成する1つ以上の発光体を含む、光源と、
前記画像センサ及び前記光源について生成された較正行列を格納するように構成されたメモリと、
プロセッサであって、
前記レンズを通じて見ることが可能なシーンの画像をキャプチャする要求を示す入力を受信するステップと、
前記シーンの第1の画像を、自動ホワイトバランス(AWB)設定を用いてキャプチャされるようにするステップと、
前記シーンの第2の画像を、固定ホワイトバランス(FWB)設定を用いてキャプチャされるようにするステップと、
一連の画像を、前記光源によって実行される一連の示差的な照明イベントと組み合わせてキャプチャされるようにするステップと、
各ピクセル毎に、色度フィンガープリントを、前記一連の画像内の各画像を前記第2の画像と比較することに基づいて生成するステップと、
各色度フィンガープリントに前記較正行列を乗算するステップであって、それによって対応する前記ピクセルの較正された色値を取得する、ステップと、
前記第1の画像を、ピクセル単位ベースで色値を前記較正された色値に置換することによって較正するステップと、
インタフェース上における前記較正された第1の画像の表示を行わせるステップと、
を行うように構成された、プロセッサと
を含む、電子デバイス。 With an image sensor configured to generate an image from the light collected through the lens,
A light source configured to produce light by assembling at least three color channels, each color channel comprising a light source and one or more illuminants that produce substantially similar colors.
A memory configured to store the calibration matrix generated for the image sensor and the light source, and
It ’s a processor,
A step of receiving an input indicating a request to capture an image of the scene that can be seen through the lens.
A step of allowing the first image of the scene to be captured using the automatic white balance (AWB) setting.
A step of allowing the second image of the scene to be captured using a fixed white balance (FWB) setting.
A step of allowing a series of images to be captured in combination with a series of differential lighting events performed by the light source.
For each pixel, a step of generating a chromaticity fingerprint based on comparing each image in the series of images with the second image.
A step of multiplying each chromaticity fingerprint by the calibration matrix, thereby obtaining the calibrated color value of the corresponding pixel.
A step of calibrating the first image by replacing the color values with the calibrated color values on a pixel-by-pixel basis.
The step of displaying the calibrated first image on the interface, and
Electronic devices, including processors, configured to do.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962818055P | 2019-03-13 | 2019-03-13 | |
US62/818,055 | 2019-03-13 | ||
PCT/US2020/022639 WO2020186163A1 (en) | 2019-03-13 | 2020-03-13 | White balance with reference illuminants |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022524023A true JP2022524023A (en) | 2022-04-27 |
Family
ID=72427127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021552771A Pending JP2022524023A (en) | 2019-03-13 | 2020-03-13 | White balance using a reference illuminant |
Country Status (8)
Country | Link |
---|---|
US (1) | US11943546B2 (en) |
EP (1) | EP3939256A4 (en) |
JP (1) | JP2022524023A (en) |
KR (1) | KR20220040431A (en) |
CN (1) | CN114402588A (en) |
AU (1) | AU2020239246A1 (en) |
CA (1) | CA3131610A1 (en) |
WO (1) | WO2020186163A1 (en) |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR1251484A (en) | 1960-01-08 | 1961-01-20 | Kurashiki Rayon Co | Manufacturing process of synthetic fibers in polyvinyl alcohol |
FR1254559A (en) | 1960-01-15 | 1961-02-24 | Venissieux Atel | Flat wagon for transporting motor vehicles |
FR1257403A (en) | 1960-05-18 | 1961-03-31 | Removable lid with drain for liquid milk tins or other containers | |
DE1720629C3 (en) | 1967-03-10 | 1980-02-21 | Bayer Ag, 5090 Leverkusen | Process for the continuous production of polyamides |
US3456746A (en) | 1967-12-12 | 1969-07-22 | Smith International | Flow restricting and metering radial bearing for drilling tools |
US5963333A (en) | 1996-09-12 | 1999-10-05 | Color Savvy Systems Limited | Color sensor |
AU2003209880A1 (en) | 2003-03-05 | 2004-09-28 | Brytech Inc. | Colorimeter, colorimeter sensor unit and colour determination process |
JP4006431B2 (en) * | 2004-10-28 | 2007-11-14 | キヤノン株式会社 | Image processing method and image processing apparatus |
JP4217698B2 (en) * | 2005-06-20 | 2009-02-04 | キヤノン株式会社 | Imaging apparatus and image processing method |
KR100916484B1 (en) * | 2007-08-14 | 2009-09-08 | 삼성전기주식회사 | Method for auto white balance |
US8564688B2 (en) * | 2008-09-12 | 2013-10-22 | Aptina Imaging Corporation | Methods, systems and apparatuses for white balance calibration |
WO2010123011A1 (en) * | 2009-04-20 | 2010-10-28 | 京セラ株式会社 | Image capturing device and image capturing method |
GB2474701B (en) | 2009-10-26 | 2014-04-30 | Richard Frank Lawn | A handheld device for measuring the colour properties of objects |
US20110187891A1 (en) * | 2010-02-04 | 2011-08-04 | Buyue Zhang | Methods and Systems for Automatic White Balance |
FR2987118A1 (en) | 2012-02-17 | 2013-08-23 | Franck Hennebelle | METHOD AND DEVICE FOR MEASURING THE COLOR OF AN OBJECT |
US20150124072A1 (en) * | 2013-11-01 | 2015-05-07 | Datacolor, Inc. | System and method for color correction of a microscope image |
JP2015173774A (en) * | 2014-03-14 | 2015-10-05 | ブラザー工業株式会社 | sewing machine |
US10429298B2 (en) | 2015-09-30 | 2019-10-01 | Color Grail Research | Method for determining the reflectance of an object and associated device |
US10694091B2 (en) * | 2016-02-09 | 2020-06-23 | University Of Southern Queensland | Imaging device with white balance compensation and related systems and methods |
DE102016226206A1 (en) | 2016-12-23 | 2018-06-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | System and method for acquiring measurement images of a measurement object |
WO2019014145A1 (en) * | 2017-07-09 | 2019-01-17 | Lumenetix, Inc. | Full-spectrum flash for electronic devices |
-
2020
- 2020-03-13 EP EP20770050.1A patent/EP3939256A4/en active Pending
- 2020-03-13 CN CN202080036189.3A patent/CN114402588A/en active Pending
- 2020-03-13 JP JP2021552771A patent/JP2022524023A/en active Pending
- 2020-03-13 AU AU2020239246A patent/AU2020239246A1/en not_active Abandoned
- 2020-03-13 WO PCT/US2020/022639 patent/WO2020186163A1/en unknown
- 2020-03-13 CA CA3131610A patent/CA3131610A1/en active Pending
- 2020-03-13 KR KR1020217032796A patent/KR20220040431A/en not_active Application Discontinuation
-
2021
- 2021-09-13 US US17/473,538 patent/US11943546B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR20220040431A (en) | 2022-03-30 |
US20210409667A1 (en) | 2021-12-30 |
AU2020239246A1 (en) | 2021-08-05 |
EP3939256A4 (en) | 2024-01-10 |
EP3939256A1 (en) | 2022-01-19 |
US11943546B2 (en) | 2024-03-26 |
WO2020186163A1 (en) | 2020-09-17 |
CN114402588A (en) | 2022-04-26 |
CA3131610A1 (en) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11635671B2 (en) | Techniques for creating characterization matrices for reflectance, illuminance, or sensor response | |
US11803105B2 (en) | Electromagnetic emitters and detectors for electronic devices | |
US11640101B2 (en) | Determining spectral properties of an object through sequential illumination with different colors | |
TWI769509B (en) | Method of using a camera system to characterize ambient illumination, computer readable storage medium, and camera system | |
CN108713316A (en) | Photoelectron light-emitting device, for the method for scene lighting, camera and mobile terminal | |
US11221125B2 (en) | Color control in subtractive color mixing system | |
Zapryanov et al. | Automatic White Balance Algorithms forDigital StillCameras–a Comparative Study | |
JP2023538781A (en) | White balance correction method, device and electronic equipment | |
KR20210155743A (en) | Method for image processing of high dynamic range sensors for handling white balance | |
Moeck et al. | Illuminance analysis from high dynamic range images | |
JP2022524023A (en) | White balance using a reference illuminant | |
US9980338B2 (en) | Illumination system | |
US10863059B2 (en) | Environmental-based spatial color uniformity correction by using statistical distribution of camera modules | |
US7346275B2 (en) | Camera, process for reconstructing an image information, and process for calibrating an image information | |
Kamath et al. | Prediction of illuminance on the work plane using low dynamic unprocessed image data | |
Sarkar | Proof-of-concept: CMOS Sensor Based Lightning Control System Integrating High Dynamic Range Imaging and DALI | |
WO2017144102A1 (en) | Electronic device and method for operating an electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240308 |