JP2022524023A - White balance using a reference illuminant - Google Patents

White balance using a reference illuminant Download PDF

Info

Publication number
JP2022524023A
JP2022524023A JP2021552771A JP2021552771A JP2022524023A JP 2022524023 A JP2022524023 A JP 2022524023A JP 2021552771 A JP2021552771 A JP 2021552771A JP 2021552771 A JP2021552771 A JP 2021552771A JP 2022524023 A JP2022524023 A JP 2022524023A
Authority
JP
Japan
Prior art keywords
image
color
series
pixel
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021552771A
Other languages
Japanese (ja)
Inventor
ハーリー,ジェイ
ディー. ウィーヴァー,マシュー
サーク,ジェフリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ringo AI Inc
Original Assignee
Ringo AI Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ringo AI Inc filed Critical Ringo AI Inc
Publication of JP2022524023A publication Critical patent/JP2022524023A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6077Colour balance, e.g. colour cast correction
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6086Colour correction or control controlled by factors external to the apparatus by scene illuminant, i.e. conditions at the time of picture capture, e.g. flash, optical filter used, evening, cloud, daylight, artificial lighting, white point measurement, colour temperature
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/125Colour sequential image capture, e.g. using a colour wheel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2215/00Special procedures for taking photographs; Apparatus therefor
    • G03B2215/05Combinations of cameras with electronic flash units
    • G03B2215/0503Built-in units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2215/00Special procedures for taking photographs; Apparatus therefor
    • G03B2215/05Combinations of cameras with electronic flash units
    • G03B2215/0564Combinations of cameras with electronic flash units characterised by the type of light source
    • G03B2215/0567Solid-state light source, e.g. LED, laser
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2215/00Special procedures for taking photographs; Apparatus therefor
    • G03B2215/05Combinations of cameras with electronic flash units
    • G03B2215/0564Combinations of cameras with electronic flash units characterised by the type of light source
    • G03B2215/0571With second light source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Color Television Image Signal Generators (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Studio Devices (AREA)

Abstract

本明細書に提示するのは、既知の反射スペクトルが全くない場合において、忠実度の高い色再現を実現するためのコンピュータプログラム、及び、関連するコンピュータ実装技術である。すなわち、忠実度の高い色再現が、グレーカードやカラーチェッカー等のポータブルリファレンスを用いることなく実現可能である。これを実現するために、新規なリファレンススペクトル「リファレンス発光体スペクトル」が、画像センサによって画像化されることになるシーンに導入される。リファレンス発光体スペクトルは、スペクトル特性が既知のマルチチャネル光源によって作成される。【選択図】図6Presented herein are computer programs and related computer implementation techniques for achieving high fidelity color reproduction in the absence of any known reflection spectrum. That is, color reproduction with high fidelity can be realized without using a portable reference such as a gray card or a color checker. To achieve this, a new reference spectrum, the "reference illuminant spectrum," is introduced into the scene that will be imaged by the image sensor. The reference illuminant spectrum is created by a multi-channel light source with known spectral characteristics. [Selection diagram] FIG. 6

Description

関連出願の相互参照
本出願は、“High Fidelity Color Technologies"と題され、2019年3月13日に出願された米国仮出願第62/818,055号の優先権を主張する。
Cross-reference to related applications This application, entitled "High Fidelity Color Technologies", claims priority to US Provisional Application No. 62 / 818,055 filed March 13, 2019.

技術分野
様々な実施形態は、デジタル画像内のピクセルの色値を補正することによって高忠実度の色再現を達成するためのコンピュータプログラム及び関連するコンピュータ実装技術に関する。
Technical Fields Various embodiments relate to computer programs and related computer implementation techniques for achieving high fidelity color reproduction by correcting the color values of pixels in a digital image.

発光体は、ケルビン(K)度で測定される色温度によって特徴付けられ得る。発光体の色温度は、加熱された黒体から放出される光の色が発光体の色と一致する温度である。蛍光球や発光ダイオード(LED)のような、黒体を実質的に模倣しない発光体では、加熱された黒体から放出される光の色が発光体の色に近似する温度は、相関色温度(CCT)と称される。 The illuminant can be characterized by a color temperature measured in Kelvin (K) degrees. The color temperature of the illuminant is a temperature at which the color of the light emitted from the heated blackbody matches the color of the illuminant. In a light emitter that does not substantially mimic a blackbody, such as a fluorescent sphere or light emitting diode (LED), the temperature at which the color of the light emitted from the heated blackbody approximates the color of the light emitter is the correlated color temperature. It is called (CCT).

理想的には、デジタル画像内のシーンは、同じ色温度の1つ以上の発光体によって照らされる。しかしながら、そのようなことはめったに起こらない。代わりに、シーンは通常、色温度が異なる複数の発光体によって照らされる(これは「混合ライティング」と称される状況である)。例えば、屋内のシーンは、頭上のライティング要素、窓から差し込む間接的な日光等によって照らされる可能性がある。このような状況は、色温度が異なる様々なライティング条件によっても生じることがある。例えば、屋外シーンのデジタル画像のペアがほんの僅かな時間差で作成されることがあるが、その間に太陽が暗くなると、色温度が異なることになる。 Ideally, the scene in a digital image is illuminated by one or more emitters of the same color temperature. However, such things rarely happen. Instead, the scene is usually illuminated by multiple emitters with different color temperatures (this is a situation referred to as "mixed lighting"). For example, indoor scenes can be illuminated by overhead lighting elements, indirect sunlight shining through windows, and so on. Such a situation may also occur due to various lighting conditions with different color temperatures. For example, a pair of digital images of an outdoor scene may be created with a slight time lag, but if the sun darkens in the meantime, the color temperature will be different.

ホワイトバランス調整は、色温度をニューラル(neural)に戻そうとしてデジタル画像のバランスをとるプロセスである。高いレベルで、ホワイトバランスは非現実的な色被りを取り除き、人の目が白いオブジェクトを見るときに行うことを模倣する。これは、人の目に白く見えるデジタル画像内のオブジェクトが、それらのデジタル画像内で白くレンダリングされるようにするために行われる。 White balance adjustment is the process of balancing a digital image in an attempt to return the color temperature to neural. At a high level, white balance removes unrealistic color casts and mimics what the human eye does when looking at white objects. This is done so that objects in digital images that look white to the human eye are rendered white in those digital images.

本特許又は出願は、少なくとも1つのカラーで実施された図面を包含している。請求及び必要な料金の支払いに応じて、本特許又は出願の公報のカラー図面付きのコピーが官庁から提供されるであろう。 This patent or application includes drawings made in at least one color. Upon request and payment of the required fees, a copy with color drawings of the Gazette of this patent or application will be provided by the Office.

図1Aは、種々異なる色を生成するように構成された複数の色チャネルを含むマルチチャネル光源の上面図を示す。FIG. 1A shows a top view of a multi-channel light source containing a plurality of color channels configured to produce a variety of different colors. 図1Bは、いくつかの実施形態において、どのように発光体がハウジング内に存在し得るかを図示している、マルチチャネル光源の側面図を示す。FIG. 1B shows a side view of a multi-channel light source illustrating how the illuminant can be present within the housing in some embodiments. 図1Cは、背面カメラと、周囲環境を照明するように構成されたマルチチャネル光源とを含む電子デバイスを示す。FIG. 1C shows an electronic device including a rear camera and a multi-channel light source configured to illuminate the surrounding environment. 図2は、発光体の配列の例を示す。FIG. 2 shows an example of an arrangement of illuminants. 図3は、画像センサ上に配置された分離機構の例を示す。FIG. 3 shows an example of a separation mechanism arranged on the image sensor. 図4は、画像の色の忠実度を改善するようにプログラムされた特徴付けモジュールを含む通信環境の例を示す。FIG. 4 shows an example of a communication environment that includes a characterization module programmed to improve the color fidelity of an image. 図5は、特徴付けモジュールを含むネットワーク環境を示す。FIG. 5 shows a network environment including a characterization module. 図6は、マルチチャネル画像センサとマルチチャネル光源とを含む電子デバイスを展開前に較正するプロセスのフロー図を示す。FIG. 6 shows a flow diagram of the process of calibrating an electronic device including a multi-channel image sensor and a multi-channel light source before deployment. 図7は、自動ホワイトバランス(AWB)設定を用いてキャプチャされた第1の画像と、固定ホワイトバランス(FWB)設定を用いてキャプチャされた第2の画像と、FWB設定を用いてキャプチャされた一連の示差的に照明された画像とに基づいて、較正行列を計算するプロセスのフロー図を示す。FIG. 7 shows a first image captured using the automatic white balance (AWB) setting, a second image captured using the fixed white balance (FWB) setting, and captured using the FWB setting. A flow diagram of the process of calculating a calibration matrix based on a series of differentially illuminated images is shown. 図8は、(例えば、図6のプロセスを完了することによって)展開前の較正プロセス中に電子デバイス用に作成された較正行列を採用するプロセスのフロー図を示す。FIG. 8 shows a flow diagram of a process that employs a calibration matrix created for an electronic device during the pre-deployment calibration process (eg, by completing the process of FIG. 6). 図9は、マルチチャネル光源が一連の照明イベントを実行し、それによってシーンを示差的に照明する方法を図示する。FIG. 9 illustrates how a multi-channel light source performs a series of lighting events, thereby illuminating the scene differentially. 図9は、マルチチャネル光源が一連の照明イベントを実行し、それによってシーンを示差的に照明する方法を図示する。FIG. 9 illustrates how a multi-channel light source performs a series of lighting events, thereby illuminating the scene differentially. 図9は、マルチチャネル光源が一連の照明イベントを実行し、それによってシーンを示差的に照明する方法を図示する。FIG. 9 illustrates how a multi-channel light source performs a series of lighting events, thereby illuminating the scene differentially. 図10は、忠実度の高い色を再現するために、本明細書に記載のリファレンス発光体ホワイトバランス(RIWB)アプローチが必要な理由を図示する。FIG. 10 illustrates why the reference illuminant white balance (RIWB) approach described herein is required to reproduce high fidelity colors. 図11は、忠実度の高い色を再現するために、本明細書に記載のリファレンス発光体ホワイトバランス(RIWB)アプローチが必要な理由を図示する。FIG. 11 illustrates why the reference illuminant white balance (RIWB) approach described herein is required to reproduce high fidelity colors. 図12は、忠実度の高い色を再現するために、本明細書に記載のリファレンス発光体ホワイトバランス(RIWB)アプローチが必要な理由を図示する。FIG. 12 illustrates why the reference illuminant white balance (RIWB) approach described herein is required to reproduce high fidelity colors. 図13は、忠実度の高い色を再現するために、本明細書に記載のリファレンス発光体ホワイトバランス(RIWB)アプローチが必要な理由を図示する。FIG. 13 illustrates why the reference illuminant white balance (RIWB) approach described herein is required to reproduce high fidelity colors. 図14は、忠実度の高い色を再現するために、本明細書に記載のリファレンス発光体ホワイトバランス(RIWB)アプローチが必要な理由を図示する。FIG. 14 illustrates why the reference illuminant white balance (RIWB) approach described herein is required to reproduce high fidelity colors. 図15は、忠実度の高い色を再現するために、本明細書に記載のリファレンス発光体ホワイトバランス(RIWB)アプローチが必要な理由を図示する。FIG. 15 illustrates why the reference illuminant white balance (RIWB) approach described herein is required to reproduce high fidelity colors. 図16は、忠実度の高い色を再現するために、本明細書に記載のリファレンス発光体ホワイトバランス(RIWB)アプローチが必要な理由を図示する。FIG. 16 illustrates why the reference illuminant white balance (RIWB) approach described herein is required to reproduce high fidelity colors. 図17は、本明細書に記載の動作の少なくともいくつかを実装可能なコンピューティングシステムの例を示すブロック図である。FIG. 17 is a block diagram showing an example of a computing system capable of implementing at least some of the operations described herein.

本明細書に記載される技術の様々な特徴は、図面と併せて本詳細な説明を検討することによって当業者にはより明らかになるであろう。実施形態は、これらの図面に限定ではなく例として例示されており、同様の参照は、同様の要素を示すことがある。これらの図面は、例示の目的で様々な実施形態を描写しているが、当業者は、これらの技術の原理から逸脱することなく、代替の実施形態が採用されてもよいことを認識するであろう。したがって、特定の実施形態が図面に示されている一方で、これらの技術は様々な修正に適している。 Various features of the techniques described herein will become more apparent to those skilled in the art by reviewing this detailed description in conjunction with the drawings. Embodiments are exemplified, but not limited to, in these drawings, and similar references may indicate similar elements. Although these drawings depict various embodiments for illustrative purposes, those skilled in the art will recognize that alternative embodiments may be employed without departing from the principles of these techniques. There will be. Thus, while certain embodiments are shown in the drawings, these techniques are suitable for various modifications.

後処理の間にホワイトバランスを手動で修正することは、時間のかかる処理であるだけでなく、専門家が実行した場合でも、結果に一貫性がなくなる傾向がある。一部の専門家はよりウォームなデジタル画像を好む傾向がある一方で、他の専門家はよりクールなデジタル画像を好む傾向がある。これらの問題に対処するために、最新のデジタルカメラは、ホワイトバランスを自動的に実行するように設計されている。例えば、デジタルカメラは、自動ホワイトバランス(AWB)設定を有していることがあり、このAWB設定は、選択された際に、最も明るい部分を白色点として識別した後、そのリファレンスに基づいてデジタル画像の色のバランス調整することを試みるように設計されたアルゴリズムによって、シーンを評価されるようにする。 Manually correcting the white balance during post-processing is not only a time-consuming process, but it also tends to result in inconsistent results, even when performed by an expert. Some experts tend to prefer warmer digital images, while others tend to prefer cooler digital images. To address these issues, modern digital cameras are designed to automatically perform white balance. For example, a digital camera may have an automatic white balance (AWB) setting, which, when selected, identifies the brightest part as a white point and then digitally bases it on its reference. Allows the scene to be evaluated by an algorithm designed to attempt to balance the colors of the image.

カラーが重要な状況では、AWBアルゴリズムで問題が発生しないように、ニュートラルリファレンスがシーンに導入されることがある。例えば、プロの写真家/映像作家は、シーンに簡単に追加され得るポータブルリファレンスを携帯していることがある。ポータブルリファレンスの一例は、平坦な反射スペクトルに由来するニュートラルグレー色の平坦な表面である。ポータブルリファレンスの別の例は、種々異なる反射スペクトルに対応する一連の種々異なる色の平坦な表面である。前者は通常「グレーカード」と称され、後者は通常「カラーチェッカー」と称される。その形式に関係なく、ポータブルリファレンスは、アルゴリズムによって自動ホワイトバランス調整のリファレンスとして使用可能な既知の反射スペクトルをシーンに導入することになる。 In situations where color is important, neutral references may be introduced into the scene to avoid problems with the AWB algorithm. For example, a professional photographer / videographer may carry a portable reference that can be easily added to the scene. An example of a portable reference is a neutral gray flat surface derived from a flat reflection spectrum. Another example of a portable reference is a series of flat surfaces of different colors that correspond to different reflection spectra. The former is usually referred to as a "gray card" and the latter is usually referred to as a "color checker". Regardless of its format, the portable reference will introduce into the scene a known reflection spectrum that the algorithm can use as a reference for automatic white balance adjustment.

該シーンが既知の反射スペクトルを含まないとき、AWBアルゴリズムは、色に関して目に見えて不正確なデジタル画像を生成する可能性がある(多くの場合、そうなる)。例えば、該シーンにおいて赤色が支配的である場合、AWBアルゴリズムはこれをウォームな発光体によって誘発された色被りと間違えて、平均色をニューラル(neural)に近づけることによって補正することを試みることがある。しかしながら、これによって青みがかった色被りが導入され、この色被りはかなり目立ち得る。図10~図16は、AWBアルゴリズムが色値を適切にスケーリングできなかったいくつかの画像の例を含む。 When the scene does not contain a known reflection spectrum, the AWB algorithm can (and often does) produce a digital image that is visibly inaccurate with respect to color. For example, if red is dominant in the scene, the AWB algorithm may try to correct it by confusing it with a warm illuminant-induced color cast and bringing the average color closer to neural. be. However, this introduces a bluish tint, which can be quite noticeable. 10-16 include examples of some images for which the AWB algorithm was unable to properly scale the color values.

したがって、本明細書では、ポータブルリファレンスを用いずに忠実度の高い色再現を実現するためのコンピュータプログラム、及び、関連するコンピュータ実装技術が提示される。これを実現するために、新規なリファレンススペクトル「リファレンス発光体スペクトル」が、画像センサによって画像化されることになるシーンに導入される。リファレンス発光体スペクトルは、スペクトル特性が既知である発光体によって作成される。 Therefore, the present specification presents a computer program for achieving high fidelity color reproduction without using a portable reference, and related computer mounting techniques. To achieve this, a new reference spectrum, the "reference illuminant spectrum," is introduced into the scene that will be imaged by the image sensor. The reference illuminant spectrum is created by an illuminant whose spectral characteristics are known.

以下でさらに説明するように、単一のリファレンス発光体は、シーンにおける色を適切にレンダリングするには不十分なことがある。これは、任意の単一の発光体スペクトルについて、種々異なる反射特性を備えたオブジェクトに対応するピクセルが画像センサによって測定されたものと同じ色値を有する、カラーメタメリズムのインスタンスがあるためである。すなわち、これらのピクセルは、実際には同じ色ではないが、画像センサにとっては同じように見える。したがって、カラーメタメリズムの影響を軽減するために、複数のリファレンス発光体スペクトルが示差的に導入されることがある。 As further described below, a single reference illuminant may not be sufficient to properly render the colors in the scene. This is because for any single illuminant spectrum, there are instances of color metamerism in which the pixels corresponding to the objects with different reflection characteristics have the same color values as those measured by the image sensor. That is, these pixels are not actually the same color, but look the same to the image sensor. Therefore, multiple reference illuminant spectra may be introduced differentially to mitigate the effects of color metamerism.

実施形態は、特定の電子デバイス、光源又は画像センサを参照して説明され得る。例えば、本技術は、複数の異なる色のLEDを備えたマルチチャネル光源と、赤色、緑色及び青色のチャネルを備えたマルチチャネル画像センサとを含む携帯電話の文脈において説明され得る。しかしながら、当業者は、これらの特徴が他のタイプの電子デバイス、光源及び画像センサに等しく適用可能であることを認識するであろう。例えば、可視光に代えて又はそれに加えて、非可視光(例えば、紫外線及び/又は赤外線)を生成するように構成されたマルチチャネル光源によって、同じ特徴が適用されてもよい。したがって、実施形態は、複数の「色チャネル」を備えた光源の文脈で説明され得るが、これらの特徴は、非色チャネル(すなわち、非可視光を生成する1つ以上の発光体を有するチャネル)に等しく適用可能であり得る。 Embodiments may be described with reference to a particular electronic device, light source or image sensor. For example, the art can be described in the context of a mobile phone including a multi-channel light source with multiple different colored LEDs and a multi-channel image sensor with red, green and blue channels. However, those skilled in the art will recognize that these features are equally applicable to other types of electronic devices, light sources and image sensors. For example, the same features may be applied by a multi-channel light source configured to produce invisible light (eg, ultraviolet and / or infrared) in place of or in addition to visible light. Thus, embodiments can be described in the context of a light source with multiple "color channels", but these features are non-color channels (ie, channels with one or more illuminants that produce invisible light). ) Can be equally applicable.

実施形態はまた、「フラッシュイベント」を参照して説明され得る。一般に、フラッシュイベントは、シーンのデジタル画像がキャプチャされている間、該シーンを短時間可視光で溢れさせるために電子デバイスによって実行される。しかしながら、本明細書に記載の機能は、他の照明イベントにも同様に適用可能である。例えば、電子デバイスは、マルチチャネル光源の色チャネルをストロボ照明して、それぞれの色チャネルの効果を決定した後、少なくともいくつかの色チャネルを同時に駆動し、それによって該シーンに溢れる可視光を延長して生成することができる。したがって、実施形態は、デジタル画像をキャプチャして処理するという文脈で説明され得るが、当業者は、その特徴が、ビデオのフレームを表す一連のデジタル画像をキャプチャして処理するために等しく適用可能であることを認識するであろう。 Embodiments may also be described with reference to "flash events". Generally, a flash event is performed by an electronic device to flood the scene with visible light for a short period of time while a digital image of the scene is being captured. However, the features described herein are applicable to other lighting events as well. For example, an electronic device strobes the color channels of a multi-channel light source to determine the effect of each color channel and then drives at least several color channels simultaneously, thereby extending the visible light flooding the scene. Can be generated. Accordingly, embodiments may be described in the context of capturing and processing digital images, but those of skill in the art are equally applicable to capture and process a series of digital images representing frames of video. You will recognize that.

本技術は、専用ハードウェア(例えば、回路)、ソフトウェア及び/若しくはファームウェアで適切にプログラムされたプログラム可能な回路、又は、専用ハードウェアとプログラム可能な回路との組み合わせを用いて具体化することができる。したがって、実施形態は、実行された際に、電子デバイスに対して、一連の発光体スペクトルをシーンに導入させ、該一連の発光体スペクトルと併せて一連の画像をキャプチャさせた後、該一連の画像の分析に基づくピクセル単位で情報スペクトルを確立させる命令を有する機械可読媒体を含んでいてもよい。 The art may be embodied using dedicated hardware (eg, circuits), programmable circuits properly programmed with software and / or firmware, or a combination of dedicated hardware and programmable circuits. can. Thus, an embodiment, when executed, causes an electronic device to introduce a series of illuminant spectra into the scene, capture a series of images in conjunction with the series of illuminant spectra, and then capture the series of images. It may include a machine-readable medium with instructions to establish an information spectrum on a pixel-by-pixel basis based on image analysis.

用語
本説明における「ある実施形態」又は「一実施形態」への言及は、記載されている特徴、機能、構造又は特性が、少なくとも1つの実施形態に含まれることを意味する。そのような句が現れたとしても、同じ実施形態を必ずしも示すわけではなく、相互に排他的な別の実施形態を必ずしも示すわけでもない。
Terminology Reference to "an embodiment" or "one embodiment" in this description means that the features, functions, structures or properties described are included in at least one embodiment. The appearance of such a phrase does not necessarily indicate the same embodiment, nor does it necessarily indicate another embodiment that is mutually exclusive.

文脈上明確に別段の求めがない限り、単語「含む(comprise)」及び「含んでいる(comprising)」は、排他的又は網羅的な意味ではなく、包括的な意味で(すなわち、「含むが、それに限定されない」という意味で)解釈されるべきである。用語「接続(connected)」、「結合(coupled)」又はそれらの任意の変形は、2つ以上の要素間の任意の接続又は結合を含むことを意図され、直接的であるか間接的であるかを問わない。これらの接続/結合は、物理的、論理的又はそれらの組み合わせであり得る。例えば、コンポーネントは、物理的接続を共有することなく、互いに電気的又は通信的に結合されていてもよい。 Unless otherwise explicitly requested in the context, the words "comprise" and "comprising" are not exclusive or exhaustive, but in a comprehensive sense (ie, "contains". , But not limited to it. " The terms "connected", "coupled" or any variation thereof are intended to include any connection or connection between two or more elements and are direct or indirect. It doesn't matter. These connections / connections can be physical, logical or a combination thereof. For example, the components may be electrically or communically coupled to each other without sharing a physical connection.

用語「基づく」はまた、排他的又は網羅的な意味ではなく、包括的な意味で解釈されるべきである。したがって、別段の言及がない限り、用語「基づく」は、「少なくとも部分的に基づく」ことを意味することを意図される。 The term "based" should also be interpreted in a comprehensive sense, not in an exclusive or exhaustive sense. Therefore, unless otherwise stated, the term "based" is intended to mean "at least partially based".

用語「モジュール」は、ソフトウェアコンポーネント、ファームウェアコンポーネント及び/又はハードウェアコンポーネントを広く示す。モジュールは、典型的には、指定された(1つ以上の)入力に基づいて有用なデータ又はその他の(1つ以上の)出力を生成可能な機能コンポーネントである。モジュールは、自己完結型であってもよい。コンピュータプログラムは、1つ以上のモジュールを含んでいてもよい。例えば、コンピュータプログラムは、種々異なるタスクを完了することを担当する複数のモジュール、又は、全てのタスクを完了することを担当する単一のモジュールを含んでいてもよい。 The term "module" broadly refers to software components, firmware components and / or hardware components. A module is typically a functional component capable of producing useful data or other (one or more) outputs based on a specified (one or more) inputs. The module may be self-contained. The computer program may include one or more modules. For example, a computer program may include multiple modules responsible for completing different tasks, or a single module responsible for completing all tasks.

複数の項目からなるリストを参照して使用される際において、単語「又は」は、該リスト内の項目のいずれか、該リスト内の項目の全て、及び、該リスト内の項目の任意の組み合わせとの解釈の全てを網羅することを意図される。 When used with reference to a multi-item list, the word "or" is any of the items in the list, all of the items in the list, and any combination of the items in the list. It is intended to cover all of the interpretations of.

本明細書に記載の任意のプロセスにおいて実行される一連のステップは、例示的なものである。しかしながら、物理的可能性に反しない限り、これらのステップは、様々な順序及び組み合わせで実行されてもよい。例えば、本明細書に記載のプロセスにステップが追加可能であり、該プロセスからステップが削除可能である。同様に、ステップは置換又は並べ替え可能である。したがって、任意のプロセスの説明は、オープンエンド(open-ended)であることが意図される。 The sequence of steps performed in any of the processes described herein is exemplary. However, these steps may be performed in various orders and combinations as long as they do not violate physical potential. For example, steps can be added to the process described herein, and steps can be removed from the process. Similarly, the steps can be replaced or rearranged. Therefore, the description of any process is intended to be open-ended.

光源の概要
図1Aは、種々異なる色を生成可能な複数の色チャネルを含むマルチチャネル光源100の上面図を示す。各色チャネルは、実質的に同様の色の光を生成するように設計された1つ以上の発光体102を含み得る。例えば、マルチチャネル光源100は、第1の色を生成するように構成された単一の発光体、第2の色を生成するように構成された複数の発光体等を含んでいてもよい。なお、簡略化の目的で、色チャネルは、該色チャネルに含まれる個別の発光体の数に関わらず「発光体」と称する。
Outline of Light Source FIG. 1A shows a top view of a multi-channel light source 100 including a plurality of color channels capable of producing various different colors. Each color channel may include one or more illuminants 102 designed to produce light of substantially similar color. For example, the multi-channel light source 100 may include a single illuminant configured to produce a first color, a plurality of illuminants configured to produce a second color, and the like. For the purpose of simplification, the color channel is referred to as a "light emitter" regardless of the number of individual emitters contained in the color channel.

光源の一例としては、LEDが挙げられる。LEDは、一般に無機半導体材料からなる2リード発光体である。実施形態はLEDの文脈で説明され得るが、本技術は、他のタイプの発光体にも同様に適用可能である。表1は、LEDにおいて使用可能な色の複数の例、並びに、対応する波長範囲及び代表的な材料を含む。

Figure 2022524023000002
An example of a light source is an LED. The LED is a 2-lead light emitter generally made of an inorganic semiconductor material. Although embodiments may be described in the context of LEDs, the art is applicable to other types of illuminants as well. Table 1 includes a number of examples of colors that can be used in LEDs, as well as the corresponding wavelength ranges and representative materials.
Figure 2022524023000002

表1に示されていない他の色もまた、光源100に組み込まれていてもよい。そのような色の例には、藍紫色(シアン、490<λ<515)、石灰色(ライム、560<λ<575)、琥珀色(アンバー、580<λ<590)及び藍色(インディゴ、425<λ<450)が含まれる。当業者は、これらの波長範囲が単に例示の目的で含まれていることを認識するであろう。 Other colors not shown in Table 1 may also be incorporated into the light source 100. Examples of such colors are indigo purple (cyan, 490 <λ <515), lime (lime, 560 <λ <575), amber (amber, 580 <λ <590) and indigo (indigo, 425 <λ <450) is included. Those of skill in the art will recognize that these wavelength ranges are included solely for illustrative purposes.

上記のように、マルチチャネル光源100は、異なる色を生成可能な複数の色チャネルを含んでいてもよい。例えば、光源100は、青色光、緑色光及び赤色光を生成するように構成された、3つの個別の色チャネルを含んでいてもよい。そのような光源は「RGB光源」と称されることがある。別の例として、光源100は、青色光、緑色光、赤色光、及び、琥珀色光又は白色光のどちらかを生成するように構成された、4つの別個の色チャネルを含んでいてもよい。そのような光源は、「RGBA光源」又は「RGBW光源」と称されることがある。別の例として、光源100は、青色光、藍紫色光、石灰色光、琥珀色光、及び赤色光を生成するように構成された5つの別個の色チャネルを含んでいてもよい。別の例として、光源100は、青色光、藍紫色光、緑色光、琥珀色光、赤色光、紫色光及び白色光を生成するように構成された、7つの別個の色チャネルを含んでいてもよい。したがって、光源100は、3つのチャネル、4つのチャネル、5つのチャネル、7つのチャネル等を含み得る。 As described above, the multi-channel light source 100 may include a plurality of color channels capable of producing different colors. For example, the light source 100 may include three distinct color channels configured to produce blue light, green light and red light. Such a light source is sometimes referred to as an "RGB light source". As another example, the light source 100 may include four distinct color channels configured to produce either blue light, green light, red light, and either amber light or white light. Such a light source may be referred to as an "RGBA light source" or an "RGBW light source". As another example, the light source 100 may include five distinct color channels configured to produce blue light, indigo purple light, slate gray light, amber light, and red light. As another example, the light source 100 may include seven distinct color channels configured to produce blue light, indigo purple light, green light, amber light, red light, purple light and white light. good. Therefore, the light source 100 may include 3 channels, 4 channels, 5 channels, 7 channels and the like.

3チャネル及び4チャネルの光源は、従来のフラッシュ技術を改善するが、波立ったスペクトル分布を有していることや、高忠実度の範囲が狭いことがある。結果として、マルチチャネル光源100は、少なくとも5つの異なる色チャネルを含むことが多くなる。色チャネルの数が増えると、光の品質、CCT範囲、範囲全体の品質及びスペクトルサンプリングもまた、概ね増加する。例えば、適切に選択された発光体を備えた5チャネル光源は、ΔuV±0.002での広いCCT範囲(例えば、1650K~10000K超)にわたって、フルスペクトルの白色光を送達するように設計され得る。さらに、5チャネル光源を使用することにより、スペクトル分布は、実質的に連続的な(すなわち、波立っていない)方法でサンプリングされ得る。 The 3-channel and 4-channel light sources improve conventional flash techniques, but may have a wavy spectral distribution and a narrow range of high fidelity. As a result, the multi-channel light source 100 often contains at least 5 different color channels. As the number of color channels increases, so does the quality of light, the CCT range, the quality of the entire range, and spectral sampling. For example, a 5-channel light source with a well-selected illuminant can be designed to deliver full spectrum white light over a wide CCT range at ΔuV ± 0.002 (eg, 1650K to over 10000K). .. In addition, by using a 5-channel light source, the spectral distribution can be sampled in a substantially continuous (ie, non-wavy) manner.

LEDは発熱量が少ないため、互いに近接して配置され得る。したがって、マルチチャネル光源の発光体102がLEDである場合、光源100は、任意に近接して配置された複数のダイからなるアレイを含んでいてもよい。しかしながら、その配置は、隣接するダイ間の「ホワイトウォール」空間によって制限される場合があることに留意されたい。ホワイトウォール空間は、概ね約0.1ミリメートル(mm)であるが、これは光源100の全体としての所望の直径に基づいて(例えば、0.2mm以下にまで)制限されることがある。例えば、図2では、アレイには5つの異なる色チャネルに関連付けられた8つのダイが含まれる。このようなアレイは、従来のフラッシュ技術と同様の寸法に収まるサイズにされていてもよい。該アレイはまた、例えば石灰色-琥珀色-藍紫色-赤色-青色の面積比2-1-1-0.5-0.5を要する標準的な製造ダイに基づいていてもよい。該アレイは、1つ以上の線形電界効果トランジスタベース(FETベース)の電流制御されたドライバ110によって駆動されてもよい。いくつかの実施形態では、各色チャネルは、対応するドライバによって駆動される。これらのドライバ110は、発光体102の下方に配置された基板104に取り付けられてもよく、該基板104内に埋め込まれてもよい。 Since the LEDs generate less heat, they can be placed close to each other. Therefore, when the light source 102 of the multi-channel light source is an LED, the light source 100 may include an array consisting of a plurality of dies arbitrarily arranged in close proximity to each other. However, it should be noted that the placement may be limited by the "white wall" space between adjacent dies. The white wall space is approximately 0.1 millimeters (mm), which can be limited based on the overall desired diameter of the light source 100 (eg, to 0.2 mm or less). For example, in FIG. 2, the array contains eight dies associated with five different color channels. Such an array may be sized to fit in the same dimensions as conventional flash techniques. The array may also be based on a standard manufacturing die requiring, for example, a lime-violet-violet-red-blue area ratio of 2-1-1-0.5-0.5. The array may be driven by one or more linear field effect transistor-based (FET-based) current-controlled drivers 110. In some embodiments, each color channel is driven by the corresponding driver. These drivers 110 may be attached to a substrate 104 arranged below the light emitter 102, or may be embedded in the substrate 104.

各色チャネルを独立して駆動することにより、マルチチャネル光源100は、種々異なるCCTで白色光を生成することができる。例えば、マルチチャネル光源100は、電子デバイスによる画像のキャプチャと併せてシーンを照明する光のフラッシュを放出してもよい。電子機器の例には、携帯電話、タブレットコンピュータ、デジタルカメラ(例えば、一眼レフ(SLR)カメラ、デジタルSLR(DSLR)カメラ及びライトフィールドカメラ(「プレノプティックカメラ」とも称される))等が含まれる。マルチチャネル光源100によって生成される光は、コンシューマ写真、プロシューマ写真、プロフェッショナル写真等の文脈において撮影される画像の品質を改善することができる。 By driving each color channel independently, the multi-channel light source 100 can generate white light with different CCTs. For example, the multi-channel light source 100 may emit a flash of light that illuminates the scene in conjunction with the capture of the image by the electronic device. Examples of electronic devices include mobile phones, tablet computers, digital cameras (eg, single-lens reflex (SLR) cameras, digital SLR (DSLR) cameras and light field cameras (also referred to as "prenoptic cameras")) and the like. Is included. The light produced by the multi-channel light source 100 can improve the quality of images taken in the context of consumer photography, prosumer photography, professional photography and the like.

このような方法でマルチチャネル光源を制御することにより、従来のライティング技術と比較して、様々な動作状態にわたってスペクトル制御の精度/正確さを改善することができる。従来のライティング技術は全て、電磁スペクトルの所望のセグメントにおいて光を放射するように設計されている。しかしながら、光(すなわち、電磁スペクトルのセグメント)は、温度、経年劣化、明るさ等の要因に基づいて変化する。従来のライティング技術とは異なり、マルチチャネル光源は、各チャネルの出力が常にわかるように処理可能である。この情報を使用して、コントローラ112は、(i)各チャネルに提供される電流を調整すること、及び/又は、(ii)スペクトルシフトを補償して該電磁スペクトルの所望のセグメントを維持するようにチャネルの比率を調整することによって、上記因子を補償することができる。コントローラ112の例としては、中央処理装置(「プロセッサ」とも称される)が挙げられる。 By controlling the multi-channel light source in such a way, it is possible to improve the accuracy / accuracy of the spectrum control over various operating states as compared with the conventional lighting technique. All conventional lighting techniques are designed to emit light in the desired segment of the electromagnetic spectrum. However, light (ie, the segment of the electromagnetic spectrum) changes based on factors such as temperature, aging, and brightness. Unlike traditional lighting techniques, multi-channel light sources can be processed so that the output of each channel is always visible. Using this information, the controller 112 (i) adjusts the current provided to each channel and / or (ii) compensates for the spectral shift to maintain the desired segment of the electromagnetic spectrum. The above factors can be compensated by adjusting the ratio of channels to. Examples of the controller 112 include a central processing unit (also referred to as a "processor").

いくつかの実施形態では、マルチチャネル光源100は、適切な色チャネルを個別に駆動することによって、カラー光を生成することができる。例えば、コントローラ112は、単一の色チャネル(例えば、赤色光を生成するための赤色チャネル)又は複数の色チャネル(例えば、橙色の光を生成するための赤色チャネル及び琥珀色チャネル)を駆動することによって、マルチチャネル光源100にカラー光を生成させてもよい。上記のように、コントローラ112はまた、各色チャネルを同時に駆動することによって、マルチチャネル光源100に所望のCCTを有する白色光を生成させてもよい。特に、コントローラ112は、混色モデルに基づいて、所望のCCTを達成するために必要な動作パラメータを決定してもよい。動作パラメータは、例えば、各色チャネルに提供されることになる駆動電流を指定してもよい。動作パラメータを変更することにより、コントローラは、白色光のCCTを必要に応じて調節し得る。 In some embodiments, the multi-channel light source 100 can generate color light by individually driving the appropriate color channels. For example, the controller 112 drives a single color channel (eg, a red channel for producing red light) or multiple color channels (eg, a red channel and an amber channel for producing orange light). Thereby, the multi-channel light source 100 may generate color light. As mentioned above, the controller 112 may also cause the multi-channel light source 100 to generate white light with the desired CCT by driving each color channel simultaneously. In particular, the controller 112 may determine the operating parameters required to achieve the desired CCT based on the color mixing model. The operating parameter may specify, for example, the drive current that will be provided to each color channel. By changing the operating parameters, the controller can adjust the CCT of white light as needed.

発光体102は、基板104上に位置するLEDのアレイとして図示されているが、他の配置もまた可能である。いくつかの場合では、熱的制約、サイズ制約、混色制約等の理由により、異なる配置が好ましいことがある。例えば、マルチチャネル光源100は、LEDの円形配置、グリッド配置、又はクラスター配置を含んでいてもよい。 The light emitter 102 is illustrated as an array of LEDs located on the substrate 104, but other arrangements are also possible. In some cases, different arrangements may be preferred due to thermal constraints, size constraints, color mixing constraints, and the like. For example, the multi-channel light source 100 may include a circular arrangement, a grid arrangement, or a cluster arrangement of LEDs.

図1Bは、マルチチャネル光源100の側面図を示しており、いくつかの実施形態おいて、どのように発光体102がハウジング内に存在するかを図示している。ハウジングは、発光体102を取り囲むベースプレート106、及び/又は、発光体102を覆う保護面108を含み得る。ここに示される保護面108はドームの形態であるが、当業者は、他の設計が可能であることを認識するであろう。例えば、保護面108は、代わりに基板104に対して平行に配置されてもよい。さらに、保護面108は、マルチチャネル光源100が電子デバイス内に固定されている際に、保護面108の上面が電子デバイスの外面と実質的に同一平面上にあるように設計されてもよい。保護基板108は、ガラス、プラスチック等の実質的に透明な材料からなり得る。 FIG. 1B shows a side view of the multi-channel light source 100 and illustrates how the illuminant 102 is present in the housing in some embodiments. The housing may include a base plate 106 surrounding the illuminant 102 and / or a protective surface 108 covering the illuminant 102. Although the protective surface 108 shown herein is in the form of a dome, one of ordinary skill in the art will recognize that other designs are possible. For example, the protective surface 108 may instead be arranged parallel to the substrate 104. Further, the protective surface 108 may be designed so that the upper surface of the protective surface 108 is substantially coplanar with the outer surface of the electronic device when the multi-channel light source 100 is fixed in the electronic device. The protective substrate 108 may be made of a substantially transparent material such as glass or plastic.

基板104は、発光体102によって生成された熱を適切に放散することができる任意の材料から構成され得る。
金属基板ではなく、エポキシ樹脂バインダー(例えば、FR4)を備えたガラス繊維織物からなるもののような非金属基板が使用されてもよい。例えば、FR4で構成される基板104は、複数の色チャネルによって生成された熱を、金属基板が典型的に遭遇する保持(retension)の問題を経験することなくより効率的に放散することができる。しかしながら、いくつかの非金属基板は、写真撮影及びビデオ撮影に一般的に使用される高出力発光体と組み合わせて使用することができないため、基板104は、金属、セラミック等からなることがあることに留意されたい。
The substrate 104 may be composed of any material capable of appropriately dissipating the heat generated by the illuminant 102.
Instead of a metal substrate, a non-metal substrate such as one made of a glass fiber woven fabric with an epoxy resin binder (eg, FR4) may be used. For example, the substrate 104 composed of FR4 can dissipate the heat generated by the plurality of color channels more efficiently without experiencing the retention problems typically encountered by metal substrates. .. However, some non-metal substrates cannot be used in combination with high power emitters commonly used for photography and video capture, so the substrate 104 may be made of metal, ceramic, etc. Please note.

発光体102を動作させるために必要な処理コンポーネントは、光源100から物理的に分離されていてもよい。例えば、処理コンポーネントは、基板104を通る導電性ワイヤを介して、発光体102に接続されてもよい。処理コンポーネントの例には、ドライバ110、コントローラ112、電源114(例えば、電池)等が含まれる。したがって、処理コンポーネントは、光源100内に位置する必要はない。代わりに、処理コンポーネントは、光源100が設置されている電子デバイス内の他の場所に位置していてもよい。 The processing components required to operate the illuminant 102 may be physically separated from the light source 100. For example, the processing component may be connected to the light emitter 102 via a conductive wire that passes through the substrate 104. Examples of processing components include a driver 110, a controller 112, a power supply 114 (eg, a battery) and the like. Therefore, the processing component need not be located within the light source 100. Alternatively, the processing component may be located elsewhere in the electronic device where the light source 100 is installed.

以下でさらに説明するように、マルチチャネル光源100は、画像センサと連動して動作するように設計されている。したがって、マルチチャネル光源100は、画像センサがシーンの画像をキャプチャするための命令を受信したとの決定に応答して光を放出するように構成され得る。該命令は、画像をキャプチャする要求を示す入力の受信に応答して作成されてもよい。図1Cに示されるように、画像センサ(ここでは、カメラ152)は、マルチチャネル光源と同じ電子デバイス内に収容されてもよい。該要求は、タッチ感知式ディスプレイの表面に沿った触覚入力、又は、電子デバイスの外側に沿ってアクセス可能な機械式ボタンの形で提供され得る。 As further described below, the multi-channel light source 100 is designed to operate in conjunction with an image sensor. Therefore, the multi-channel light source 100 may be configured to emit light in response to a determination that the image sensor has received a command to capture an image of the scene. The instruction may be created in response to an input indicating a request to capture an image. As shown in FIG. 1C, the image sensor (here, the camera 152) may be housed in the same electronic device as the multi-channel light source. The requirement may be provided in the form of a tactile input along the surface of a touch-sensitive display or a mechanical button accessible along the outside of the electronic device.

いくつかの実施形態では、マルチチャネル光源は、電子デバイスのハウジング内に容易に設置可能なように設計されている。
図1Cは、周囲環境を照明するように構成された背面カメラ152及びマルチチャネル光源154を含む電子デバイス150を示す。マルチチャネル光源154は、例えば、図1A~Bのマルチチャネル光源100であってもよい。背面カメラ152は、光源100によって生成された光と併せて画像をキャプチャするように構成され得る画像センサの一例である。ここでは、電子機器150は、携帯電話である。しかしながら、当業者は、本明細書に記載の技術が、タブレットコンピュータやデジタルカメラ等の他のタイプの電子デバイスに容易に適合され得ることを認識するであろう。
In some embodiments, the multi-channel light source is designed for easy installation within the housing of the electronic device.
FIG. 1C shows an electronic device 150 including a rear camera 152 and a multi-channel light source 154 configured to illuminate the surrounding environment. The multi-channel light source 154 may be, for example, the multi-channel light source 100 of FIGS. 1A to 1B. The rear camera 152 is an example of an image sensor that can be configured to capture an image in conjunction with the light generated by the light source 100. Here, the electronic device 150 is a mobile phone. However, one of ordinary skill in the art will recognize that the techniques described herein may be readily adapted to other types of electronic devices such as tablet computers and digital cameras.

カメラ152は、典型的には電子デバイス150内に含まれる複数の画像センサのうちの1つである。例えば、電子デバイス100は、個人がディスプレイを見ながら静止画像又はビデオをキャプチャすることを可能にする前面カメラを含んでいてもよい。背面カメラ及び前面カメラは、多くの場合、種々異なる用途を目的とした種々異なるタイプの画像センサであり得る。例えば、画像センサは、種々異なる解像度を有する画像をキャプチャ可能であってもよい。別の例として、画像センサは、種々異なる光源と組み合わせられ得る(例えば、背面カメラが前面カメラよりも強いフラッシュに関連付けられてもよく、前面カメラがシングルチャネル光源の近くに配置されている一方で、背面カメラがマルチチャネル光源の近くに配置されていてもよい)。 The camera 152 is typically one of a plurality of image sensors contained within the electronic device 150. For example, the electronic device 100 may include a front camera that allows an individual to capture a still image or video while looking at a display. Rear and front cameras can often be different types of image sensors intended for different uses. For example, the image sensor may be capable of capturing images with different resolutions. As another example, the image sensor can be combined with a variety of different light sources (eg, the rear camera may be associated with a stronger flash than the front camera, while the front camera is located near the single channel light source. , The rear camera may be located near the multi-channel light source).

図2は、発光体202のアレイ200の例を示す。発光体202がLEDである場合、アレイ200は、標準的なダイ(「チップ」とも称される)を使用して製造されてもよい。ダイは、ダイオードが位置している半導体材料の小さなブロックである。典型的には、特定の色に対応するダイオードは、単一のウェハ(例えば、電子グレードのシリコン、ガリウムヒ素などで構成される)上で大量に製造された後、該ウェハは多数のピースへと切断(「ダイシング」)され、該ピースのそれぞれに単一のダイオードが含まれる。これらの各部分が「ダイ」と称されることがある。 FIG. 2 shows an example of an array 200 of the illuminant 202. If the illuminant 202 is an LED, the array 200 may be manufactured using standard dies (also referred to as "chips"). A die is a small block of semiconductor material in which a diode is located. Typically, diodes corresponding to a particular color are mass-produced on a single wafer (eg, composed of electronic grade silicon, gallium arsenide, etc.), and then the wafer is made into multiple pieces. And cut (“diced”), each of the pieces contains a single diode. Each of these parts is sometimes referred to as a "die".

図2に示されるように、アレイ200は、種々異なる色の光を生成するように構成された複数の色チャネルを含む。ここでは、例えば、アレイ200は、5つの色チャネル(青色、藍紫色、石灰色、琥珀色及び赤色)を含む。各色チャネルは、1つ以上の発光体を含み得る。ここでは、例えば、3つの色チャネル(すなわち、青色、藍紫色及び赤色)が複数の発光体を含み、2つの色チャネル(すなわち、藍紫色及び琥珀色)が単一の発光体を含む。各色チャネル内の発光体の数、及び、アレイ200内のこれら発光体の配置は、最大CCT、最小CCT、最大温度等の所望の出力特性に基づいて変更されてもよい。 As shown in FIG. 2, the array 200 includes a plurality of color channels configured to produce light of different colors. Here, for example, the array 200 includes five color channels (blue, violet, lime, amber and red). Each color channel may include one or more illuminants. Here, for example, three color channels (ie, blue, violet and red) contain a plurality of illuminants and two color channels (ie, violet and amber) contain a single illuminant. The number of illuminants in each color channel and the arrangement of these illuminants in the array 200 may be modified based on desired output characteristics such as maximum CCT, minimum CCT, maximum temperature and the like.

アレイ200は、該して1,000ルーメンを超える光を生成可能であるが、いくつかの実施形態は、1,000ルーメン未満(例えば、フラッシュイベント中に、700~800ルーメン)の光を生成するように設計される。いくつかの実施形態では、発光体202は、空間的な色の均一性を改善するために、高度に対称的なパターンでアレイ200内に配置される。例えば、アレイ200が複数の色チャネルの同時駆動によって白色光を生成するように設計されている際、それらの色チャネルに対応する発光体は、カラー光の混合を容易にするために対称的に配置され得る。 The array 200 is capable of producing light in excess of 1,000 lumens, but some embodiments generate light in less than 1,000 lumens (eg, 700-800 lumens during a flash event). Designed to do. In some embodiments, the illuminant 202 is arranged in the array 200 in a highly symmetrical pattern to improve spatial color uniformity. For example, when the array 200 is designed to produce white light by driving multiple color channels simultaneously, the emitters corresponding to those color channels are symmetrical to facilitate mixing of the color lights. Can be placed.

アレイ200は、従来のフラッシュ部品に加えて又はそれに代えて、電子機器(例えば、図1Cの電子機器150)のハウジング内に設置可能なように設計されてもよい。例えば、携帯電話内に設置するように設計されたアレイのいくつかが直径4mm未満である一方で、携帯電話内に設置するように設計されたアレイのいくつかが直径3mm未満である。アレイ200はまた、高さが1mm未満であってもよい。いくつかの実施形態では、アレイにとって必要な推定総面積は、設置前において3mm2未満であり、設置後において6mm2未満であり得る。そのような設計は、携帯電話内のコンポーネントの大幅な再配置を必要とせず、アレイ200を携帯電話内に配置することを可能にする。 The array 200 may be designed to be installed in the housing of an electronic device (eg, the electronic device 150 of FIG. 1C) in addition to or in place of conventional flash components. For example, some arrays designed to be installed in a mobile phone are less than 4 mm in diameter, while some arrays designed to be installed in a mobile phone are less than 3 mm in diameter. The array 200 may also be less than 1 mm in height. In some embodiments, the estimated total area required for the array can be less than 3 mm 2 before installation and less than 6 mm 2 after installation. Such a design allows the array 200 to be placed within the cell phone without the need for significant relocation of components within the cell phone.

コンパクトなダイのアレイの利点の1つは、コリメータ、ディフューザ又はレンズを使用せずに、良好な色混合及び適切な視野(FOV)を実現できることである。しかしながら、発光体202によって生成される光の適切な空間的色均一性を保証するように設計されたコリメータ204(「混合パイプ」とも称される)が、アレイ200の周りに配置されてもよい。高水準では、コリメータ204は、発光体202によって放出される光のFOVのより均一な色混合及びより優れた制御を促進し得る。コリメータ204は、柔軟でない材料(例えば、ガラス)又は柔軟な材料(例えば、シリコーン)からなり得る。コリメータ204は、管状本体の形態であってもよい。いくつかの実施形態では、管状本体の出口開口は、アレイよりも狭い(例えば、出口開口は、2.5mm、3mm又は3.5mmの直径を有していてもよい)一方で、他の実施形態では、管状本体の出口開口は、アレイよりも広い(例えば、出口開口は、4.5mm、5mm又は5.5mmの直径を有していてもよい)。したがって、管状本体は、発光体202によって生成された光を集束又は分散させる傾斜した内面を有していてもよい。 One of the advantages of a compact die array is the ability to achieve good color mixing and proper field of view (FOV) without the use of collimators, diffusers or lenses. However, a collimator 204 (also referred to as a "mixing pipe") designed to ensure proper spatial color uniformity of the light produced by the illuminant 202 may be placed around the array 200. .. At high levels, the collimator 204 may facilitate more uniform color mixing and better control of the FOV of the light emitted by the illuminant 202. The collimator 204 may consist of a non-flexible material (eg, glass) or a flexible material (eg, silicone). The collimator 204 may be in the form of a tubular body. In some embodiments, the outlet opening of the tubular body is narrower than the array (eg, the outlet opening may have a diameter of 2.5 mm, 3 mm or 3.5 mm), while other embodiments. In the form, the outlet opening of the tubular body is wider than the array (eg, the exit opening may have a diameter of 4.5 mm, 5 mm or 5.5 mm). Therefore, the tubular body may have an inclined inner surface that focuses or disperses the light produced by the illuminant 202.

アレイ200は、画像のキャプチャと併せてフラッシュを生成するように構成された従来のフラッシュ技術に代えて又はそれに加えて使用されてもよい。したがって、電子デバイス(例えば、図1Cの電子デバイス150)は、シングルチャネル光源及び/又はマルチチャネル光源を含んでいてもよい。 The array 200 may be used in place of or in addition to conventional flash techniques configured to generate flash in conjunction with image capture. Therefore, the electronic device (eg, the electronic device 150 of FIG. 1C) may include a single-channel light source and / or a multi-channel light source.

実施形態はLEDの文脈で記載されることがあるが、当業者は、LEDに代えて又はそれに加えて、他のタイプの光源が使用され得ると認識するであろう。例えば、本技術の実施形態は、レーザー、量子ドット(「QD」)、有機LED(「OLED」)、共振空洞LED(「RCLED」)、垂直空洞表面発光レーザー(「VCSEL」)、超発光ダイオード(「SLD」又は「SLED」)、リン光物質層の下の青色の「ポンプ」LED、アップコンバージョンリン光物質(例えば、赤外線によって励起されたときに応答を提供する微細なセラミック粒子)、窒化物リン光物質(例えば、CaAlSiN、SrSiN、KSiF)、ダウンコンバージョンリン光物質(例えば、KSF:Mn4+、LiAlN)、リン酸亜鉛ルビジウム、イットリウム-アルミニウム-ガーネット(YAG)リン光物質、ルテチウム-アルミニウム-ガーネット(LAG)リン光物質、SiAlONリン光物質、SiONリン光物質、又は、その他それらの組み合わせを採用してもよい。例えば、アレイ200は、青色LED上のYAGリン光物質コーティングによって生成される石灰色等のリン光物質変換された色を含んでいてもよい。そのような実施形態では、非常に効率的な青色LEDは、ほぼ完全に吸収された後により広い黄緑色帯域で再放出される光子によって、該YAGリン光物質コーティングをポンピングする。これはまた、赤色、琥珀色、緑色、藍紫色等の他の色を作成するためにも実行され得る。別の例として、複数のVCSEL及び/又は複数のQDは、基板が電子デバイスのハウジング内に設置された際に該VCSEL及び/又はQDが電磁放射を外部に放出するように、基板上に所与のパターンで配置され得る。シーンを照明するために使用される発光体のタイプは、照明イベントのスケジュールに影響を与えることがある。換言すれば、いくつかの発光体は、タイミングの観点から調整することが求められることがある。例えば、リン光物質ベースの発光体は、概して励起の遅延及び脱励起の遅延を示すため、リン光物質ベースの光源は、オーバーラップ(すなわち、第2のリン光物質ベースの発光体がアクティブ化された際に第1のリン光物質ベースの発光体が未だにある程度の光を放出していること)を回避するために、早期オン・早期オフの方法でアクティブ化(例えば、ストロボ照射)されてもよい。 Although embodiments may be described in the context of LEDs, one of ordinary skill in the art will recognize that other types of light sources may be used in place of or in addition to LEDs. For example, embodiments of the present technology include lasers, quantum dots (“QD”), organic LEDs (“OLED”), resonant cavity LEDs (“RCLED”), vertical cavity surface emitting lasers (“VCSEL”), and superluminous diodes. ("SLD" or "SLED"), blue "pump" LED under the phosphorescent layer, up-conversion phosphorescent material (eg, fine ceramic particles that provide a response when excited by infrared light), nitrided Phosphorus light substance (eg CaAlSiN, SrSiN, KSiF), down conversion phosphor light substance (eg KSF: Mn4 +, LiAlN), zinc rubidium phosphate, yttrium-aluminum-garnet (YAG) phosphor light substance, lutetium-aluminum- Garnet (LAG) phosphorescent material, SiAlON phosphorescent material, SiON phosphorescent material, or any other combination thereof may be adopted. For example, the array 200 may contain phosphorescent converted colors such as lime produced by the YAG phosphorescent coating on the blue LED. In such an embodiment, a highly efficient blue LED pumps the YAG phosphorescent coating with photons that are almost completely absorbed and then re-emitted in a wider yellow-green band. This can also be done to create other colors such as red, amber, green, indigo and purple. As another example, a plurality of VCSELs and / or a plurality of QDs are placed on the substrate so that the VCSEL and / or the QD emits electromagnetic radiation to the outside when the substrate is installed in the housing of the electronic device. Can be arranged in a given pattern. The type of illuminant used to illuminate the scene can affect the schedule of lighting events. In other words, some illuminants may be required to be tuned in terms of timing. For example, because phosphorescent-based illuminants generally exhibit delayed excitation and de-excitation, phosphorescent-based light sources overlap (ie, a second phosphorescent-based illuminant is activated. It is activated (eg, strobe irradiation) by an early on / early off method to avoid the first phosphorescent material-based illuminant still emitting some light when it is done. May be good.

画像センサの概要
画像センサは、画像を構成する情報を検出するセンサである。一般に、画像センサは、(例えば、物体を通過又は反射する際の)光波の可変減衰を電気信号に変換することによって、該情報検出を実現する。ここで、電気信号は、情報を伝達する電流の小さなバーストを表す。画像センサの例には、半導体-電荷結合素子(CCD)、及び、相補型金属-酸化物-半導体センサ(CMOS)センサが含まれる。どちらのタイプの画像センサも同じタスク、すなわち、キャプチャされた光を電気信号に変換するタスクを実行する。しかしながら、CMOSセンサは、概してCCDよりも安価、小型かつ低消費電力であるため、多くの電子デバイスが画像キャプチャのためにCMOSセンサを使用している。
Overview of image sensor An image sensor is a sensor that detects information that constitutes an image. In general, an image sensor realizes the information detection by converting a variable attenuation of a light wave (eg, when passing or reflecting an object) into an electrical signal. Here, the electrical signal represents a small burst of current carrying information. Examples of image sensors include semiconductor-charge-coupled device (CCD) and complementary metal-oxide-semiconductor sensor (CMOS) sensors. Both types of image sensors perform the same task: converting the captured light into an electrical signal. However, because CMOS sensors are generally cheaper, smaller, and consume less power than CCDs, many electronic devices use CMOS sensors for image capture.

画像センサは、分離メカニズムもまた異なり得る。最も一般的な分離メカニズムの1つは、選択されたピクセルセンサに様々な色の光を渡すフィルタアレイである。例えば、個々のセンサ要素はそれぞれ、化学染料で作製されたカラーゲルによって、赤色光、緑色光又は青色光のいずれかに対して感知可能になるようにされてもよい。画像センサは色に基づいて入射光を分離するため、複数のセンサチャネル又は複数の色チャネルを有しているといえる。したがって、種々異なる色に対応する複数のセンサチャネルを含む画像センサは、「マルチチャネル画像センサ」と称されることがある。 Image sensors can also have different separation mechanisms. One of the most common separation mechanisms is a filter array that passes light of different colors to selected pixel sensors. For example, each sensor element may be made sensitive to either red light, green light or blue light by a color gel made of a chemical dye. Since the image sensor separates the incident light based on the color, it can be said that the image sensor has a plurality of sensor channels or a plurality of color channels. Therefore, an image sensor including a plurality of sensor channels corresponding to various different colors may be referred to as a "multi-channel image sensor".

図3は、画像センサ304上に配置された分離機構302の例を示す。ここでは、分離機構302は、ピクセルごとに入射光を赤色光、緑色光又は青色光に分離するように設計された3つの異なるタイプのカラーフィルタを含むベイヤーフィルタアレイである。一方、画像センサ304は、CMOSセンサであってもよい。画像をキャプチャするために光化学フィルムを用いるのではなく、代わりに、画像センサ304によって生成された電子信号が、その後の分析のためにメモリに記録される。 FIG. 3 shows an example of the separation mechanism 302 arranged on the image sensor 304. Here, the separation mechanism 302 is a Bayer filter array containing three different types of color filters designed to separate incident light into red, green or blue light on a pixel-by-pixel basis. On the other hand, the image sensor 304 may be a CMOS sensor. Instead of using a photochemical film to capture the image, the electronic signal generated by the image sensor 304 is recorded in memory for subsequent analysis.

(例えば、画像をキャプチャする要求を示す入力の受信に応答して)記録機能が開始された後、レンズは、分離機構602を通じて画像センサ604に光を集束させる。図3に示すように、画像センサ304は、別々の画像化要素のグリッドパターン内に配置されてもよい。概して、画像センサ304は、入射光の色ではなく、入射光の強度を決定する。代わりに、色は通常、各画像化要素に単一の色の光のみを許可する分離機構302の使用によって決定される。例えば、ベイヤーフィルタアレイは、入射光を3つの異なる色(すなわち、赤色、緑色、青色)に分離して、これらの異なる色を画像化要素の2×2配置内で平均化するために使用可能な、3つの異なるタイプのカラーフィルタを含む。所与の画像のそれぞれは、そのような画像化要素の配置に関連付けられてもよい。したがって、各ピクセルは、赤色光、緑色光及び青色光に別々の値を割り当てられ得る。色識別の別の方法は、それぞれが画像の一部(例えば、単一の色)についてキャプチャ専用となる別々の画像センサを採用して、それらの結果を組み合わせてフルカラー画像を生成できる。 After the recording function is initiated (eg, in response to receiving an input indicating a request to capture an image), the lens focuses light on the image sensor 604 through the separation mechanism 602. As shown in FIG. 3, the image sensor 304 may be arranged in a grid pattern of separate imaging elements. In general, the image sensor 304 determines the intensity of the incident light, not the color of the incident light. Instead, the color is usually determined by the use of a separation mechanism 302 that allows only a single color of light for each imaging element. For example, a Bayer filter array can be used to separate incident light into three different colors (ie, red, green, blue) and average these different colors within a 2x2 arrangement of imaging elements. Includes three different types of color filters. Each of the given images may be associated with the placement of such imaging elements. Therefore, each pixel can be assigned different values for red light, green light and blue light. Another method of color identification employs separate image sensors, each dedicated to capturing a portion of the image (eg, a single color), and the results can be combined to produce a full-color image.

特徴付けモジュールの概要
図4は、画像の色の忠実度を改善するようにプログラムされた特徴付けモジュール402を含む通信環境400の例を示す。用語「モジュール」は、ソフトウェアコンポーネント、ファームウェアコンポーネント及び/又はハードウェアコンポーネントを広く示す。したがって、以下に記載するプロセスの態様は、ソフトウェア、ファームウェア及び/又はハードウェアに実装され得る。例えば、これらのプロセスは、マルチチャネル画像センサ及びマルチチャネル光源を含む電子デバイス(例えば、携帯電話)上で実行されるソフトウェアプログラム(例えば、モバイルアプリケーション)によって実行され得るか、これらのプロセスは、マルチチャネル画像センサの一部である集積回路によって実行され得る。
Overview of characterization Modules FIG. 4 shows an example of a communication environment 400 including a characterization module 402 programmed to improve the color fidelity of an image. The term "module" broadly refers to software components, firmware components and / or hardware components. Therefore, the aspects of the process described below may be implemented in software, firmware and / or hardware. For example, can these processes be performed by a software program (eg, a mobile application) running on an electronic device (eg, a mobile phone) that includes a multi-channel image sensor and a multi-channel light source, or these processes are multi-channel. It can be performed by an integrated circuit that is part of the channel image sensor.

図4に示すように、特徴付けモジュール402は、種々異なるソースからデータを取得してもよい。ここでは、例えば、特徴付けモジュール402は、マルチチャネル画像センサ408(例えば、図1Cのカメラ152)によって生成された第1のデータ404と、マルチチャネル光源410(例えば、図1Cの光源154)によって生成された第2のデータ406とを取得する。第1のデータ404は、ピクセル単位ベースで、各センサチャネルに適切な値を指定することができる。例えば、マルチチャネル画像センサ408が3つのセンサチャネル(例えば、赤色、緑色及び青色)を含む場合、各ピクセルは、少なくとも3つの別個の値(例えば、赤色の値、緑色の値及び青色の値)に関連付けられることになる。第2のデータ406は、マルチチャネル光源410の各チャネルの特徴を指定することができる。例えば、第2のデータ406は、照明イベント(「ライティングイベント」とも称される)中の各色チャネルの駆動電流、各色チャネルのドミナント波長、各色チャネルの照度プロファイル等を指定してもよい。 As shown in FIG. 4, the characterization module 402 may obtain data from a variety of different sources. Here, for example, the characterization module 402 is driven by a first data 404 generated by a multi-channel image sensor 408 (eg, camera 152 in FIG. 1C) and a multi-channel light source 410 (eg, light source 154 in FIG. 1C). Acquire the generated second data 406. The first data 404 can specify an appropriate value for each sensor channel on a pixel-by-pixel basis. For example, if the multi-channel image sensor 408 contains three sensor channels (eg, red, green and blue), each pixel has at least three distinct values (eg, red, green and blue values). Will be associated with. The second data 406 can specify the characteristics of each channel of the multi-channel light source 410. For example, the second data 406 may specify the drive current of each color channel during a lighting event (also referred to as a “lighting event”), the dominant wavelength of each color channel, the illuminance profile of each color channel, and the like.

いくつかの実施形態では、マルチチャネル画像センサ408及びマルチチャネル光源410は、同じ電子デバイス内に収容されている。他の実施形態では、マルチチャネル画像センサ408及びマルチチャネル光源410は、別々のハウジング内に存在する。例えば、プロフェッショナルの写真撮影又は映像撮影の文脈では、複数のマルチチャネル画像センサ及び複数のマルチチャネル光源は、シーンの種々異なる部分をキャプチャ/照明するために、様々な配置で配置されてもよい。 In some embodiments, the multi-channel image sensor 408 and the multi-channel light source 410 are housed in the same electronic device. In another embodiment, the multi-channel image sensor 408 and the multi-channel light source 410 reside in separate housings. For example, in the context of professional photography or video capture, multiple multi-channel image sensors and multiple multi-channel light sources may be arranged in different arrangements to capture / illuminate different parts of the scene.

図5は、特徴付けモジュール502を含むネットワーク環境500を示す。個人は、インタフェース504を介して、特徴付けモジュール502とインタフェースし得る。以下でさらに説明するように、特徴付けモジュール502は、マルチチャネル画像センサによって生成された画像の色の忠実度を改善することを担当してもよい。特徴付けモジュール502はまた、個人が改善された画像を表示する、後処理操作を開始する、設定を管理する等を行うためのインタフェースを作成及び/又はサポートすることを担当してもよい。 FIG. 5 shows a network environment 500 including the characterization module 502. The individual may interface with the characterization module 502 via interface 504. As further described below, the characterization module 502 may be responsible for improving the color fidelity of the image produced by the multi-channel image sensor. The characterization module 502 may also be responsible for creating and / or supporting interfaces for individuals to display improved images, initiate post-processing operations, manage settings, and so on.

特徴付けモジュール502は、図5に示されるように、ネットワーク環境500に存在してもよい。したがって、特徴付けモジュール502は、1つ以上のネットワーク506a~bに接続されていてもよい。ネットワーク506a~bには、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、メトロポリタンエリアネットワーク(MAN)、セルラーネットワーク、インターネット等が含まれ得る。加えて又はそれに代えて、特徴付けモジュール502は、Bluetooth(登録商標)や近距離通信(NFC)等の短距離通信プロトコルを介して電子デバイスに通信可能に結合され得る。 The characterization module 502 may be present in the network environment 500, as shown in FIG. Therefore, the characterization module 502 may be connected to one or more networks 506a-b. Networks 506a-b may include personal area networks (PANs), local area networks (LANs), wide area networks (WANs), metropolitan area networks (MANs), cellular networks, the Internet, and the like. In addition or instead, the characterization module 502 may be communicably coupled to an electronic device via a short range communication protocol such as Bluetooth® or Near Field Communication (NFC).

いくつかの実施形態では、特徴付けモジュール502は、マルチチャネル画像センサ及びマルチチャネル光源と同じ電子デバイス上に存在する。例えば、特徴付けモジュール502は、携帯電話のマルチチャネル画像センサを操作することができるモバイルアプリケーションの一部であり得る。他の実施形態では、特徴付けモジュール502は、ネットワークを介してマルチチャネル画像センサ及び/又はマルチチャネル光源に通信可能に結合されている。例えば、特徴付けモジュール502は、コンピュータサーバ上に存在するネットワークアクセス可能なプラットフォーム(「クラウドプラットフォーム」とも称される)によって実行されてもよい。 In some embodiments, the characterization module 502 resides on the same electronic device as the multi-channel image sensor and multi-channel light source. For example, the characterization module 502 may be part of a mobile application capable of manipulating a mobile phone's multi-channel image sensor. In another embodiment, the characterization module 502 is communicably coupled to a multi-channel image sensor and / or a multi-channel light source via a network. For example, the characterization module 502 may be run by a network accessible platform (also referred to as a "cloud platform") that resides on the computer server.

インタフェース504は、好ましくは、ウェブブラウザ、デスクトップアプリケーション、モバイルアプリケーション又はオーバー・ザ・トップ(OTT)アプリケーションを介してアクセス可能である。したがって、インタフェース504は、携帯電話、タブレットコンピュータ、パーソナルコンピュータ、ゲームコンソール、音楽プレーヤ、ウェアラブル電子デバイス(例えば、時計又はフィットネスアクセサリ)、ネットワーク接続された(「スマート」)電子デバイス(例えば、テレビ又はホームアシスタントデバイス)、仮想/拡張現実システム(例:ヘッドマウントディスプレイ)又はその他の電子デバイス上に表示されてもよい。 Interface 504 is preferably accessible via a web browser, desktop application, mobile application or over-the-top (OTT) application. Accordingly, the interface 504 is a mobile phone, tablet computer, personal computer, game console, music player, wearable electronic device (eg, watch or fitness accessory), networked (“smart”) electronic device (eg, television or home). It may be displayed on an assistant device), a virtual / augmented reality system (eg, a head-mounted display) or other electronic device.

特徴付けモジュール502のいくつかの実施形態は、ローカルにホストされる。すなわち、特徴付けモジュール502は、マルチチャネル画像センサ又はマルチチャネル光源と同じ電子デバイス上に存在してもよい。例えば、特徴付けモジュール502は、携帯電話のマルチチャネル画像センサを動作させることが可能なモバイルアプリケーションの一部であり得る。 Some embodiments of the characterization module 502 are hosted locally. That is, the characterization module 502 may reside on the same electronic device as the multi-channel image sensor or multi-channel light source. For example, the characterization module 502 may be part of a mobile application capable of operating a mobile phone's multi-channel image sensor.

特徴付けモジュール502の他の実施形態は、Amazon Web Services(登録商標)(AWS)、Google Cloud Platform(商標)Microsoft Azure(登録商標)又は同様のテクノロジーによって運用されるクラウドコンピューティングサービスによって実行される。そのような実施形態では、特徴付けモジュール502は、1つ以上のコンテンツコンピュータサーバ508に通信可能に結合されたホストコンピュータサーバ上に存在してもよい。コンテンツコンピュータサーバ508は、色混合モデル、後処理に必要なアイテム(例えば、ヒューリスティックやアルゴリズム)及び他のアセットを含み得る。 Other embodiments of the characterization module 502 are performed by a cloud computing service operated by Amazon Web Services® (AWS), Google Cloud Platform® Microsoft Azure® or similar technology. .. In such an embodiment, the characterization module 502 may reside on a host computer server communicatively coupled to one or more content computer servers 508. The content computer server 508 may include a color mixing model, items required for post-processing (eg, heuristics and algorithms) and other assets.

実施形態は、ネットワーク接続された電子デバイスの文脈で説明されることがあるが、特徴付けモジュール502は、必ずしもネットワークを介して継続的にアクセス可能である必要はない。例えば、電子デバイスは、展開前の構成手順を完了している間はネットワークにアクセス可能なプラットフォームにのみアクセスする、自己完結型コンピュータプログラムを実行するように構成されてもよい。そのような実施形態では、自己完結型コンピュータプログラムは、単一の時点にて、情報をネットワークアクセス可能なプラットフォームからダウンロード、又は、該プラットフォームにアップロードしてもよい。電子デバイスの展開後(例えば、電子デバイスが販売のためにパッケージ化された後)、自己完結型コンピュータプログラムは、ネットワークアクセス可能なプラットフォームと通信しなくてもよい。 Although embodiments may be described in the context of networked electronic devices, the characterization module 502 does not necessarily have to be continuously accessible over the network. For example, the electronic device may be configured to run a self-contained computer program that only accesses the network accessible platform while completing the pre-deployment configuration steps. In such embodiments, the self-contained computer program may download or upload information to or from a network accessible platform at a single point in time. After deploying the electronic device (eg, after the electronic device has been packaged for sale), the self-contained computer program does not have to communicate with a network-accessible platform.

リファレンス発光体スペクトルを使用したホワイトバランス
現代のデジタルカメラは、画像の生成時にホワイトバランスを自動的に実行するように設計されている。例えば、電子デバイスはAWB設定を有しており、該AWB設定は、選択されると、最も明るい部分を白色点として識別してからそのリファレンスに基づいてデジタル画像の色のバランスをとるように設計されたアルゴリズムによって、シーンを評価されるようにする。このようなアプローチは、リファレンスとして使用可能な既知の反射スペクトルがシーンに含まれている際は、忠実度の高い色を生成するのにかなり効果的である傾向がある。例えば、プロフェッショナル写真家/映像作家は通常、AWBアルゴリズムのリファレンスとして使用可能なシーンに、グレーカード又はカラーチェッカーを追加するようにしている。
White Balance Using Reference Emissive Spectrum Modern digital cameras are designed to automatically perform white balance when an image is generated. For example, an electronic device has an AWB setting that, when selected, is designed to identify the brightest part as a white point and then balance the colors of the digital image based on that reference. Allows the scene to be evaluated by the algorithm. Such an approach tends to be quite effective in producing high fidelity colors when the scene contains known reflection spectra that can be used as a reference. For example, professional photographers / videographers typically add gray cards or color checkers to scenes that can be used as a reference for AWB algorithms.

該シーンが既知の反射スペクトルを含まないとき、AWBアルゴリズムは、色に関して目に見えて不正確なデジタル画像を生成する可能性がある(多くの場合、そうなる)。例えば、該シーンにおいて赤色が支配的である場合、AWBアルゴリズムはこれをウォームな発光体によって誘発された色被りと間違えて、平均色をニューラル(neural)に近づけることによって補正することを試みることがある。しかしながら、これによって青みがかった色被りが導入され、この色被りはかなり目立ち得る。 When the scene does not contain a known reflection spectrum, the AWB algorithm can (and often does) produce a digital image that is visibly inaccurate with respect to color. For example, if red is dominant in the scene, the AWB algorithm may try to correct it by confusing it with a warm illuminant-induced color cast and bringing the average color closer to neural. be. However, this introduces a bluish tint, which can be quite noticeable.

既知の反射スペクトルを追加することは多くの状況において現実的でないため、忠実度の高い色で画像を生成するためのより良いアプローチが必要である。本明細書に提示するのは、既知の反射スペクトルが全くない場合において、忠実度の高い色再現を実現するためのコンピュータプログラム、及び、関連するコンピュータ実装技術である。すなわち、忠実度の高い色再現が、グレーカードやカラーチェッカー等のポータブルリファレンスを用いることなく実現可能である。これを実現するために、新規なリファレンススペクトル「リファレンス発光体スペクトル」が、画像センサによって画像化されることになるシーンに導入される。リファレンス発光体スペクトルは、スペクトル特性が既知のマルチチャネル光源によって作成される。 Adding known reflection spectra is not practical in many situations, so a better approach is needed to generate images with high fidelity colors. Presented herein are computer programs and related computer implementation techniques for achieving high fidelity color reproduction in the absence of any known reflection spectrum. That is, color reproduction with high fidelity can be realized without using a portable reference such as a gray card or a color checker. To achieve this, a new reference spectrum, the "reference illuminant spectrum," is introduced into the scene that will be imaged by the image sensor. The reference illuminant spectrum is created by a multi-channel light source with known spectral characteristics.

図6は、マルチチャネル画像センサとマルチチャネル光源とを含む電子デバイスを展開前に較正するプロセス600のフロー図を示す。プロセス600は、販売のためにパッケージ化される前に、電子デバイスの製造元によって開始されてもよい。 FIG. 6 shows a flow diagram of process 600 for pre-deployment calibration of an electronic device including a multi-channel image sensor and a multi-channel light source. Process 600 may be initiated by the manufacturer of the electronic device before being packaged for sale.

まず、製造元は、少なくとも1つの既知の反射スペクトルを含むシーンを選択する(ステップ601)。通常、製造元は、1つ以上のポータブルリファレンスを含むシーンを選択及び/又は作成することによって、これを実現する。ポータブルリファレンスの一例は、フラットな反射スペクトルに由来するニュートラルグレーカラーのフラットな表面であり、これは「グレーカード」と称される。ポータブルリファレンスの別の例は、種々異なる反射スペクトルに対応する一連の種々異なる色のフラットな表面であり、「カラーチェッカー」と称される。一般に、製造元は、様々な異なる反射スペクトルが含まれるようにシーンを選択する。これらの種々異なる反射スペクトルは、単一のポータブルリファレンス(例:カラーチェッカー)、又は、複数のポータブルリファレンス(例:カラーチェッカーとグレーカード)によって提供され得る。 First, the manufacturer selects a scene that contains at least one known reflection spectrum (step 601). Manufacturers typically achieve this by selecting and / or creating a scene that contains one or more portable references. An example of a portable reference is a flat surface in neutral gray color derived from a flat reflection spectrum, which is referred to as a "gray card". Another example of a portable reference is a series of flat surfaces of different colors that correspond to different reflection spectra and is referred to as a "color checker". In general, the manufacturer selects the scene to include a variety of different reflection spectra. These different reflection spectra can be provided by a single portable reference (eg, color checker) or by multiple portable references (eg, color checker and gray card).

次に、シーンの画像のセットが、相次いでキャプチャされる。例えば、電子デバイスは、該シーンの第1の画像を、第1の露出間隔にわたって、自動ホワイトバランス(AWB)設定を用いてキャプチャする(ステップ602)と共に、該シーンの第2の画像を、第2の露出間隔にわたって、固定ホワイトバランス(FWB)設定を用いてキャプチャしてもよい(ステップ603)。第1の画像も第2の画像も、マルチチャネル光源によって実行される照明イベントと組み合わせて撮影されることはない。換言すれば、第1及び第2の画像は、同じ周囲光だが異なるホワイトバランス設定と組み合わせてキャプチャされる。通常、AWB設定は、色被りを自動的に修正するために、デフォルトでは電子デバイスによって適用される。一方、FWB設定は、カスタムホワイトバランスであるか、電子デバイスによって提供される、様々な色温度に対応するプリセットホワイトバランスのうち1つであるかのいずれかであってもよい。プリセットホワイトバランスの例には、タングステン、蛍光灯、日中、フラッシュ、曇天、日陰等が含まれる。概して、第1の露出間隔は、第2の露出間隔とは異なる。例えば、第2の露出間隔は、第1の露出間隔の10、20、30又は50パーセントであってもよい。 Next, a set of images of the scene is captured one after another. For example, the electronic device captures a first image of the scene over the first exposure interval using the automatic white balance (AWB) setting (step 602) and a second image of the scene. You may capture using the fixed white balance (FWB) setting over the exposure interval of 2 (step 603). Neither the first image nor the second image is taken in combination with a lighting event performed by a multi-channel light source. In other words, the first and second images are captured in combination with the same ambient light but different white balance settings. Normally, AWB settings are applied by electronic devices by default to automatically correct color cast. On the other hand, the FWB setting may be either a custom white balance or one of the preset white balances provided by the electronic device for various color temperatures. Examples of preset white balances include tungsten, fluorescent lights, daytime, flash, cloudy weather, shade and the like. In general, the first exposure interval is different from the second exposure interval. For example, the second exposure interval may be 10, 20, 30 or 50 percent of the first exposure interval.

電子デバイスはまた、該シーンの一連の示差的に照明された画像を、FWB設定を用いてキャプチャしてもよい(ステップ604)。すなわち、電子デバイスは、一連の種々異なる発光体スペクトルと組み合わせて一連の画像をキャプチャしてもよい。図9に関して以下でさらに説明するように、該一連の異なる発光体スペクトルは、全ての色チャネルが単一の色チャネルによってより高い強度で照明される一連のフラッシュが生成されるようにマルチチャネル光源の各色チャネルを集成する(addressing)ことによって、生成可能である。したがって、示差的に照明された画像の数は、マルチチャネル光源が有する色チャネルの数に対応してもよい。 The electronic device may also capture a series of differentially illuminated images of the scene using the FWB setting (step 604). That is, the electronic device may capture a series of images in combination with a series of different illuminant spectra. As further described below with respect to FIG. 9, the series of different emitter spectra is a multi-channel light source such that all color channels produce a series of flashes that are illuminated with higher intensity by a single color channel. It can be generated by addressing each color channel of. Therefore, the number of differentially illuminated images may correspond to the number of color channels of the multi-channel light source.

その後、特徴付けモジュールは、画像のセット、すなわち、第1の画像、第2の画像、及び一連の示差的に照明された画像の分析に基づいて、較正行列を計算することができる(ステップ605)。図7に関して以下でさらに説明するように、較正行列の各エントリは、画像のセット内の対応するピクセルから計算された係数のベクトルを含んでいてもよい。次に、特徴付けモジュールは、該較正行列を、電子デバイスにアクセス可能なメモリ内に格納することができる(ステップ606)。通常、較正行列は、後の画像化動作の間により迅速にコールバックされるために、電子デバイスのローカルメモリ内に格納される。しかしながら、較正行列は、ローカルメモリの代わりに又はそれに加えて、ネットワークを介して電子デバイスにアクセス可能なリモートメモリ内に格納される可能性がある。 The characterization module can then calculate the calibration matrix based on the analysis of a set of images, i.e., a first image, a second image, and a series of differentially illuminated images (step 605). ). As further described below with respect to FIG. 7, each entry in the calibration matrix may contain a vector of coefficients calculated from the corresponding pixels in the set of images. The characterization module can then store the calibration matrix in memory accessible to the electronic device (step 606). The calibration matrix is usually stored in the local memory of the electronic device for quicker callback during later imaging operations. However, the calibration matrix may be stored in remote memory accessible to electronic devices over the network, in place of or in addition to local memory.

図7は、AWB設定を用いてキャプチャされた第1の画像と、FWB設定を用いてキャプチャされた第2の画像と、FWB設定を用いてキャプチャされた一連の示差的に照明された画像とに基づいて、較正行列を計算するプロセス700のフロー図を示す。高水準では、特徴付けモジュールは、各ピクセル毎に、較正行列内の対応するエントリに登録するために使用可能な、周囲が差し引かれた色度フィンガープリント(又は、単に「色度フィンガープリント」)を生成できる。 FIG. 7 shows a first image captured using the AWB setting, a second image captured using the FWB setting, and a series of differentially illuminated images captured using the FWB setting. The flow diagram of the process 700 to calculate the calibration matrix based on is shown. At a high level, the characterization module, for each pixel, can be used to register for the corresponding entry in the calibration matrix, with the perimeter subtracted chromaticity fingerprint (or simply "chromaticity fingerprint"). Can be generated.

まず、特徴付けモジュールは、第2の画像内の各ピクセルの赤色、緑色及び青色の値を、一連の示差的に照明された画像内の対応するピクセルの赤色、緑色及び青色の値から除算することによって、一連の改変された画像を作成する(ステップ701)。これにより、各ピクセルの赤色、緑色及び青色のチャネルが、照明されていない第2の画像におけるその量だけ減少した、改変された画像が得られる。 First, the characterization module divides the red, green, and blue values of each pixel in the second image from the red, green, and blue values of the corresponding pixels in a series of differentially illuminated images. This creates a series of modified images (step 701). This results in a modified image in which the red, green and blue channels of each pixel are reduced by that amount in the unlit second image.

次に、特徴付けモジュールは、各ピクセルが一連のa*値及び一連のb*値によって表されるように、一連の改変された画像をCIELAB色空間に変換する(ステップ702)。CIELAB色空間(「CIE L***色空間」又は「Lab色空間」とも称される)では、色は、明度L*(黒色(0)~白色(11))、a*(緑色(-)~赤色(+))、b*(青色(-)~黄色(+))の3つの値として表現される。色度フィンガープリントは、これらのa*値及びb*値からなる。例えば、マルチチャネル光源が5つの色チャネルを含んでいると仮定する。このような状況では、一連の改変された画像が5つの画像を含むことになり、各ピクセルについての色度フィンガープリント(F)は、以下のベクトル形式で表現可能である:
F=[a* 1* 1* 2* 2* 3* 3* 4* 4* 5* 5
ここで、各値のペア(a* i* i)は、改変された画像の1つにおける対応するピクセルに関連付けられている。同様に、特徴付けモジュールは、各ピクセルがリファレンスa*値及びリファレンスb*値として表されるように、第1の画像をCIELAB色空間に変換することができる(ステップ703)。グラウンドトゥルースの答えを表すリファレンスa*及びb*値は、以下に示すベクトル形式で表すことができる。
[a* r* r
The characterization module then transforms a series of modified images into a CIELAB color space so that each pixel is represented by a series of a * values and a series of b * values (step 702). In the CIELAB color space (also referred to as "CIE L * a * b * color space" or "Lab color space"), the colors are lightness L * (black (0) to white (11)), a * (green). It is expressed as three values (-) to red (+)) and b * (blue (-) to yellow (+)). The chromaticity fingerprint consists of these a * and b * values. For example, suppose a multi-channel light source contains five color channels. In such a situation, the series of modified images will contain 5 images, and the chromaticity fingerprint (F) for each pixel can be represented in the following vector format:
F = [a * 1 b * 1 a * 2 b * 2 a * 3 b * 3 a * 4 b * 4 a * 5 b * 5 ]
Here, each value pair (a * i b * i ) is associated with the corresponding pixel in one of the modified images. Similarly, the characterization module can transform the first image into the CIELAB color space so that each pixel is represented as a reference a * value and a reference b * value (step 703). The reference a * and b * values representing Ground Truth's answer can be expressed in the vector format shown below.
[A * r b * r ]

各ピクセル毎に、特徴付けモジュールは、a*及びb*についての線形方程式系を、係数(C)のベクトルを用いて以下に示すように形成することができる。
C・[a* 1* 1* 2* 2* 3* 3* 4* 4* 5* 5xy=a* r,xy
C・[a* 1* 1* 2* 2* 3* 3* 4* 4* 5* 5xy=b* r,xy
ここで、C=[c12345]であり、xyはピクセルの座標である。したがって、第1の画像の所与のピクセルの色の値は、係数のベクトルと、一連の改変された画像から決定された該ピクセルの色度フィンガープリントとの内積として規定される。高水準では、線形方程式系のそれぞれは、(i)所与のピクセルのリファレンスa*値と該所与のピクセルの一連のa*値とに基づく第1の線形方程式を表す(ステップ704)と共に(ii)所与のピクセルのリファレンスb*値及び該所与のピクセルの一連のb*値に基づく第2の線形方程式を表す(ステップ705)。
For each pixel, the characterization module can form a system of linear equations for a * and b * using the vector of coefficients (C) as shown below.
C ・ [a * 1 b * 1 a * 2 b * 2 a * 3 b * 3 a * 4 b * 4 a * 5 b * 5 ] xy = a * r, xy
C ・ [a * 1 b * 1 a * 2 b * 2 a * 3 b * 3 a * 4 b * 4 a * 5 b * 5 ] xy = b * r, xy
Here, C = [c 1 c 2 c 3 c 4 c 5 ], and xy is the coordinate of the pixel. Therefore, the color value of a given pixel in the first image is defined as the inner product of the coefficient vector and the chromaticity fingerprint of that pixel determined from a series of modified images. At a high level, each of the systems of linear equations, with (i) a first linear equation based on (i) a reference a * value of a given pixel and a series of a * values of the given pixel (step 704). (Ii) Represents a second linear equation based on a reference b * value of a given pixel and a series of b * values of the given pixel (step 705).

その後、特徴付けモジュールは、各ピクセル毎に、係数のベクトルを生成するために、線形方程式系に対して最小二乗最適化を実行することができる(ステップ706)。換言すれば、特徴付けモジュールは、係数を確立するために、最小二乗最適化を実行することができる。次に、特徴付けモジュールは、較正行列を表すデータ構造に、係数のベクトルを登録することができる(ステップ707)。較正行列内の各エントリは、対応するピクセルに対して確立された係数のベクトルを含んでいてもよい。 The characterization module can then perform a least squares optimization on the system of linear equations to generate a vector of coefficients for each pixel (step 706). In other words, the characterization module can perform least squares optimization to establish the coefficients. The characterization module can then register a vector of coefficients in the data structure representing the calibration matrix (step 707). Each entry in the calibration matrix may contain a vector of coefficients established for the corresponding pixel.

図8は、(例えば、図6のプロセス600を完了することによって)展開前の較正プロセス中に電子デバイス用に作成された較正行列を採用するプロセス800のフロー図を示す。較正行列を採用することによって、電子デバイスは、ポータブルリファレンスがシーン内に存在している必要なく、忠実度の高い色再現を達成することができる。 FIG. 8 shows a flow diagram of process 800 that employs a calibration matrix created for electronic devices during the pre-deployment calibration process (eg, by completing process 600 in FIG. 6). By adopting a calibration matrix, the electronic device can achieve high fidelity color reproduction without the need for a portable reference to be present in the scene.

まず、シーンの画像のセットが、相次いでキャプチャされる。例えば、電子デバイスは、該シーンの第1の画像を、第1の露出間隔にわたって、AWB設定を用いてキャプチャする(ステップ801)と共に、該シーンの第2の画像を、第2の露出間隔にわたって、FWB設定を用いてキャプチャしてもよい(ステップ802)。第1の画像も第2の画像も、マルチチャネル光源によって実行される照明イベントと組み合わせて撮影されることはない。概して、第1の露出間隔は、第2の露出間隔とは異なる。例えば、第2の露出間隔は、第1の露出間隔の10、20、30又は50パーセントであってもよい。電子デバイスはまた、該シーンの一連の示差的に照明された画像を、FWB設定を用いてキャプチャしてもよい(ステップ803)。すなわち、電子デバイスは、一連の種々異なる発光体スペクトルと組み合わせて一連の画像をキャプチャしてもよい。図9に関して以下でさらに説明するように、該一連の異なる発光体スペクトルは、全ての色チャネルが単一の色チャネルによってより高い強度で照明される一連のフラッシュが生成されるようにマルチチャネル光源の各色チャネルを集成することによって、生成可能である。したがって、示差的に照明された画像の数は、マルチチャネル光源が有する色チャネルの数に対応してもよい。 First, a set of images of the scene is captured one after another. For example, the electronic device captures the first image of the scene over the first exposure interval using the AWB setting (step 801) and captures the second image of the scene over the second exposure interval. , You may capture using the FWB setting (step 802). Neither the first image nor the second image is taken in combination with a lighting event performed by a multi-channel light source. In general, the first exposure interval is different from the second exposure interval. For example, the second exposure interval may be 10, 20, 30 or 50 percent of the first exposure interval. The electronic device may also capture a series of differentially illuminated images of the scene using the FWB setting (step 803). That is, the electronic device may capture a series of images in combination with a series of different illuminant spectra. As further described below with respect to FIG. 9, the series of different emitter spectra is a multi-channel light source such that all color channels produce a series of flashes that are illuminated with higher intensity by a single color channel. It can be generated by assembling each color channel of. Therefore, the number of differentially illuminated images may correspond to the number of color channels of the multi-channel light source.

次に、特徴付けモジュールは、第2の画像内の各ピクセルの赤色、緑色及び青色の値を、一連の示差的に照明された画像内の対応するピクセルの赤色、緑色及び青色の値から除算することによって、一連の改変された画像を作成する(ステップ804)。これにより、各ピクセルの赤色、緑色及び青色のチャネルが、照明されていない第2の画像におけるその量だけ減少した、改変された画像が得られる。次に、特徴付けモジュールは、各ピクセルについて、一連の改変された画像に基づいて、色度フィンガープリントを生成し得る(ステップ805)。図8のステップ805は、図7のステップ702と実質的に同様である。これらの色度フィンガープリントに較正行列を乗算し、それによって各ピクセル毎の較正されたa*値及び較正されたb*値を取得し得る(ステップ806)。より具体的には、各色度フィンガープリントに較正行列内の対応するエントリを乗算し、それによって較正されたa*及びb*値を取得し得る。概して、較正行列は、電子デバイスのローカルメモリ内に格納されている。しかしながら、較正行列は、電子デバイスがネットワークを介して接続されるリモートメモリから引き出され得る。 The characterization module then divides the red, green, and blue values of each pixel in the second image from the red, green, and blue values of the corresponding pixels in a series of differentially illuminated images. By doing so, a series of modified images is created (step 804). This results in a modified image in which the red, green and blue channels of each pixel are reduced by that amount in the unlit second image. The characterization module may then generate a chromaticity fingerprint for each pixel based on a series of modified images (step 805). Step 805 of FIG. 8 is substantially similar to step 702 of FIG. These chromaticity fingerprints can be multiplied by a calibration matrix to obtain calibrated a * and calibrated b * values for each pixel (step 806). More specifically, each chromaticity fingerprint can be multiplied by the corresponding entry in the calibration matrix to obtain the calibrated a * and b * values. Generally, the calibration matrix is stored in the local memory of the electronic device. However, the calibration matrix can be drawn from remote memory to which the electronic device is connected over the network.

その後、特徴付けモジュールは、各ピクセルがL*値、a*値、及びb*値として表されるように、第1の画像をCIELAB色空間に変換することができる(ステップ807)。しかしながら、これらのa*及びb*値を使用するのではなく、特徴付けモジュールは、それらをステップ806にて取得された較正されたa*及びb*値で置換することによって、較正された画像を生成することができる。この較正された画像は、第1の画像のL*値と、一連の改変された画像から導出された較正されたa*及びb*値を用いて、色を表現してもよい。 The characterization module can then transform the first image into the CIELAB color space so that each pixel is represented as an L * value, an a * value, and a b * value (step 807). However, rather than using these a * and b * values, the characterization module replaces them with the calibrated a * and b * values obtained in step 806 to calibrate the image. Can be generated. This calibrated image may represent color using the L * values of the first image and the calibrated a * and b * values derived from a series of modified images.

物理的可能性に反しない限り、上述のステップは、様々な順序及び組み合わせで実行されてもよいことが想定される。例えば、図6のプロセス600の複数のインスタンスは、画像の複数のセットに対して実行され得る。他のステップもまた、いくつかの実施形態に含まれていてもよい。例えば、電子デバイスは、確認のために、較正された画像をインタフェース上に表示させることができる。電子デバイスは、個人が差異を確認できるように、較正された画像を第1の画像の近くに表示し得る、又は、電子デバイスは、個人が較正された画像と第1の画像とを交互に切り替えることを可能にし得る。 It is envisioned that the above steps may be performed in various orders and combinations, as long as it does not violate physical potential. For example, multiple instances of process 600 in FIG. 6 may be executed for multiple sets of images. Other steps may also be included in some embodiments. For example, the electronic device can display a calibrated image on the interface for confirmation. The electronic device may display a calibrated image near the first image so that the individual can see the difference, or the electronic device alternates between the personally calibrated image and the first image. It may be possible to switch.

図9は、マルチチャネル光源(又は単に「光源」)が一連の照明イベントを実行し、それによってシーンを示差的に照明する方法を図示する。示差的な照明は、図6に関して記載した較正プロセス及び図8に関して記載した最適化プロセスの鍵となる可能性がある。 FIG. 9 illustrates how a multi-channel light source (or simply a "light source") performs a series of lighting events, thereby illuminating the scene differentially. Differential lighting can be key to the calibration process described for FIG. 6 and the optimization process described for FIG.

例えば、光源に5つの異なる色チャネルが含まれており、5つの異なる発光体スペクトルが生成されるとする。各色チャネルは、個別に電流で駆動されてもよい。より具体的には、各色チャネルは、オフ状態(例えば、出力レベルが0である場合)と最大強度状態(例えば、出力レベルが255である場合)との間のいくつかの中間状態にて集成可能であってもよい。一例として、最大強度状態は、およそ1アンペアの出力電流に対応していてもよく、一方で、全ての中間状態は、何らかの小数アンペアに対応し得る。 For example, suppose a light source contains five different color channels and produces five different illuminant spectra. Each color channel may be individually driven by an electric current. More specifically, each color channel aggregates in some intermediate state between the off state (eg, when the output level is 0) and the maximum intensity state (eg, when the output level is 255). It may be possible. As an example, the maximum intensity state may correspond to an output current of approximately 1 amp, while all intermediate states may correspond to some fractional amp.

種々異なる発光体スペクトルを生成するために、種々異なる色チャネルの駆動電流が変更され得る。図9は、対応する複合発光体スペクトルと共に示さるチャネルスペクトルの5つの異なる組み合わせの例を含む。ここで、各複合発光体スペクトルは、4つの色チャネルを出力レベル100にて駆動し、1つの色チャネルを出力レベル150にて駆動することによって生成される。しかしながら、当業者は、これらの番号が単に説明の目的のためにのみ提供されていることを認識するであろう。概して、1つの出力レベルが他の出力レベルよりも高い限りにおいて、出力レベル自体は重要ではないが、白色光を生成するのに十分な電流で全ての色チャネルを駆動することが望ましいことがある。図9に示すように、各複合発光体スペクトルは、それぞれ異なるスペクトルパワー分布(SPD)を有する。 The drive currents of the different color channels can be modified to produce different illuminant spectra. FIG. 9 contains examples of five different combinations of channel spectra shown with the corresponding complex illuminant spectra. Here, each composite illuminant spectrum is generated by driving four color channels at an output level of 100 and one color channel at an output level of 150. However, one of ordinary skill in the art will recognize that these numbers are provided solely for explanatory purposes. In general, as long as one output level is higher than the other, the output level itself is not important, but it may be desirable to drive all color channels with sufficient current to produce white light. .. As shown in FIG. 9, each composite illuminant spectrum has a different spectral power distribution (SPD).

忠実度の高い色再現の必要性の証拠
図10~16は、忠実度の高い色を再現するために、本明細書に記載のリファレンス発光体ホワイトバランス(RIWB)アプローチが必要な理由を図示する。各図面において、左上隅の第1の画像は、既知の反射スペクトルを有さないシーンでAWB設定を用いて撮影されている一方で、右上隅の第2の画像は、(ここでは、カラーチェッカーによって提供される)既知の反射スペクトルを有する同じシーンでAWB設定を用いて撮影されている。高水準では、第2の画像は、第1の画像が実際にどのように見えるかを示す「グラウンドトゥルース」と考えることができる。
Evidence of the Need for High Fidelity Color Reproduction Figures 10-16 illustrate why the reference illuminant white balance (RIWB) approach described herein is needed to reproduce high fidelity colors. .. In each drawing, the first image in the upper left corner is taken with the AWB setting in a scene that does not have a known reflection spectrum, while the second image in the upper right corner (here, the color checker). The same scene with a known reflection spectrum (provided by) is taken with the AWB setting. At a high level, the second image can be thought of as a "ground truth" that shows what the first image actually looks like.

これらの画像の下には、2つの列がある。第1の列は、各画像のセグメント化された部分内におけるピクセルの平均色の比較を含み、第2の列は、それらのピクセルの明度スケーリング操作後における平均色の比較を視覚的に含む。これらの平均色値は、第1の画像のピクセルが第2の画像と比較してどれほど近いかについての指標を提供する。なお、これらの平均色値は、かなり離れている可能性があることに留意されたい。実際、これらの平均色値は、色誤差に対応するデルタE(dE)値によって示されるように、ほとんどの場合、互いに容易に区別できる。これらのデルタE値の多くは5.0を超えており、これは、第1の画像と第2の画像との視覚的な違いが非常に目立つはずであることを意味する。本明細書に記載のRIWBアプローチを採用することによって、1.0未満のデルタE値を達成することができる。ほとんどの場合、デルタE値が1.0未満である色のペアは、視覚的に互いに区別不可能となる。 Below these images are two columns. The first column contains a comparison of the average colors of the pixels within the segmented portion of each image, and the second column visually contains a comparison of the average colors of those pixels after the brightness scaling operation. These average color values provide an indicator of how close the pixels of the first image are compared to the second image. It should be noted that these average color values can be quite different. In fact, these average color values are, in most cases, easily distinguishable from each other, as indicated by the delta E (dE) value corresponding to the color error. Many of these delta E values are above 5.0, which means that the visual difference between the first and second images should be very noticeable. By adopting the RIWB approach described herein, a delta E value of less than 1.0 can be achieved. In most cases, color pairs with a delta E value of less than 1.0 are visually indistinguishable from each other.

第2の列は、セグメント化された部分が同じ明度になるように調整されていることを除いて、第1の列とほぼ同じである。すなわち、セグメント化された部分のピクセルは、CIELAB色空間で同じL*値を有するようにスケーリングされる。これは、既知の反射スペクトルと未知の反射スペクトルとを比較する際において、カラーチェッカーの導入が露出に影響し、それによって第2の画像が明るくなったり暗くなったりすることがあるために行われる。第2の列において見られるように、第1及び第2の画像のセグメント化された部分の間で輝度レベルを等しくしたにもかかわらず(すなわち、これらの画像の暗い部分を明るくしたり、これらの画像の明るい部分を暗くしたりすることによって)、色は未だ大幅にずれている。 The second column is similar to the first column, except that the segmented parts are adjusted to have the same lightness. That is, the pixels in the segmented portion are scaled to have the same L * value in the CIELAB color space. This is done because the introduction of a color checker can affect the exposure when comparing the known and unknown reflection spectra, which can make the second image brighter or darker. .. As can be seen in the second column, despite equalizing the brightness levels between the segmented parts of the first and second images (ie, brightening the dark parts of these images, or these. The colors are still significantly off (by darkening the bright areas of the image).

コンピューティングシステム
図17は、本明細書に記載の動作の少なくともいくつかを実装可能なコンピューティングシステム1700の例を示すブロック図である。例えば、コンピューティングシステム1700のいくつかのコンポーネントは、マルチチャネル光源及び/又はマルチチャネル画像センサを含む電子デバイス(例えば、図1の電子デバイス150)の一部であってもよい。
Computing System FIG. 17 is a block diagram showing an example of a computing system 1700 capable of implementing at least some of the operations described herein. For example, some components of the computing system 1700 may be part of an electronic device (eg, electronic device 150 in FIG. 1) that includes a multi-channel light source and / or a multi-channel image sensor.

コンピューティングシステム1700は、1つ以上の中央処理ユニット(「プロセッサ」とも称される)1702と、メインメモリ1706と、不揮発性メモリ1710と、ネットワークアダプタ1712(例えば、ネットワークインタフェース)と、ビデオディスプレイ1718と、入力/出力デバイス1720と、制御デバイス1722(例えば、キーボード及びポインティングデバイス)と、記憶媒体1726を含むドライブユニット1724と、バス1716に通信可能に接続された信号生成デバイス1730とを含んでいてもよい。バス1716は、適切なブリッジ、アダプタ又はコントローラによって接続された1つ以上の物理バス及び/又はポイントツーポイント接続を表す抽象概念として図示されている。したがって、バス1716には、システムバス、周辺機器相互接続(Peripheral Component Interconnect、PCI)バス又はPCI-Expressバス、HyperTransport又は業界標準アーキテクチャ(ISA)バス、小型コンピュータシステムインタフェース(SCSI)バス、ユニバーサルシリアルバス(USB)、IIC(I2C)バス、又は電気電子技術者協会(IEEE)の標準1394バス(「Firewire」とも称される)が含まれ得る。 The computing system 1700 includes one or more central processing units (also referred to as "processors") 1702, main memory 1706, non-volatile memory 1710, network adapter 1712 (eg, network interface), and video display 1718. And the input / output device 1720, the control device 1722 (eg, keyboard and pointing device), the drive unit 1724 including the storage medium 1726, and the signal generation device 1730 communicably connected to the bus 1716. good. Bus 1716 is illustrated as an abstraction representing one or more physical buses and / or point-to-point connections connected by appropriate bridges, adapters or controllers. Therefore, bus 1716 includes a system bus, a Peripheral Component Interconnect (PCI) bus or a PCI-Express bus, a HyperTransport or industry standard architecture (ISA) bus, a small computer system interface (SCSI) bus, and a universal serial bus. (USB), IIC (I2C) bus, or standard 1394 bus of the Electrical and Electronic Engineers Association (IEEE) (also referred to as "Firewire") may be included.

コンピューティングシステム1700は、パーソナルコンピュータ、タブレットコンピュータ、携帯電話、ゲームコンソール、音楽プレーヤ、ウェアラブル電子デバイス(例えば、時計又はフィットネストラッカー)、ネットワーク接続(「スマート」)デバイス(例えば、テレビ又はホームアシスタントデバイス)、仮想/拡張現実システム(例えば、ヘッドマウントディスプレイ)、又は、コンピューティングシステム1700によって行われることになる(1つ以上の)アクションを指定する命令のセットを(逐次的に又はそれ以外の方法で)実行可能な別の電子デバイスと同様のコンピュータプロセッサアーキテクチャを共有してもよい。 The computing system 1700 includes personal computers, tablet computers, mobile phones, game consoles, music players, wearable electronic devices (eg, watches or fitness trackers), networked (“smart”) devices (eg, televisions or home assistant devices). , A virtual / augmented reality system (eg, a head-mounted display), or a set of instructions (sequentially or otherwise) that specify an action (one or more) that will be performed by the computing system 1700. ) It may share a computer processor architecture similar to another viable electronic device.

メインメモリ1706、不揮発性メモリ1710及び記憶媒体1726(「機械可読媒体」とも称される)は、単一の媒体として示されているが、用語「機械可読媒体」及び「記憶媒体」は、1つ以上の命令のセット1728を記憶する単一の媒体又は複数の媒体(例えば、集中データベース若しくは分散データベース、並びに/又は、関連するキャッシュ及びサーバ)を含むと解されるべきである。用語「機械可読媒体」及び「記憶媒体」は、コンピューティングシステム1700により実行される命令のセットを格納、符号化又は運搬可能な任意の媒体を含むと解されるべきである。 The main memory 1706, the non-volatile memory 1710 and the storage medium 1726 (also referred to as "machine readable medium") are shown as a single medium, while the terms "machine readable medium" and "storage medium" are 1 It should be understood to include a single medium or multiple media (eg, a centralized or distributed database, and / or associated caches and servers) that store a set of 1728 or more instructions. The terms "machine readable medium" and "storage medium" should be understood to include any medium that can store, encode or carry a set of instructions executed by the computing system 1700.

全体として、本開示の実施形態を実施するために実行されるルーチンは、オペレーティングシステム又は特定のアプリケーション、コンポーネント、プログラム、オブジェクト、モジュール若しくは命令シーケンス(あわせて「コンピュータプログラム」と称される)の一部として実装されてもよい。コンピュータプログラムは、典型的には、コンピュータの様々なメモリ及び記憶デバイス内に、種々の時点にセットされた1つ以上の命令(例えば、命令1704,1708,1728)を含む。該(1つ以上の)命令は、1つ以上のプロセッサ1702によって読み取られて実行された際に、コンピューティングシステム1700に、本開示の様々な態様を伴う要素を実行する動作を行わせる。 As a whole, the routine performed to implement the embodiments of the present disclosure is one of an operating system or a particular application, component, program, object, module or instruction sequence (collectively referred to as a "computer program"). It may be implemented as a part. A computer program typically comprises one or more instructions set at various time points (eg, instructions 1704, 1708, 1728) in various memory and storage devices of the computer. When the (one or more) instructions are read and executed by one or more processors 1702, the computing system 1700 is made to perform an operation to execute an element with various aspects of the present disclosure.

さらに、実施形態は、完全に機能するコンピューティングデバイスの文脈にて記載されているが、当業者であれば、種々の実施形態が様々な形態のプログラム製品として配布可能であることを理解するであろう。本開示は、実際に配布を行うために使用される機械又はコンピュータ可読媒体の特定のタイプにかかわらず適用される。 Further, although embodiments are described in the context of fully functional computing devices, one of ordinary skill in the art will appreciate that different embodiments can be distributed as different forms of program product. There will be. This disclosure applies regardless of the particular type of machine or computer readable medium actually used for distribution.

機械可読記憶媒体、機械可読媒体又はコンピュータ可読媒体のさらなる例には、揮発性及び不揮発性メモリデバイス1710、フロッピー及び他のリムーバブルディスク、ハードディスクドライブ、光ディスク(例えば、コンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD))等のような記録可能型媒体、及び、デジタル及びアナログ通信リンクのような伝送型媒体が含まれる。 Further examples of machine-readable storage media, machine-readable media or computer-readable media include volatile and non-volatile memory devices 1710, floppy and other removable disks, hard disk drives, optical disks (eg, compact disk read-only memory (CD-ROM)). ), Recordable media such as digital multipurpose discs (DVDs)), and transmission media such as digital and analog communication links.

ネットワークアダプタ1712は、コンピューティングシステム1700が、コンピューティングシステム1700及び外部エンティティによってサポートされる任意の通信プロトコルを通じて、コンピューティングシステム1700の外部にあるエンティティを用いてネットワーク1714内のデータを仲介することを可能にする。ネットワークアダプタ1712は、ネットワークアダプタカード、ワイヤレスネットワークインタフェースカード、ルータ、アクセスポイント、ワイヤレスルータ、スイッチ、マルチレイヤスイッチ、プロトコル変換器、ゲートウェイ、ブリッジ、ブリッジルータ、ハブ、デジタルメディアレシーバ及び/又はリピータを含むことができる。 The network adapter 1712 allows the computing system 1700 to mediate data in the network 1714 with an entity external to the computing system 1700 through any communication protocol supported by the computing system 1700 and the external entity. to enable. Network adapter 1712 includes network adapter cards, wireless network interface cards, routers, access points, wireless routers, switches, multilayer switches, protocol converters, gateways, bridges, bridge routers, hubs, digital media receivers and / or repeaters. be able to.

ネットワークアダプタ1712は、コンピュータネットワーク内のデータにアクセス/プロキシするためのパーミッションを統御及び/又は管理してもよく、かつ、種々異なるマシン及び/又はアプリケーションの間の様々なレベルの信頼を追跡するファイアウォールを含んでいてもよい。ファイアウォールは、特定のマシンのセットとアプリケーションとの間、マシンとマシンとの間、及び/又は、アプリケーションとアプリケーションとの間で(例えば、これらのエンティティ間のトラフィック及びリソース共有のフローを規制するために)所定のアクセス権のセットを実施可能なハードウェア及び/又はソフトウェアコンポーネントの任意の組み合わせを有する、任意の数のモジュールであり得る。ファイアウォールはさらに、個人、マシン及び/又はアプリケーションによるオブジェクトのアクセス権及び操作権を含むパーミッション、並びに、パーミッション権が有効である状況について詳述するアクセス制御リストを管理する、及び/又は、該アクセス制御リストにアクセスすることができる。 The network adapter 1712 may control and / or manage permissions to access / proxy data in the computer network, and is a firewall that tracks different levels of trust between different machines and / or applications. May include. Firewalls regulate the flow of traffic and resource sharing between a particular set of machines and an application, between machines and / or between an application and an application (eg, between these entities). It can be any number of modules with any combination of hardware and / or software components capable of implementing a given set of access rights. The firewall also manages permissions, including permissions and manipulation of objects by individuals, machines and / or applications, and access control lists detailing when the permissions are in effect, and / or said access controls. You can access the list.

本明細書にて提示される技術は、プログラム可能な回路(例えば、1つ以上のマイクロプロセッサ)、ソフトウェア及び/若しくはファームウェア、専用のハードワイヤード(すなわち、プログラム不可能な)回路、又は、そのような形態の組み合わせによって実装され得る。専用の回路は、1つ以上の特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)等の形式であり得る。 The techniques presented herein are programmable circuits (eg, one or more microprocessors), software and / or firmware, dedicated hard-wired (ie, non-programmable) circuits, or as such. It can be implemented by a combination of various forms. Dedicated circuits can be in the form of one or more application specific integrated circuits (ASICs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like.

備考
特許請求された主題における種々の実施形態についての前述の説明は、例示及び説明のために提供されたものである。該説明は、網羅的であることや、特許請求された主題を開示された正確な形態に限定することを意図したものではない。多くの改変及び変形は、当業者には明らかであろう。実施形態は、本発明の原理及びその実際の応用を最も良く説明するために選択及び記載されており、そのため、関連技術の当業者は、特許請求された主題、種々の実施形態及び考慮される特定の用途に適した種々の修正を、これらの実施形態から理解することができる。
NOTE The above description of the various embodiments in the claimed subject matter are provided for illustration and explanation. The description is not intended to be exhaustive or to limit the claimed subject matter to the exact form disclosed. Many modifications and variations will be apparent to those skilled in the art. Embodiments have been selected and described to best illustrate the principles of the invention and its practical application, so that those skilled in the art of related art will appreciate the claimed subject matter, various embodiments and considerations. Various modifications suitable for a particular application can be understood from these embodiments.

詳細な説明では特定の実施形態及び考慮される最良の形態について説明しているが、上記にてどの程度まで詳細に開示されているかにかかわらず、それらの実施形態は多くの方法にて実施され得る。実施形態は、それらの実装の詳細において相当に変化することがあるが、それらは依然として本明細書に包含される。種々の実施形態における特定の機能又は態様を説明する際に使用される特定の用語は、本明細書において、関連する本技術の特定の特徴、機能、又は態様に限定されるようにその用語が再定義されることを暗に意味するものとして理解されるべきではない。全体として、以下の特許請求の範囲にて使用される用語は、本明細書で明示的に定義されていない限り、本技術を本明細書に開示される特定の実施形態にまで限定するように解釈されるべきではない。したがって、本技術の実際の範囲は、開示の実施形態だけでなく、それらの実施形態を実施又は実装する全ての均等な方法を包含する。 Although the detailed description describes specific embodiments and the best embodiments to be considered, those embodiments are performed in many ways, regardless of how detailed they are disclosed above. obtain. Although embodiments may vary considerably in the details of their implementation, they are still incorporated herein. The particular term used in describing a particular function or embodiment in various embodiments is herein limited to a particular feature, function, or embodiment of the art in which it relates. It should not be understood as an implicit implication of being redefined. As a whole, the terms used in the following claims are intended to limit the technique to the specific embodiments disclosed herein, unless expressly defined herein. Should not be interpreted. Accordingly, the practical scope of the present invention includes not only the disclosed embodiments but all equal methods of implementing or implementing those embodiments.

本明細書で使用される言語は、主に可読性及び教示目的のために選択されたものであって、本発明の主題を線引き又は制限するために選択されていないことがある。したがって、本技術の範囲は、この詳細な説明によってではなく、本明細書に基づく出願において公表される任意の請求項によって限定されることが意図される。したがって、種々の実施形態の開示は、以下の特許請求の範囲に記載されるような技術の範囲を例示するものであって、それらを限定するものではないことが意図される。 The language used herein is selected primarily for readability and teaching purposes and may not be selected to delineate or limit the subject matter of the invention. Accordingly, the scope of the art is intended to be limited not by this detailed description but by any claims published in the application under this specification. Therefore, the disclosure of the various embodiments is intended to illustrate, but not limit, the scope of the art as described in the claims below.

Claims (19)

画像センサを用いて電子デバイスを較正するための方法であって、
少なくとも1つの既知の反射スペクトルを有するシーンの第1の画像を、第1の露出間隔にわたって、自動ホワイトバランス(AWB)設定を用いてキャプチャするステップと、
前記シーンの第2の画像を、前記第1の露出間隔とは異なる第2の露出間隔にわたって、固定ホワイトバランス(FWB)設定を用いてキャプチャするステップと、
前記シーンの一連の示差的に照明された画像を、前記FWB設定を用いてキャプチャするステップと、
前記第1の画像、前記第2の画像及び前記一連の示差的に照明された画像に基づいて、較正行列を計算するステップと、
前記較正行列を、前記電子デバイスにアクセス可能なメモリ内に保存するステップと
を含む、方法。
A method for calibrating electronic devices using image sensors.
A step of capturing a first image of a scene with at least one known reflection spectrum using an automatic white balance (AWB) setting over the first exposure interval.
A step of capturing a second image of the scene with a fixed white balance (FWB) setting over a second exposure interval different from the first exposure interval.
A step of capturing a series of differentially illuminated images of the scene using the FWB settings.
A step of calculating a calibration matrix based on the first image, the second image, and the series of differentially illuminated images.
A method comprising storing the calibration matrix in a memory accessible to the electronic device.
光源の各色チャネルを、全ての色チャネルが1つの色チャネルによってより高い強度で照明される一連の照明イベントを実行するような方法で、少なくとも3つの色チャネルによって集成するステップをさらに含み、
前記一連の示差的に照明された画像が、前記一連の照明イベントと併せてキャプチャされる、請求項1に記載の方法。
Each color channel of the light source further comprises assembling by at least three color channels in such a way as to perform a series of lighting events in which all color channels are illuminated with higher intensity by one color channel.
The method of claim 1, wherein the series of differentially illuminated images is captured in conjunction with the series of lighting events.
前記FWB設定が、前記電子デバイスによって提供される複数の事前設定されたホワイトバランスのうちの1つである、請求項1に記載の方法。 The method of claim 1, wherein the FWB setting is one of a plurality of preset white balances provided by the electronic device. 前記第2の露出間隔が、前記第1の露出間隔の20パーセント以下である、請求項1に記載の方法。 The method of claim 1, wherein the second exposure interval is 20 percent or less of the first exposure interval. 前記計算するステップが、
前記第2の画像内の各ピクセルの赤色、緑色及び青色の値を、前記一連の示差的に照明された画像内の対応するピクセルの赤色、緑色及び青色の値から除算することによって、一連の改変された画像を作成するステップと、
各ピクセルが一連のa*値と一連のb*値によって表されるように、前記一連の改変された画像をCIELAB色空間に変換するステップと、
各ピクセルがリファレンスa*値及びリファレンスb*値として表されるように、前記第1の画像をCIELAB色空間に変換するステップと、
各ピクセル毎に、
(i)対応する前記リファレンスa*値と対応する前記一連のa*値とに基づく第1の線形方程式、及び
(ii)対応する前記リファレンスb*値と対応する前記一連のb*値とに基づく第2の線形方程式、
を含む線形方程式系を形成するステップと、
各ピクセル毎に、係数のベクトルを生成するために、前記第1及び前記第2の線形方程式に対して最小二乗最適化を実行するステップと、
前記較正行列を表すデータ構造に、前記係数のベクトルを登録するステップと
を含む、請求項1に記載の方法。
The calculation step is
A series by dividing the red, green, and blue values of each pixel in the second image from the red, green, and blue values of the corresponding pixels in the series of differentially illuminated images. Steps to create a modified image,
A step of converting the set of modified images into a CIELAB color space, such that each pixel is represented by a set of a * values and a series of b * values.
A step of converting the first image into a CIELAB color space so that each pixel is represented as a reference a * value and a reference b * value.
For each pixel,
(I) a first linear equation based on the corresponding reference a * value and the corresponding series of a * values, and (ii) the corresponding reference b * value and the corresponding series of b * values. Second linear equation based on,
Steps to form a system of linear equations, including
For each pixel, a step of performing least squares optimization on the first and second linear equations to generate a vector of coefficients.
The method of claim 1, comprising registering a vector of the coefficients in a data structure representing the calibration matrix.
前記第2の画像をキャプチャするのに用いられる前記FWB設定を指定する入力を受信するステップをさらに含む、請求項1に記載の方法。 The method of claim 1, further comprising receiving an input specifying the FWB setting used to capture the second image. 少なくとも1つのリファレンス反射スペクトルが、ニュートラルグレー色のフラットな表面を備えたグレーカードによって提供される、請求項1に記載の方法。 The method of claim 1, wherein at least one reference reflection spectrum is provided by a gray card with a flat surface in neutral gray color. 少なくとも1つのリファレンス反射スペクトルが、照明工学協会(IES)技術覚書(TM)30-15における少なくとも1つの色評価サンプルを備えたカラーチェッカーによって提供される、請求項1に記載の方法。 The method of claim 1, wherein the at least one reference reflection spectrum is provided by a color checker comprising at least one color evaluation sample in the Lighting Engineering Association (IES) Technical Memorandum (TM) 30-15. 画像センサを備えた電子デバイス用に作成された較正マトリクスを使用するための方法であって、
シーンの第1の画像を、第1の露出間隔にわたって、自動ホワイトバランス(AWB)設定を用いてキャプチャするステップと、
前記シーンの第2の画像を、前記第1の露出間隔とは異なる第2の露出間隔にわたって、固定ホワイトバランス(FWB)設定を用いてキャプチャするステップと、
前記シーンの一連の示差的に照明された画像をキャプチャするステップと、
前記第2の画像内の各ピクセルの赤色、緑色及び青色の値を、前記一連の示差的に照明された画像内の対応する各ピクセルの赤色、緑色及び青色の値から除算することによって、一連の改変された画像を作成するステップと、
各ピクセル毎に、色度フィンガープリントを前記一連の改変された画像に基づいて生成するステップと、
各色度フィンガープリントに、前記電子デバイスのメモリ内に格納されている較正行列を乗算するステップであって、それによって各ピクセル毎の較正されたa*値及び較正されたb*値を取得する、ステップと、
各ピクセルがL*値、a*値及びb*値として表されるように、前記第1の画像をCIELAB色空間に変換するステップと、
色を表現する較正された画像を、前記L*値、前記較正されたa*値及び前記較正されたb*値を用いて生成するステップと
を含む、方法。
A method for using a calibration matrix created for an electronic device with an image sensor.
With the step of capturing the first image of the scene over the first exposure interval using the automatic white balance (AWB) setting,
A step of capturing a second image of the scene with a fixed white balance (FWB) setting over a second exposure interval different from the first exposure interval.
A step of capturing a series of differentially illuminated images of the scene,
A series by dividing the red, green, and blue values of each pixel in the second image from the red, green, and blue values of the corresponding pixels in the series of differentially illuminated images. Steps to create a modified image of
For each pixel, a step of generating a chromaticity fingerprint based on the series of modified images,
A step of multiplying each chromaticity fingerprint by a calibration matrix stored in the memory of the electronic device, thereby obtaining a calibrated a * value and a calibrated b * value for each pixel. Steps and
The step of converting the first image into the CIELAB color space so that each pixel is represented as an L * value, an a * value and a b * value.
A method comprising the steps of generating a calibrated image representing a color using the L * value, the calibrated a * value and the calibrated b * value.
前記一連の示差的に照明された画像内の各画像が、異なる発光体スペクトルに対応する、請求項9に記載の方法。 The method of claim 9, wherein each image in the series of differentially illuminated images corresponds to a different illuminant spectrum. 各発光体スペクトルが、他の色よりも強度が高い1つの色を備えた複数の色の光を表す、請求項10に記載の方法。 10. The method of claim 10, wherein each illuminant spectrum represents light of a plurality of colors with one color having a higher intensity than the other colors. 前記一連の示差的に照明された画像が、マルチチャネル光源によって実行される一連の示差的な照明イベントと併せてキャプチャされ、前記マルチチャネル光源は、前記電磁スペクトル内の種々異なる波長に対応する複数のチャネルを含む、請求項9に記載の方法。 The series of differentially illuminated images is captured in conjunction with a series of differential lighting events performed by the multi-channel light source, the multi-channel light source having a plurality of corresponding wavelengths within the electromagnetic spectrum. 9. The method of claim 9, comprising the channel of. 各チャネルが、実質的に同様の色の光を生成するように構成された1つ以上の発光体を含む、請求項12に記載の方法。 12. The method of claim 12, wherein each channel comprises one or more illuminants configured to produce light of substantially the same color. 前記生成するステップが、
各ピクセルが一連のa*値及び一連のb*値によって表されるように、前記一連の改変された画像をCIELAB色空間に変換するステップと、
各ピクセル毎に、前記一連のa*値及び前記一連のb*値を、前記色度フィンガープリントを表すベクトルに登録するステップと
を含む、請求項9に記載の方法。
The step to generate is
A step of converting the set of modified images into a CIELAB color space, such that each pixel is represented by a set of a * values and a series of b * values.
9. The method of claim 9, comprising registering the series of a * values and the series of b * values for each pixel in a vector representing the chromaticity fingerprint.
前記較正された画像の表示を、前記電子デバイスによって生成されたインタフェース上に生じさせるステップをさらに含む、請求項9に記載の方法。 9. The method of claim 9, further comprising causing the display of the calibrated image to occur on an interface generated by the electronic device. 前記インタフェース上にて、個人が前記較正された画像と前記第1の画像とを交互に使用できるようにするステップをさらに含む、請求項15に記載の方法。 15. The method of claim 15, further comprising allowing an individual to alternate between the calibrated image and the first image on the interface. レンズを通じて収集された光から画像を生成するように構成された画像センサと、
少なくとも3つの色チャネルを集成することによって光を生成するように構成された光源であって、各色チャネルは、実質的に同様の色を生成する1つ以上の発光体を含む、光源と、
前記画像センサ及び前記光源について生成された較正行列を格納するように構成されたメモリと、
プロセッサであって、
前記レンズを通じて見ることが可能なシーンの画像をキャプチャする要求を示す入力を受信するステップと、
前記シーンの第1の画像を、自動ホワイトバランス(AWB)設定を用いてキャプチャされるようにするステップと、
前記シーンの第2の画像を、固定ホワイトバランス(FWB)設定を用いてキャプチャされるようにするステップと、
一連の画像を、前記光源によって実行される一連の示差的な照明イベントと組み合わせてキャプチャされるようにするステップと、
各ピクセル毎に、色度フィンガープリントを、前記一連の画像内の各画像を前記第2の画像と比較することに基づいて生成するステップと、
各色度フィンガープリントに前記較正行列を乗算するステップであって、それによって対応する前記ピクセルの較正された色値を取得する、ステップと、
前記第1の画像を、ピクセル単位ベースで色値を前記較正された色値に置換することによって較正するステップと、
インタフェース上における前記較正された第1の画像の表示を行わせるステップと、
を行うように構成された、プロセッサと
を含む、電子デバイス。
With an image sensor configured to generate an image from the light collected through the lens,
A light source configured to produce light by assembling at least three color channels, each color channel comprising a light source and one or more illuminants that produce substantially similar colors.
A memory configured to store the calibration matrix generated for the image sensor and the light source, and
It ’s a processor,
A step of receiving an input indicating a request to capture an image of the scene that can be seen through the lens.
A step of allowing the first image of the scene to be captured using the automatic white balance (AWB) setting.
A step of allowing the second image of the scene to be captured using a fixed white balance (FWB) setting.
A step of allowing a series of images to be captured in combination with a series of differential lighting events performed by the light source.
For each pixel, a step of generating a chromaticity fingerprint based on comparing each image in the series of images with the second image.
A step of multiplying each chromaticity fingerprint by the calibration matrix, thereby obtaining the calibrated color value of the corresponding pixel.
A step of calibrating the first image by replacing the color values with the calibrated color values on a pixel-by-pixel basis.
The step of displaying the calibrated first image on the interface, and
Electronic devices, including processors, configured to do.
前記第1の画像は、前記第1の露出間隔にわたってキャプチャされ、前記第2の画像は、前記第1の露出間隔とは異なる第2の露出間隔にわたってキャプチャされる、請求項17に記載の電子デバイス。 17. The electron of claim 17, wherein the first image is captured over the first exposure interval and the second image is captured over a second exposure interval that is different from the first exposure interval. device. 前記較正された色値は、較正されたa*値及び較正されたb*値を含む、請求項17に記載の電子デバイス。 17. The electronic device of claim 17, wherein the calibrated color value comprises a calibrated a * value and a calibrated b * value.
JP2021552771A 2019-03-13 2020-03-13 White balance using a reference illuminant Pending JP2022524023A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962818055P 2019-03-13 2019-03-13
US62/818,055 2019-03-13
PCT/US2020/022639 WO2020186163A1 (en) 2019-03-13 2020-03-13 White balance with reference illuminants

Publications (1)

Publication Number Publication Date
JP2022524023A true JP2022524023A (en) 2022-04-27

Family

ID=72427127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021552771A Pending JP2022524023A (en) 2019-03-13 2020-03-13 White balance using a reference illuminant

Country Status (8)

Country Link
US (1) US11943546B2 (en)
EP (1) EP3939256A4 (en)
JP (1) JP2022524023A (en)
KR (1) KR20220040431A (en)
CN (1) CN114402588A (en)
AU (1) AU2020239246A1 (en)
CA (1) CA3131610A1 (en)
WO (1) WO2020186163A1 (en)

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR1251484A (en) 1960-01-08 1961-01-20 Kurashiki Rayon Co Manufacturing process of synthetic fibers in polyvinyl alcohol
FR1254559A (en) 1960-01-15 1961-02-24 Venissieux Atel Flat wagon for transporting motor vehicles
FR1257403A (en) 1960-05-18 1961-03-31 Removable lid with drain for liquid milk tins or other containers
DE1720629C3 (en) 1967-03-10 1980-02-21 Bayer Ag, 5090 Leverkusen Process for the continuous production of polyamides
US3456746A (en) 1967-12-12 1969-07-22 Smith International Flow restricting and metering radial bearing for drilling tools
US5963333A (en) 1996-09-12 1999-10-05 Color Savvy Systems Limited Color sensor
AU2003209880A1 (en) 2003-03-05 2004-09-28 Brytech Inc. Colorimeter, colorimeter sensor unit and colour determination process
JP4006431B2 (en) * 2004-10-28 2007-11-14 キヤノン株式会社 Image processing method and image processing apparatus
JP4217698B2 (en) * 2005-06-20 2009-02-04 キヤノン株式会社 Imaging apparatus and image processing method
KR100916484B1 (en) * 2007-08-14 2009-09-08 삼성전기주식회사 Method for auto white balance
US8564688B2 (en) * 2008-09-12 2013-10-22 Aptina Imaging Corporation Methods, systems and apparatuses for white balance calibration
WO2010123011A1 (en) * 2009-04-20 2010-10-28 京セラ株式会社 Image capturing device and image capturing method
GB2474701B (en) 2009-10-26 2014-04-30 Richard Frank Lawn A handheld device for measuring the colour properties of objects
US20110187891A1 (en) * 2010-02-04 2011-08-04 Buyue Zhang Methods and Systems for Automatic White Balance
FR2987118A1 (en) 2012-02-17 2013-08-23 Franck Hennebelle METHOD AND DEVICE FOR MEASURING THE COLOR OF AN OBJECT
US20150124072A1 (en) * 2013-11-01 2015-05-07 Datacolor, Inc. System and method for color correction of a microscope image
JP2015173774A (en) * 2014-03-14 2015-10-05 ブラザー工業株式会社 sewing machine
US10429298B2 (en) 2015-09-30 2019-10-01 Color Grail Research Method for determining the reflectance of an object and associated device
US10694091B2 (en) * 2016-02-09 2020-06-23 University Of Southern Queensland Imaging device with white balance compensation and related systems and methods
DE102016226206A1 (en) 2016-12-23 2018-06-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System and method for acquiring measurement images of a measurement object
WO2019014145A1 (en) * 2017-07-09 2019-01-17 Lumenetix, Inc. Full-spectrum flash for electronic devices

Also Published As

Publication number Publication date
KR20220040431A (en) 2022-03-30
US20210409667A1 (en) 2021-12-30
AU2020239246A1 (en) 2021-08-05
EP3939256A4 (en) 2024-01-10
EP3939256A1 (en) 2022-01-19
US11943546B2 (en) 2024-03-26
WO2020186163A1 (en) 2020-09-17
CN114402588A (en) 2022-04-26
CA3131610A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
US11635671B2 (en) Techniques for creating characterization matrices for reflectance, illuminance, or sensor response
US11803105B2 (en) Electromagnetic emitters and detectors for electronic devices
US11640101B2 (en) Determining spectral properties of an object through sequential illumination with different colors
TWI769509B (en) Method of using a camera system to characterize ambient illumination, computer readable storage medium, and camera system
CN108713316A (en) Photoelectron light-emitting device, for the method for scene lighting, camera and mobile terminal
US11221125B2 (en) Color control in subtractive color mixing system
Zapryanov et al. Automatic White Balance Algorithms forDigital StillCameras–a Comparative Study
JP2023538781A (en) White balance correction method, device and electronic equipment
KR20210155743A (en) Method for image processing of high dynamic range sensors for handling white balance
Moeck et al. Illuminance analysis from high dynamic range images
JP2022524023A (en) White balance using a reference illuminant
US9980338B2 (en) Illumination system
US10863059B2 (en) Environmental-based spatial color uniformity correction by using statistical distribution of camera modules
US7346275B2 (en) Camera, process for reconstructing an image information, and process for calibrating an image information
Kamath et al. Prediction of illuminance on the work plane using low dynamic unprocessed image data
Sarkar Proof-of-concept: CMOS Sensor Based Lightning Control System Integrating High Dynamic Range Imaging and DALI
WO2017144102A1 (en) Electronic device and method for operating an electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240308