JP2023500510A - 環境光画像補正を実施するためのシステム - Google Patents
環境光画像補正を実施するためのシステム Download PDFInfo
- Publication number
- JP2023500510A JP2023500510A JP2022525822A JP2022525822A JP2023500510A JP 2023500510 A JP2023500510 A JP 2023500510A JP 2022525822 A JP2022525822 A JP 2022525822A JP 2022525822 A JP2022525822 A JP 2022525822A JP 2023500510 A JP2023500510 A JP 2023500510A
- Authority
- JP
- Japan
- Prior art keywords
- images
- composite image
- bands
- pulsed illumination
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003702 image correction Methods 0.000 title claims abstract description 16
- 239000002131 composite material Substances 0.000 claims abstract description 54
- 238000005286 illumination Methods 0.000 claims abstract description 53
- 238000003384 imaging method Methods 0.000 claims abstract description 40
- 238000005096 rolling process Methods 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 claims description 39
- 238000000926 separation method Methods 0.000 claims description 14
- 230000001815 facial effect Effects 0.000 claims description 9
- 230000015654 memory Effects 0.000 description 10
- 238000012937 correction Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 206010000496 acne Diseases 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003370 grooming effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000036571 hydration Effects 0.000 description 1
- 238000006703 hydration reaction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
- H04N25/53—Control of the integration time
- H04N25/531—Control of the integration time by controlling rolling shutters in CMOS SSIS
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/743—Bracketing, i.e. taking a series of images with varying exposure conditions
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
環境光画像補正を実施するためのシステムが提供される。システムは、光源と、光源からのパルス式照明の波周期よりも短い露出時間で物体の複数の画像をキャプチャするように構成されたローリングシャッター撮像ユニットと、明輝度帯に対応するキャプチャされた複数の画像からのセクションを合成することによって、キャプチャされた複数の画像からの複数の明輝度帯を含む第1の合成画像を生成することと、暗輝度帯に対応するキャプチャされた複数の画像からのセクションを合成することによって、キャプチャされた複数の画像からの複数の暗輝度帯を含む第2の合成画像を生成することと、第1の合成画像と第2の合成画像との間のピクセル情報における差に基づいて環境光補正画像を生成することとを実施するように構成された制御ユニットとを備える。
Description
本開示は、光学的撮像のためのシステム及び方法に関し、特には、環境光画像補正を実施するための非接触式皮膚撮像システム及び方法に関する。
パーソナルケア及び健康のアプリケーション用途の分野において、特に皮膚感知について、邪魔にならない測定及び監視デバイスへの需要が増加している。現在使用可能な皮膚測定システムは、皮膚の定量化及び皮膚の特徴の監視機能を提供し、小さ過ぎて検知できないような、かすか過ぎて気づかないような、又はゆっくり過ぎて追跡できないような情報を消費者に提供する。これらのタイプのシステムが通常の消費者によって使用可能と考えられるようにするために、内蔵された感知機能は、感度が高く、専用のものでなければならない。加えて、消費者の信頼を高めるためには、関連する測定の堅牢さも重要である。
このような撮像測定システムにおいて重要な課題は、制御されていない環境、例えば家庭、においてそれらが使用されるときに、典型的には、定められていない、潜在的に変化する環境光に起因して、測定値に不整合性が存在することである。現在使用可能な環境光除去技術があり、シーンの特性を精査し、推定するための制御された照明を伴うアクティブ照明法などが使用される。また、いくつかの現在使用可能な技術は、全てのライティング方向(多重照明)において人物又はシーンの画像キャプチャし、任意の照明の下でフォトリアリスティック画像を再レンダリングするために制御されたキャプチャ設定、例えば光ステージを含む。いくつかの他の技術は、後続の画像分析のための構造的パターンを投影するプロジェクタカメラシステムに頼っている。アクティブ技術は、高品質の照明分析及び編集を可能とし得るが、これらのシステムは典型的には複雑で、高価である。一方、フラッシュ撮影技術は、フラッシュ照明を使用したものと使用しないものとのシーンの2つの画像をキャプチャすることによる環境光除去を提供する。これらの技術は、画像のノイズ除去、ブラー除去、アーチファクト除去、フォトリアリスティックでないレンダリング、前景のセグメンテーション、及びつや消しのために使用されている。
本開示は、環境光が定められておらず、変化するときであっても皮膚、特に顔領域の皮膚の堅牢な撮像測定のための技術を提供する。これは、皮膚特徴の特性評価及び皮膚特徴の追跡に適した、顔の皮膚の正確で精密な測定を可能とする。本開示によると、環境光画像補正を実施するための向上されたシステム、及び環境光画像補正を実施するための方法が提供される。より詳細には、本開示は、フリッカー融合閾値よりも高い照明パルス化とローリングシャッターカメラとを使用することによって、ビデオレートで実施され得るフリッカーレス及びフラッシュレスな環境光補正を提供する。
前述された事柄のうちの1つ又は複数により良好に対処するために、第1の態様において、環境光画像補正を実施するためのシステムが提供される。システムは、物体にパルス式照明を提供するように構成された光源と;物体が光源からのパルス式照明によって照らされている間に、パルス式照明の波周期よりも短い露出時間で物体の複数の画像をキャプチャするように構成されたローリングシャッター撮像ユニットであって、キャプチャされた複数の画像の各々は複数の明輝度帯と暗輝度帯とを含み、明輝度帯はパルス式照明の高状態に対応し、暗輝度帯はパルス式照明の低状態に対応する、ローリングシャッター撮像ユニットとを備える。光源によって提供される照明のパルス周波数は、ローリングシャッター撮像ユニットによって複数の画像がキャプチャされるフレームレートの多重積分ではない。システムは、明輝度帯に対応するキャプチャされた複数の画像からのセクションを合成することによって、キャプチャされた複数の画像からの複数の明輝度帯を含む第1の合成画像を生成することと;暗輝度帯に対応するキャプチャされた複数の画像からのセクションを合成することによって、キャプチャされた複数の画像からの複数の暗輝度帯を含む第2の合成画像を生成することと;第1の合成画像と第2の合成画像との間のピクセル情報における差に基づいて環境光補正画像を生成することとを実施するように構成された制御ユニットを更に備える。
いくつかの実施形態において、第1の合成画像及び第2の合成画像は、照明状態に基づいて、キャプチャされた複数の画像に含まれるピクセルを分離するように分離アルゴリズムを適用することによって生成される。
いくつかの実施形態において、光源は、少なくとも70Hzのパルス周波数を有する照明を提供するように構成される。また、いくつかの実施形態において、ローリングシャッター撮像ユニットは、一秒当たり少なくとも30フレームのフレームレートにおいて複数の画像をキャプチャするように構成される。
いくつかの実施形態において、デジタルミラーデバイスが提供され、デジタルミラーデバイスは、反射コンポーネントと;ベースユニットと;本明細書において説明されるシステムとを備える。これらの実施形態において、システムの光源は反射コンポーネントに隣接して配置され、システムの制御ユニットはデジタルミラーデバイスのベースユニットに位置付けられる。
いくつかの実施形態において、デジタルミラーデバイスは、ユーザ入力を受信するように構成されたユーザインタフェースユニットを更に備える。これらの実施形態において、制御ユニットは、ユーザインタフェースユニットを介して第1のユーザ入力を受信した際に光源及びローリングシャッター撮像ユニットをスイッチオンすることと;ユーザインタフェースユニットを介して第2のユーザ入力を受信した際に物体の複数の画像をキャプチャするようにローリングシャッター撮像ユニットを制御することとを実施するように構成される。
いくつかの実施形態において、物体は対象者の頭部であり、これらの実施形態において、システムの制御ユニットは、更に、環境光補正画像に基づいて、対象者の顔認識及び対象者の頭部方向判定のうちの少なくとも1つを実施するように構成される。更に、システムの制御ユニットは、更に、顔認識の動作及び頭部方向判定の動作のうちの少なくとも1つの結果に基づいて対象者の顔の特徴を判定するように構成される。
いくつかの実施形態において、デジタルミラーデバイスは、ローリングシャッター撮像ユニットが複数の画像をキャプチャしている間にインジケーション光を提供するように構成されたインジケーションライティングユニットを更に備える。
第2の態様において、環境光画像補正を実施するための方法が提供される。方法は、物体にパルス式照明を提供するステップと;物体が光源からのパルス式照明によって照らされている間に、パルス式照明の波周期よりも短い露出時間で物体の複数の画像をキャプチャするステップであって、キャプチャされた複数の画像の各々は複数の明輝度帯と暗輝度帯とを含み、明輝度帯はパルス式照明の高状態に対応し、暗輝度帯はパルス式照明の低状態に対応し、光源によって提供される照明のパルス周波数は、複数の画像がキャプチャされるフレームレートの多重積分ではない、ステップと;明輝度帯に対応するキャプチャされた複数の画像からのセクションを合成することによって、キャプチャされた複数の画像からの複数の明輝度帯を含む第1の合成画像を生成するステップと;暗輝度帯に対応するキャプチャされた複数の画像からのセクションを合成することによって、キャプチャされた複数の画像からの複数の暗輝度帯を含む第2の合成画像を生成するステップと;第1の合成画像と第2の合成画像との間のピクセル情報における差に基づいて環境光補正画像を生成するステップとを有する。
いくつかの実施形態において、第1の合成画像及び第2の合成画像を生成するステップは、照明状態に基づいて、キャプチャされた複数の画像に含まれるピクセルを分離するように分離アルゴリズムを適用するステップを有する。
いくつかの実施形態において、物体にパルス式照明を提供するステップは、少なくとも70Hzのパルス周波数でパルス式照明を提供するステップを有する。また、いくつかの実施形態において、複数の画像をキャプチャするステップは、一秒当たり少なくとも30フレームのフレームレートにおいて複数の画像をキャプチャするステップを有する。
上述された態様及び実施形態によると、既存の技術の限界が対処される。特には、上述された態様及び実施形態は、フリッカーレス及びフラッシュレスな環境光補正が、特にはビデオレートにおいて、実施されることを可能とする。故に、環境光画像補正のための向上されたシステム及び方法が提供される。本開示のこれらの及び他の態様は、本明細書において以下に説明される実施形態から明らかであり、これらを参照することで解明されよう。
実施形態のより良好な理解のために、及び、それらがどのように実行されるかをより明確に示すために、単なる例示として、添付の図面が参照される。
上に述べられたように、既存の問題に対処する向上されたシステム及び方法が提供される。
図1は、実施形態によるシステム100のブロック図を図示し、これは、環境光画像補正を実施するために使用され得る。システム100は、光源110と、ローリングシャッター撮像ユニット120と、制御ユニット130とを備える。
光源110は物体にパルス式照明を提供するように構成される。いくつかの実施形態において、光源110は、少なくとも70Hzのパルス周波数を有する照明を提供するように構成される。
ローリングシャッター撮像ユニット120は、物体が光源110からのパルス式照明によって照らされている間に、パルス式照明の波周期よりも短い露出時間で物体の複数の画像をキャプチャするように構成され、キャプチャされた複数の画像の各々は複数の明輝度帯と暗輝度帯とを含む。明輝度帯はパルス式照明の高状態に対応し、暗輝度帯はパルス式照明の低状態に対応する。例示を目的として、パルス式照明の下でキャプチャされた物体の画像の例が図5Aにおいて提供され、キャプチャされた画像は、パルス式照明の周波数がローリングシャッター撮像ユニットが画像をキャプチャするレートよりも高いことに起因する、観察された暗輝度及び明輝度の水平の帯を含む。
光源110によって提供される照明のパルス周波数は、ローリングシャッター撮像ユニット120によって複数の画像がキャプチャされるフレームレートの多重積分ではない。いくつかの実施形態において、ローリングシャッター撮像ユニット120は、一秒当たり少なくとも30フレームのフレームレートにおいて複数の画像をキャプチャするように構成される。
制御ユニット130は、明輝度帯に対応するキャプチャされた複数の画像からのセクションを合成することによって、第1の合成画像を生成するように構成される。第1の合成画像は、キャプチャされた複数の画像からの複数の明輝度帯を含む。制御ユニット130は、更に、暗輝度帯に対応するキャプチャされた複数の画像からのセクションを合成することによって、第2の合成画像を生成するように構成される。第2の合成画像は、キャプチャされた複数の画像からの複数の暗輝度帯を含む。また、制御ユニット130は、更に、第1の合成画像と第2の合成画像との間のピクセル情報における差に基づいて環境光補正画像を生成するように構成される。
いくつかの実施形態において、第1の合成画像及び第2の合成画像は、照明状態に基づいて、キャプチャされた複数の画像に含まれるピクセルを分離するように分離アルゴリズムを適用することによって生成される。分離アルゴリズムの例は、以下において、図7を参照してより詳細に説明される。
概して、制御ユニット130は、システム100の動作を制御し得、本明細書において説明される方法を実現し得る。制御ユニット130は、本明細書において説明されるやり方でシステム100を制御するように構成又はプログラムされた1つ又は複数のプロセッサ、プロセッシングユニット、マルチコアプロセッサ、又はモジュールを備え得る。特定の実施態様において、制御ユニット130は、本明細書において説明される方法の個別の又は複数のステップを実施するように各々が構成された、又は実施するための複数のソフトウェア及び/又はハードウェアモジュールを備え得る。
いくつかの実施形態において、システム100は、少なくとも1つのユーザインタフェースを更に備える。代替的に又は追加的に、少なくとも1つのユーザインタフェースが、システム100の外部に(すなわち、別個に、又は遠隔に)あってよい。例えば、少なくとも1つのユーザインタフェースは、別のデバイスの一部であってよい。ユーザインタフェースは、本明細書において説明される方法からもたらされる情報をシステム100のユーザに提供する際に使用するためのものである。代替的に又は追加的に、ユーザインタフェースは、ユーザ入力を受信するように構成される。例えば、ユーザインタフェースは、システム100のユーザが、命令、データ、又は情報を手作業で入力することを可能とする。これらの実施形態において、制御ユニット130は、1つ又は複数のユーザインタフェースからユーザ入力を取得するように構成される。
ユーザインタフェースは、システム100のユーザに対する情報のレンダリング(又は出力若しくは表示)を可能とする任意のユーザインタフェースであってよい。代替的に又は追加的に、ユーザインタフェースは、システム100のユーザがユーザ入力を提供すること、システム100と相互作用すること及び/又はこれを制御することを可能とする任意のユーザインタフェースであってよい。例えば、ユーザインタフェースは、1つ又は複数のスイッチ、1つ又は複数のボタン、キーパッド、キーボード、タッチスクリーン若しくはアプリケーション(例えば、タブレット又はスマートフォン上のもの)、ディスプレイスクリーン、グラフィカルユーザインタフェース(GUI)若しくは他の視覚的レンダリングコンポーネント、1つ又は複数のスピーカ、1つ又は複数のマイクロフォン若しくは任意の他の音響コンポーネント、1つ又は複数のライト、触覚的フィードバックを提供するためのコンポーネント(例えば、振動機能)、又は任意の他のユーザインタフェース若しくはユーザインタフェースの組み合わせを備える。
いくつかの実施形態において、システム100は、メモリを備える。代替的に又は追加的に、1つ又は複数のメモリが、システム100の外部に(すなわち、別個に、又は遠隔に)あってよい。例えば、1つ又は複数メモリは、別のデバイスの一部であってよい。メモリは、本明細書において説明される方法を実施するように制御ユニット130によって実行され得るプログラムコードを記憶するように構成され得る。メモリは、システム100の制御ユニット130によって取得又は作成された情報、データ、信号及び測定値を記憶するために使用され得る。例えば、メモリは、第1の合成画像、第2の合成画像、及び/又は環境光補正画像を(例えば、ローカルファイルに)記憶するために使用される。制御ユニット130は、第1の合成画像、第2の合成画像、及び/又は環境光補正画像を記憶するようにメモリを制御するように構成される。
いくつかの実施形態において、システム100は、システム100が、システム100の内部又は外部にある任意のインタフェース、メモリ及び/又はデバイスと通信することを可能とする通信インタフェース(又は回路)を備える。通信インタフェースは、任意のインタフェース、メモリ及び/又はデバイスと、無線で又は有線接続を介して通信する。例えば、通信インタフェースは、1つ又は複数のユーザインタフェースと、無線で又は有線接続を介して通信する。同様に、通信インタフェースは、1つ又は複数のメモリと、無線で又は有線接続を介して通信する。
図1は、システム100の態様を例示するために必要とされるコンポーネントのみを図示するものであり、実際的な実施態様においては、図示されたものに対して代替的な又は追加的なコンポーネントをシステム100が備えてよいことは理解されよう。
図2は、実施形態によるデジタルミラーデバイス200のブロック図である。デジタルミラーデバイス200は、反射コンポーネント210と、ベースユニット220と、図1を参照して上に説明されたシステム100とを備える。この実施形態において、システム100の光源110は反射コンポーネント210に隣接して配置され、システム110の制御ユニット130はデジタルミラーデバイス200のベースユニット220に位置付けられる。
いくつかの実施形態において、デジタルミラーデバイス200は、ユーザインタフェースユニット230を更に備え、ユーザインタフェースユニット230はユーザ入力を受信するように構成される。これらの実施形態において、システム100の制御ユニット130は、ユーザインタフェースユニット230を介して第1のユーザ入力を受信した際に光源110及びローリングシャッター撮像ユニット120をスイッチオンするように構成される。更に、制御ユニット130は、ユーザインタフェースユニット230を介して第2のユーザ入力を受信した際に物体の複数の画像をキャプチャするようにローリングシャッター撮像ユニット120を制御するように構成される。
いくつかの実施形態において、物体は対象者の頭部である。この場合、システムの制御ユニット130は、更に、システム100の制御ユニット130によって生成された環境光補正画像に基づいて、対象者の顔認識及び対象者の頭部方向判定のうちの少なくとも1つを実施するように構成される。
図2においては図示されていないが、いくつかの実施形態において、デジタルミラーデバイス200は、ローリングシャッター撮像ユニットが複数の画像をキャプチャしている間にインジケーション光を提供するように構成されたインジケーションライティングユニットを更に備える。インジケーションライティングユニットは、例えば、赤色LED光源を備える。
上述されたデジタルミラーデバイスの実用的に実現された実施形態が、図3において更に示される。図3において図示されるように、デジタルミラーデバイス300は、反射コンポーネント310と、ベースユニット320とを備える。この実施形態において、ユーザインタフェースユニット330は、ユーザ入力を受信するためにベースユニット320に位置付けられた作動ボタンの形態で提供される。更に、デジタルミラーデバイスに含まれるシステムの光源340は、反射コンポーネント310の周辺部の周りに、光リングの形態で提供され、ミラーデバイスに含まれるシステムのローリングシャッター撮像ユニット350は、反射コンポーネント310の上方に提供される。図3においてシステムの制御ユニットは図示されていないが、このコンポーネントはデジタルミラーデバイス300に含まれている(例えば、ベースユニット320内に含まれるプロセッサとして実装されている)ことは理解されよう。
本実施形態において、デジタルミラーデバイス300(及び、具体的には、デジタルミラーデバイス300に含まれるシステムの制御ユニット)は、ユーザインタフェースユニット330の最初の作動(例えば、ボタンを押すこと)の際に光源340及びローリングシャッター撮像ユニット350をスイッチオンし、これに続くユーザインタフェースユニット330の作動(例えば、再びボタンを押すこと)の際に物体(例えば、ユーザの顔)の複数の画像をキャプチャするようにローリングシャッター撮像ユニット350を制御するように構成される。次いで、図1を参照して上に説明されたように、デジタルミラーデバイス300に含まれるシステムの制御ユニットは、第1の合成画像を生成し得、第2の合成画像を生成し得、環境光補正画像を生成し得る。更に、次いで、デジタルミラーデバイス300に含まれるシステムの制御ユニットは、生成された環境光補正画像に基づいて、対象者の顔認識及び対象者の頭部方向判定のうちの少なくとも1つを実施し得る。
例として、ローリングシャッター撮像ユニット350は、対応するユーザ入力を受信した際に、一秒間に30フレームで、-8の露出値(3.9msの露出時間と同等)を使用して画像をキャプチャするように構成され、光源340は、93Hzのパルス周波数で照明を提供するように構成される。
環境光画像補正を実施するためのシステムはデジタルミラーデバイス300として実現されるので、デジタルミラーデバイス300の動作中に、キャプチャされたユーザの顔の画像が、反射コンポーネント310を介してユーザが彼/彼女自身の反射像を(例えば、個人的な身繕い動作のために)観察可能な間に、環境光について補正され得る。更には、環境光補正画像は、顔及び皮膚の特徴について及び/又は不規則性、例えば吹き出物、赤み、水和レベル、皮膚色などについて、更に分析される。この分析動作は、リアルタイムで実施される。更には、この分析動作は、デジタルミラーデバイス300に含まれるシステムの制御ユニットによって(又は別個の制御ユニット又はプロセッサによって)実施される。また、この分析動作は、上述された顔認識及び頭部方向判定動作に基づく特定の頭部方向及び/又は認識された顔によってトリガされる。
図3においては示されていないが、いくつかの実施形態において、デジタルミラーデバイス300(又は、デバイス300に含まれるシステム)は、外部デバイス(例えば、モバイルフォン)と通信するように構成された通信インタフェースを備える。従って、これらの実施形態において、分析結果、例えば、ユーザの顔の吹き出物の場所、は、モバイルフォンに(例えば、モバイルフォンにインストールされたアプリケーションソフトウェアを介して)通信され得る。
図4は、実施形態による環境光画像補正を実施するための方法を示す。示された方法は、全体的に、システム100によって実施され得、具体的には、いくつかの実施形態において、システム100の制御ユニット130によって、又はその制御下において実施され得る。例示を目的として、図4の少なくともいくつかのブロックは、図1のシステム100の様々なコンポーネントを参照して説明される。
図4を参照すると、ブロック402において、パルス式照明が物体に提供される。具体的には、パルス式照明は、システム100の光源110によって提供される。ブロック402において提供される照明のパルス周波数は、少なくとも70Hzである。
図4に戻ると、ブロック404において、物体が(ブロック402を参照して説明されたように)パルス式照明によって照らされている間に、パルス式照明の波周期よりも短い露出時間で物体の複数の画像がキャプチャされ、キャプチャされた複数の画像の各々は複数の明輝度帯と暗輝度帯とを含む。このコンテキストにおいて、明輝度帯はパルス式照明の高状態に対応し、暗輝度帯はパルス式照明の低状態に対応する。ブロック402において提供される照明のパルス周波数は、ブロック404において複数の画像がキャプチャされるフレームレートの多重積分ではない。複数の画像は、システム100のローリングシャッター撮像ユニット120によってキャプチャされる。いくつかの実施形態において、複数の画像は、ブロック404において、一秒当たり少なくとも30フレームのフレームレートにおいてキャプチャされる。
図4に戻ると、ブロック406において、明輝度帯に対応するキャプチャされた複数の画像からのセクションを合成することによって、キャプチャされた複数の画像からの複数の明輝度帯を含む第1の合成画像が生成される。具体的には、第1の合成画像は、システム100の制御ユニット130によって生成される。
図4に戻ると、ブロック408において、暗輝度帯に対応するキャプチャされた複数の画像からのセクションを合成することによって、キャプチャされた複数の画像からの複数の暗輝度帯を含む第2の合成画像が生成される。具体的には、第2の合成画像は、システムの制御ユニット130によって生成される。
いくつかの実施形態において、ブロック406における第1の合成画像を生成するステップ及びブロック408における第2の合成画像を生成するステップは、照明状態に基づいて、キャプチャされた複数の画像に含まれるピクセルを分離するように分離アルゴリズムを適用するステップを有する。分離アルゴリズムの例は、以下において、図7を参照してより詳細に説明される。
図4に戻ると、ブロック410において、ブロック406において生成された第1の合成画像とブロック408において生成された第2の合成画像との間のピクセル情報における差に基づいて環境光補正画像が生成される。具体的には、環境光補正画像は、システム100の制御ユニット130によって生成される。
図5Aは、物体がパルス式照明によって照らされている間の物体の画像の例を示す。図1を参照して上に説明されたように、パルス式照明の周波数がローリングシャッター撮像ユニットが画像500をキャプチャするレートよりも高いとき、キャプチャされた画像500において暗輝度及び明輝度の水平の帯が観察され得る。図5Aにおいて示された例において、水平な明輝度帯にはLというラベルが付され、水平な暗輝度帯にはDというラベルが付されている。
更に、図5Bの複数の画像において示されるように、撮像ユニットの露出時間が減少すると、明輝度帯と暗輝度帯との間のエッジのコントラスト及びスロープが増加することが観察される。図5Bの第1の画像510は31msの露出時間でキャプチャされ、第2の画像520は16msの露出時間でキャプチャされ、第3の画像530は8msの露出時間でキャプチャされ、第4の画像540は4msの露出時間でキャプチャされ、第5の画像550は2msの露出時間でキャプチャされている。第1の画像510から第5の画像550まで、露出時間が減少するにつれて、画像における明輝度帯と暗輝度帯との間の差異がより鮮明になることが分かる。この情報及びカメラについての基本的な知識に基づいて、露出時間がパルス式照明の波周期よりも短い時の、パルス式照明の低状態中の環境光に関する情報を抽出することが有利である。
図6は、キャプチャされた複数の画像からの環境光補正画像の生成の模式的な図である。図面において、ローリングシャッター撮像ユニットによってキャプチャされた複数の画像600が、分離アルゴリズムUAの動作を経た後に、環境光補正画像610へと変換され得ることが示される。より具体的には、図6の複数の画像600におけるドリフトする明輝度帯及び暗輝度帯は、合成画像の生成、及びそれに続く環境光補正画像の生成のために、分離アルゴリズムUAを使用して分離され得る。分離アルゴリズムをより詳細に説明するために、実施形態による、照明状態に基づいてキャプチャされた複数の画像に含まれるピクセルを分離し、環境光補正画像を生成するためのアルゴリズムの例が、図7のフローチャートにおいて示される。
図7の分離アルゴリズム700は、図1を参照して説明されたシステム100の制御ユニット130によって実施され得る一連の方法のステップとして提示されている。例示を目的として、以下において、方法は、システム100の様々なコンポーネントを参照して説明される。
分離アルゴリズムのための方法はステップ701において始まる。
ステップ702において、統合フレームの数sが制御ユニット130によって設定され、ここで、s>1である。統合フレームの数は、システム100のローリングシャッター撮像ユニット120によってキャプチャされるべき複数の画像の数に対応する。例えば、もしもローリングシャッター撮像ユニット120によって10個の画像がキャプチャされる(及び、後に単一の合成画像として「統合」される)べきであるならば、統合フレームの数sは10に設定される。
次いで、ステップ703において、カウンタ値nが1に設定される。
次いで、ステップ704において、現在のカウンタ値nに対応するビデオフレームAn(px,py)がシステム100のローリングシャッター撮像ユニット120によってキャプチャされる。この実施形態において、キャプチャされるビデオフレームAn(px,py)には、カメラシステムなどの撮像ユニットにおいて(自動的に)実行されるガンマ補正の結果として通常は存在する任意の画像ピクセル値非線形性が存在しない。もしもガンマ補正がローリングシャッター撮像ユニット120によって適用されたならば、方法が更に進行する前に、逆ガンマ補正が全てのビデオフレームに適用されなければならない。従って、図7においては図示されていないが、いくつかの実施形態において、方法は、ステップ704に続いて、キャプチャされたビデオフレームAn(px,py)について逆ガンマ補正を実施するステップを有する。本開示のコンテキストにおいて、ビデオフレームは単一の画像に対応する。本実施形態における各画像(「ビデオフレーム」)は、記号px及びpyによって表されるように、それぞれの画像に含まれるピクセルによって特徴付けられている。
次に、ステップ705において、カウンタ値nが1であるかが判定される。この判定は、システムの制御ユニット130によって実施される。
もしもカウンタ値nが1であったならば、方法はステップ706、ステップ707、及びステップ708に進み、ステップ704においてキャプチャされるビデオフレームA1として値E1が設定され、ステップ704においてキャプチャされるビデオフレームA1として値F1が設定され、カウンタ値nが1だけ増やされる(等式「n=n+1」によって表される)。
ステップ706から708を実施した後、方法はステップ704に戻り、現在のカウンタ値nに対応するビデオフレームAn(px,py)がシステム100のローリングシャッター撮像ユニット120によってキャプチャされる。例えば、ステップ705においてn=1であると判定し、これに続いてステップ706から708を実施した直ぐ後、ステップ704に戻るとビデオフレームA2がキャプチャされる。
ステップ704に続いて、ステップ705において、カウンタ値nが1であるかが再び判定される。もしもカウンタ値nが1ではなかったならば、方法はステップ709から714に進む。より詳細には、ステップ709において、現在の値En-1が減算された現在の値Anとして値Bnが設定される(「Bn=An-En-1」によって表される)。次に、ステップ710において、もしも現在の値Bnが0よりも小さかったならば、新たな値Bnが0として設定される。次に、ステップ711において、新たな値Enが、現在の値En-1と現在の値Bnとの和として設定される(「En=En-1+Bn」によって表される)。
ステップ712において、現在の値Anが減算された現在の値Fn-1として値Cnが設定される(「Cn=Fn-1-An」によって表される)。次に、ステップ713において、もしも現在の値Cnが0よりも小さかったならば、新たな値Cnが0として設定される。次に、ステップ714において、現在の値Dnが減算された現在の値Fn-1として新たな値Dnが設定される。
ステップ709から714を実施した後、方法はステップ715に進み、現在のカウンタ値nがステップ702において設定された統合フレームの数sに等しいかが判定される。もしも現在のカウンタ値nが統合フレームの数sと等しくないと判定されたならば、方法はステップ708に戻り、カウンタ値nは1だけ増加され、次にステップ704に戻り、現在のカウンタ値nに対応するビデオフレームAn(px,py)がシステム100のローリングシャッター撮像ユニット120によってキャプチャされる。従って、ステップ715において現在のカウンタ値nが統合フレームの数sに等しいかを判定することによって、アルゴリズムは、現在のカウンタ値nが統合フレームの数sに等しくなるまで、ステップ704及び709から714が増加された各値nについて実施されることを保証する。ステップ709から714の動作は、第1の合成画像及び第2の合成画像の生成を可能とし、これらは、ステップ709から714の最後の繰り返しの後、En及びDnによって表される。第1の合成画像Enは、この場合、複数の画像(すなわち、キャプチャされたビデオフレーム)からの明輝度帯を含み、第2の合成画像Dnは、この場合、複数の画像からの暗輝度帯を含む。
もしもステップ715において現在のカウンタ値nが統合フレームの数sと等しいと判定されたならば、方法はステップ716に進み、第1の合成画像Enと第2の合成画像Dnとの間で減算演算を実施することによって環境光補正画像Sが生成される。次いで、方法はステップ717において終了する。
他の実施形態において、キャプチャされた複数の画像から最大及び最小ピクセル値を得ることによってなど、分離アルゴリズムが他のやり方で実現され得ることは理解されよう。例えば、ステップ709から711は、En=maxima(En-1,An)として実現されてよく、ステップ712から714は、En=minima(En-1,An)として実現されてよく、演算子maxima及びminimaは、各画像ピクセル値の間での比較演算並びに最大ピクセル値及び最小値抽出をそれぞれ含む。反復的なプロセスに代わって、maxima及びminima演算子は、設定された数の統合フレーム内の全てのビデオフレームに対して一度に実施され得る。
こうして、既存の問題を克服する、環境光画像補正を実施するための向上されたシステム及び方法が提供される。
開示された実施形態に対する変形例が、特許請求された発明を実践するに当たり、図面、本開示、及び添付の特許請求の範囲を検討することから、当業者によって理解され得、実施され得る。特許請求の範囲において、「備える、有する、含む」という語は、他の要素又はステップを排除するものではなく、単数形は複数を排除するものではない。単一のプロセッサ又は他のユニットが、請求項に記載されたいくつかのアイテムの機能を果たし得る。特定の手段が互いに異なる従属請求項に記載されているという単なる事実は、これらの手段の組み合わせが有利に使用され得ないことを示すものではない。特許請求の範囲における任意の参照記号は、範囲を限定するものと解釈されるべきではない。
Claims (13)
- 環境光画像補正を実施するためのシステムであって、前記システムは、
物体にパルス式照明を提供する光源と、
前記物体が前記光源からの前記パルス式照明によって照らされている間に、前記パルス式照明の波周期よりも短い露出時間で前記物体の複数の画像をキャプチャするローリングシャッター撮像ユニットであって、キャプチャされた前記複数の画像の各々は複数の明輝度帯と暗輝度帯とを含み、明輝度帯は前記パルス式照明の高状態に対応し、暗輝度帯は前記パルス式照明の低状態に対応する、ローリングシャッター撮像ユニットと
を備え、
前記光源によって提供される前記照明のパルス周波数は、前記ローリングシャッター撮像ユニットによって前記複数の画像がキャプチャされるフレームレートの多重積分ではなく、
前記システムは、
明輝度帯に対応するキャプチャされた前記複数の画像からのセクションを合成することによって、キャプチャされた前記複数の画像からの複数の明輝度帯を含む第1の合成画像を生成することと、
暗輝度帯に対応するキャプチャされた前記複数の画像からのセクションを合成することによって、キャプチャされた前記複数の画像からの複数の暗輝度帯を含む第2の合成画像を生成することと、
前記第1の合成画像と前記第2の合成画像との間のピクセル情報における差に基づいて環境光補正画像を生成することと
を実施する制御ユニットを更に備える、システム。 - 前記第1の合成画像及び前記第2の合成画像は、照明状態に基づいて、キャプチャされた前記複数の画像に含まれるピクセルを分離するように分離アルゴリズムを適用することによって生成される、請求項1に記載のシステム。
- 前記光源は、少なくとも70Hzのパルス周波数を有する前記照明を提供する、請求項1又は2に記載のシステム。
- 前記ローリングシャッター撮像ユニットは、一秒当たり少なくとも30フレームのフレームレートにおいて前記複数の画像をキャプチャする、請求項1から3のいずれか一項に記載のシステム。
- 反射コンポーネントと、
ベースユニットと、
請求項1から4のいずれか一項に記載のシステムと
を備える、デジタルミラーデバイスであって、 前記システムの前記光源は前記反射コンポーネントに隣接して配置され、前記システムの前記制御ユニットは前記デジタルミラーデバイスの前記ベースユニットに位置付けられる、デジタルミラーデバイス。 - ユーザ入力を受信するユーザインタフェースユニットを更に備え、
前記制御ユニットは、
前記ユーザインタフェースユニットを介して第1のユーザ入力を受信した際に前記光源及び前記ローリングシャッター撮像ユニットをスイッチオンすることと、
前記ユーザインタフェースユニットを介して第2のユーザ入力を受信した際に前記物体の前記複数の画像をキャプチャするように前記ローリングシャッター撮像ユニットを制御することと
を実施する、請求項5に記載のデジタルミラーデバイス。 - 前記物体は対象者の頭部であり、前記システムの前記制御ユニットは、更に、前記環境光補正画像に基づいて、前記対象者の顔認識及び前記対象者の頭部方向判定のうちの少なくとも1つを実施する、請求項5又は6に記載のデジタルミラーデバイス。
- 前記システムの前記制御ユニットは、更に、前記顔認識の動作及び前記頭部方向判定の動作のうちの少なくとも1つの結果に基づいて前記対象者の顔の特徴を判定する、請求項7に記載のデジタルミラーデバイス。
- 前記ローリングシャッター撮像ユニットが前記複数の画像をキャプチャしている間にインジケーション光を提供するインジケーションライティングユニットを更に備える、請求項5から7のいずれか一項に記載のデジタルミラーデバイス。
- 環境光画像補正を実施するための方法であって、前記方法は、
物体にパルス式照明を提供するステップと、
前記物体が光源からの前記パルス式照明によって照らされている間に、前記パルス式照明の波周期よりも短い露出時間で前記物体の複数の画像をキャプチャするステップであって、キャプチャされた前記複数の画像の各々は複数の明輝度帯と暗輝度帯とを含み、明輝度帯は前記パルス式照明の高状態に対応し、暗輝度帯は前記パルス式照明の低状態に対応し、前記光源によって提供される前記照明のパルス周波数は、前記複数の画像がキャプチャされるフレームレートの多重積分ではない、キャプチャするステップと、
明輝度帯に対応するキャプチャされた前記複数の画像からのセクションを合成することによって、キャプチャされた前記複数の画像からの複数の明輝度帯を含む第1の合成画像を生成するステップと、
暗輝度帯に対応するキャプチャされた前記複数の画像からのセクションを合成することによって、キャプチャされた前記複数の画像からの複数の暗輝度帯を含む第2の合成画像を生成するステップと、
前記第1の合成画像と前記第2の合成画像との間のピクセル情報における差に基づいて環境光補正画像を生成するステップと
を有する、方法。 - 前記第1の合成画像及び前記第2の合成画像を生成するステップは、照明状態に基づいて、キャプチャされた前記複数の画像に含まれるピクセルを分離するように分離アルゴリズムを適用するステップを有する、請求項10に記載の方法。
- 物体にパルス式照明を提供するステップは、少なくとも70Hzのパルス周波数で前記パルス式照明を提供するステップを有する、請求項10又は11に記載の方法。
- 前記複数の画像をキャプチャするステップは、一秒当たり少なくとも30フレームのフレームレートにおいて前記複数の画像をキャプチャするステップを有する、請求項10から12のいずれか一項に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19207439.1 | 2019-11-06 | ||
EP19207439.1A EP3820134A1 (en) | 2019-11-06 | 2019-11-06 | A system for performing ambient light image correction |
PCT/EP2020/080501 WO2021089422A1 (en) | 2019-11-06 | 2020-10-30 | A system for performing ambient light image correction |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023500510A true JP2023500510A (ja) | 2023-01-06 |
JPWO2021089422A5 JPWO2021089422A5 (ja) | 2023-11-02 |
Family
ID=68470373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022525822A Pending JP2023500510A (ja) | 2019-11-06 | 2020-10-30 | 環境光画像補正を実施するためのシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11700462B2 (ja) |
EP (2) | EP3820134A1 (ja) |
JP (1) | JP2023500510A (ja) |
CN (1) | CN114641982B (ja) |
WO (1) | WO2021089422A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3820138A1 (en) | 2019-11-06 | 2021-05-12 | Koninklijke Philips N.V. | A system for performing image motion compensation |
EP3839880A1 (en) | 2019-12-20 | 2021-06-23 | Koninklijke Philips N.V. | A system for performing ambient light image correction |
EP3922168A1 (en) * | 2020-06-10 | 2021-12-15 | Koninklijke Philips N.V. | Determining intensity distributions |
USD987425S1 (en) * | 2021-02-24 | 2023-05-30 | Hangzhou Lifesmart Technology Co., Ltd | Ambient light |
EP4220074A1 (en) | 2022-01-28 | 2023-08-02 | Koninklijke Philips N.V. | Determining a parameter map for a region of a subject's body |
EP4445830A1 (en) | 2023-04-11 | 2024-10-16 | Koninklijke Philips N.V. | Optical sensing system for a body treatment device |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7305108B2 (en) | 2001-11-08 | 2007-12-04 | Pelco | Security identification system |
US7394488B2 (en) * | 2003-10-30 | 2008-07-01 | Hewlett-Packard Development Company, L.P. | System and method for dual white balance compensation of images |
US8004502B2 (en) * | 2007-10-05 | 2011-08-23 | Microsoft Corporation | Correcting for ambient light in an optical touch-sensitive device |
WO2009158662A2 (en) | 2008-06-26 | 2009-12-30 | Global Rainmakers, Inc. | Method of reducing visibility of illimination while acquiring high quality imagery |
US8994877B2 (en) * | 2008-07-30 | 2015-03-31 | Semiconductor Components Industries, Llc | Method and system for synchronizing a flash to an imager |
US8289300B2 (en) * | 2009-07-17 | 2012-10-16 | Microsoft Corporation | Ambient correction in rolling image capture system |
US7962031B2 (en) * | 2009-10-06 | 2011-06-14 | Apple Inc. | Pulsed control of camera flash |
CN101931755B (zh) | 2010-07-06 | 2012-05-23 | 上海洪剑智能科技有限公司 | 一种人脸识别用的调制光滤光装置和滤光方法 |
GB201110157D0 (en) | 2011-06-16 | 2011-07-27 | Light Blue Optics Ltd | Touch sensitive display devices |
TWI489325B (zh) * | 2011-09-21 | 2015-06-21 | Pixart Imaging Inc | 光學手指滑鼠、電子裝置及生理特徵偵測裝置 |
TWI459800B (zh) * | 2011-10-18 | 2014-11-01 | Pixart Imaging Inc | 影像系統及其干擾消除方法 |
US8752768B2 (en) | 2011-11-17 | 2014-06-17 | Datalogic ADC, Inc. | Systems and methods for reading color optical codes |
JP5988093B2 (ja) * | 2012-07-30 | 2016-09-07 | 株式会社豊田中央研究所 | 画像処理装置、物体識別装置、及びプログラム |
JP2014122847A (ja) * | 2012-12-21 | 2014-07-03 | Olympus Corp | 画像補正装置、画像補正プログラム、画像補正方法 |
US10074165B2 (en) * | 2014-09-10 | 2018-09-11 | Morpho, Inc. | Image composition device, image composition method, and recording medium |
WO2017172695A1 (en) | 2016-03-31 | 2017-10-05 | Princeton Identity, Inc. | Systems and methods of biometric anaysis with adaptive trigger |
EP3577894B1 (en) * | 2017-02-06 | 2022-01-26 | Intuitive Surgical Operations, Inc. | System and method for extracting multiple feeds from a rolling-shutter sensor |
-
2019
- 2019-11-06 EP EP19207439.1A patent/EP3820134A1/en not_active Withdrawn
-
2020
- 2020-10-30 CN CN202080077126.2A patent/CN114641982B/zh active Active
- 2020-10-30 JP JP2022525822A patent/JP2023500510A/ja active Pending
- 2020-10-30 WO PCT/EP2020/080501 patent/WO2021089422A1/en unknown
- 2020-10-30 EP EP20796837.1A patent/EP4055812B1/en active Active
- 2020-10-30 US US17/771,513 patent/US11700462B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN114641982B (zh) | 2023-11-28 |
EP4055812A1 (en) | 2022-09-14 |
WO2021089422A1 (en) | 2021-05-14 |
EP3820134A1 (en) | 2021-05-12 |
CN114641982A (zh) | 2022-06-17 |
EP4055812B1 (en) | 2024-02-14 |
US11700462B2 (en) | 2023-07-11 |
US20220400221A1 (en) | 2022-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023500510A (ja) | 環境光画像補正を実施するためのシステム | |
CN108668093B (zh) | Hdr图像的生成方法及装置 | |
US9019415B2 (en) | Method and apparatus for dual camera shutter | |
CN105744175B (zh) | 一种屏幕补光方法、装置及移动终端 | |
US20130021512A1 (en) | Framing of Images in an Image Capture Device | |
CN109345485A (zh) | 一种图像增强方法、装置、电子设备及存储介质 | |
JP7136956B2 (ja) | 画像処理方法及び装置、端末並びに記憶媒体 | |
EP3933675A1 (en) | Method and apparatus for detecting finger occlusion image, and storage medium | |
KR20160063794A (ko) | 촬영 장치 및 그 제어 방법 | |
CN112785537A (zh) | 图像处理方法、装置以及存储介质 | |
JP2013030150A (ja) | 画像処理装置、情報処理装置、方法、プログラムおよび記録媒体 | |
JP7204052B1 (ja) | 周囲光画像補正を実行するためのシステム | |
CN114731360B (zh) | 用于执行图像运动补偿的系统 | |
JP2019047336A5 (ja) | ||
JP6450107B2 (ja) | 画像処理装置及び画像処理方法、プログラム、記憶媒体 | |
JP2015149611A (ja) | 撮影機器、撮影支援方法及び撮影支援プログラム | |
US11336802B2 (en) | Imaging apparatus | |
CN114667724B (zh) | 用于执行图像运动补偿的系统 | |
CN113660428A (zh) | 图像获取方法、装置和电子设备 | |
CN115866421A (zh) | 一种拍摄方法、拍摄装置及存储介质 | |
CN118828218A (zh) | 一种拍照方法、装置及存储介质 | |
JP2024000481A (ja) | 画像処理方法及び装置、モバイル端末、記憶媒体 | |
KR20110056092A (ko) | 피사체 부각 정보를 제공하는 방법 및 이를 위한 디지털 촬영 장치 | |
JP2016139927A (ja) | 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置 | |
JP2015173386A (ja) | 画像処理装置、その制御方法及び制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20231025 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231025 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240815 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240830 |