JP7443990B2 - 機械学習装置、画像処理装置、機械学習方法、及び機械学習プログラム - Google Patents
機械学習装置、画像処理装置、機械学習方法、及び機械学習プログラム Download PDFInfo
- Publication number
- JP7443990B2 JP7443990B2 JP2020142707A JP2020142707A JP7443990B2 JP 7443990 B2 JP7443990 B2 JP 7443990B2 JP 2020142707 A JP2020142707 A JP 2020142707A JP 2020142707 A JP2020142707 A JP 2020142707A JP 7443990 B2 JP7443990 B2 JP 7443990B2
- Authority
- JP
- Japan
- Prior art keywords
- far
- time period
- predetermined time
- visible light
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 48
- 238000006243 chemical reaction Methods 0.000 claims description 18
- 238000000034 method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000003331 infrared imaging Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、遠赤外線画像を可視光画像に変換する技術に関する。
可視光がない夜間では、可視光カメラの代わりに赤外線カメラを用いて物体を撮影するが、遠赤外線画像にはカラー画像情報がないため、遠赤外線画像から人物など特定の物体を検出することは難しい。そこで人間の目でも容易に認識できるように遠赤外線画像を可視光画像に変換することが行われる。
特許文献1には、対象物に赤外線を照射し反射される赤外線からの赤外スペクトル反射率の測定を二次元的走査で行うことにより、対象物の二次元的なスペクトル画像を得て、該スペクトル画像の各位置に人工的に着色を行う赤外線カラー画像形成装置が開示されている。
特許文献2には、生成器が赤外線画像の画素値から被写体の色を予測することによりカラー画像を生成し、制御部が予測に関連する色ごとの信頼度に基づいて候補色を決定する画像処理装置が開示されている。
赤外線画像を可視光画像に変換するためには、赤外線画像の画素値に対してカラー値を正確に指定することが必要であり、精度を上げるには限界があった。また、夜間の赤外線画像を昼間のカラー画像に変換することは難しい。
本発明はこうした状況に鑑みてなされたものであり、その目的は、遠赤外線画像を高い精度で可視光画像に変換することのできる技術を提供することにある。
上記課題を解決するために、本発明のある態様の機械学習装置は、第1の所定時間帯と第2の所定時間帯の遠赤外線画像を取得する遠赤外線画像教師データ取得部と、第2の所定時間帯の可視光画像を取得する可視光画像教師データ取得部と、前記第1の所定時間帯の遠赤外線画像から前記第2の所定時間帯の可視光画像を生成する学習済みの可視光画像生成モデルを生成する可視光画像生成モデル学習部とを備える。前記可視光画像生成モデル学習部は、前記第1の所定時間帯の遠赤外線画像と前記第2の所定時間帯の遠赤外線画像とを教師データとして機械学習し、前記第1の所定時間帯の遠赤外線画像から前記第2の所定時間帯の遠赤外線画像を生成する学習済みの第1の生成モデルを生成する第1の生成モデル学習部と、前記第2の所定時間帯の遠赤外線画像と前記第2の所定時間帯の可視光画像とを教師データとして機械学習し、前記第2の所定時間帯の遠赤外線画像から前記第2の所定時間帯の可視光画像を生成する学習済みの第2の生成モデルを生成する第2の生成モデル学習部とを含む。
本発明の別の態様は、画像処理装置である。この装置は、遠赤外線画像を取得する遠赤外線画像取得部と、前記取得された遠赤外線画像を、遠赤外線画像から可視光画像を生成するために機械学習された可視光画像生成モデルに入力して可視光画像を生成する可視光画像生成部とを備える。前記可視光画像生成部は、前記取得された遠赤外線画像を、第1の所定時間帯の遠赤外線画像と第2の所定時間帯の遠赤外線画像とを教師データとして機械学習された第1の生成モデルに入力して第2の所定時間帯の遠赤外線画像を生成する第1の画像変換部と、前記生成された第2の所定時間帯の遠赤外線画像を、第2の所定時間帯の遠赤外線画像と第2の所定時間帯の可視光画像とを教師データとして機械学習された第2の生成モデルに入力して第2の所定時間帯の可視光画像を生成する第2の画像変換部とを含む。
本発明のさらに別の態様は、機械学習方法である。この方法は、第1の所定時間帯と第2の所定時間帯の遠赤外線画像を取得する遠赤外線画像教師データ取得ステップと、第2の所定時間帯の可視光画像を取得する可視光画像教師データ取得ステップと、前記第1の所定時間帯の遠赤外線画像から前記第2の所定時間帯の可視光画像を生成する学習済みの可視光画像生成モデルを生成する可視光画像生成モデル学習ステップとを備える。前記可視光画像生成モデル学習ステップは、前記第1の所定時間帯の遠赤外線画像と前記第2の所定時間帯の遠赤外線画像とを教師データとして機械学習し、前記第1の所定時間帯の遠赤外線画像から前記第2の所定時間帯の遠赤外線画像を生成する学習済みの第1の生成モデルを生成する第1の生成モデル学習ステップと、前記第2の所定時間帯の遠赤外線画像と前記第2の所定時間帯の可視光画像とを教師データとして機械学習し、前記第2の所定時間帯の遠赤外線画像から前記第2の所定時間帯の可視光画像を生成する学習済みの第2の生成モデルを生成する第2の生成モデル学習ステップとを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、遠赤外線画像を高い精度で可視光画像に変換することができる。
図1は、実施の形態に係る機械学習装置200の構成図である。機械学習装置200は、教師データ記憶部10、遠赤外線画像教師データ取得部20、可視光画像教師データ取得部30、可視光画像生成モデル学習部40、および学習済みモデル記憶部50を含む。
教師データ記憶部10には、第1所定時間帯の遠赤外線画像、第2所定時間帯の遠赤外線画像、および第2所定時間帯の可視光画像が教師データとして格納されている。一例として、第1所定時間帯は夜間であり、第2所定時間帯は昼間である。
遠赤外線画像は、遠赤外線撮像装置により第1所定時間帯および第2所定時間帯に撮影されたものである。可視光画像は、可視光撮像装置により第2所定時間帯に撮影されたものである。第1所定時間帯の遠赤外線画像と第2所定時間帯の遠赤外線画像は、撮影の時間帯が異なるため、画像の構図、すなわち撮影対象の人物や物体の配置は異なる。第2所定時間帯の遠赤外線画像と第2所定時間帯の可視光画像は、同一の時間帯において遠赤外線撮像装置と可視光撮像装置という二種類の撮像装置により撮影されたものであるため、画像の構図はほぼ同じである。
遠赤外線画像教師データ取得部20は、教師データ記憶部10から第1所定時間帯と第2所定時間帯の遠赤外線画像を教師データとして取得する。可視光画像教師データ取得部30は、教師データ記憶部10から第2所定時間帯の可視光画像を教師データとして取得する。
可視光画像生成モデル学習部40は、第1所定時間帯の遠赤外線画像から第2所定時間帯の可視光画像を生成する学習済みの可視光画像生成モデルを生成する。可視光画像生成モデルは、第1所定時間帯の遠赤外線画像から第2所定時間帯の遠赤外線画像を生成する第1生成モデル60と、第2所定時間帯の遠赤外線画像から第2所定時間帯の可視光画像を生成する第2生成モデル70とを含む。可視光画像生成モデル学習部40は、機械学習により生成された第1生成モデル60と第2生成モデル70を学習済みモデル記憶部50に保存する。
図3は、可視光画像生成モデル学習部40の構成図である。可視光画像生成モデル学習部40は、第1生成モデル学習部42と第2生成モデル学習部44を含む。図3を参照して、可視光画像生成モデル学習部40のより詳細な構成を説明するが、ここでは、一例として、第1所定時間帯は夜間、第2所定時間帯は昼間であるとして説明する。
第1生成モデル学習部42は、第1所定時間帯の遠赤外線画像(夜間遠赤外線画像22)と第2所定時間帯の遠赤外線画像(昼間遠赤外線画像24)とを教師データとして機械学習し、第1所定時間帯の遠赤外線画像(夜間遠赤外線画像22)から第2所定時間帯の遠赤外線画像(昼間遠赤外線画像24)を生成する学習済みの第1生成モデル60を生成する。
第2生成モデル学習部44は、第2所定時間帯の遠赤外線画像(昼間遠赤外線画像24)と第2所定時間帯の可視光画像(昼間可視光画像26)とを教師データとして機械学習し、第2所定時間帯の遠赤外線画像(昼間遠赤外線画像24)から第2所定時間帯の可視光画像(昼間可視光画像26)を生成する学習済みの第2生成モデル70を生成する。
機械学習の一例として、敵対的生成ネットワーク(GAN(Generative Adversarial Networks))を用いる。敵対的生成ネットワークでは、生成器(Generator)と識別器(Discriminator)という二つのニューラルネットワークが互いに敵対的な学習を行う。敵対的生成ネットワークを用いて画像から画像への変換を学習する方法として、CycleGANと呼ばれる手法と、Pix2Pixと呼ばれる手法がある。Pix2Pixでは、訓練データセットとして与える変換前後の画像が1対1に対応するペアとなっている必要があるが、CycleGANでは厳密なペアではない画像の組み合わせを訓練データセットとして用いて学習することができる。
第1生成モデル学習部42は、撮影時間帯の異なる夜間遠赤外線画像22と昼間遠赤外線画像24を教師データとして用いるため、変換前後の画像は同じ構図でなく、データセットは厳密なペアとはなっていない。そのため、第1生成モデル学習部42では、厳密なペアではないデータセットに対しても学習できるCycleGANを用いる。
CycleGANモデルに夜間遠赤外線画像22を入力データとして、昼間遠赤外線画像24を真値(Ground Truth)として与える。CycleGANモデルは入力画像の輪郭を保持しながら、画像のスタイルをGround Truthへ変換する。CycleGANモデルに与えられる夜間遠赤外線画像22と昼間遠赤外線画像24のデータセットは、同じ場所で同じ遠赤外線カメラで撮影した写真であり、撮影時間帯の差があるだけであり、CycleGANモデルによって学習しやすい教師データである。
第2生成モデル学習部44は、撮影時間帯が同じである昼間遠赤外線画像24と昼間可視光画像26を教師データとして用いるため、変換前後の画像は同じ構図であり、データセットはペアとなっている。そのため、第2生成モデル学習部44では、ペアであるデータセットに対して学習するPix2Pixを用いる。
Pix2Pixモデルに昼間遠赤外線画像24を入力データとして、昼間可視光画像26を真値(Ground Truth)として与える。Pix2Pixに与えられる昼間遠赤外線画像24と昼間可視光画像26のデータセットは、同じ場所で同じ時間帯に遠赤外線カメラおよび可視光カメラという異なるカメラで撮影した写真であり、ペア画像であるため、Pix2Pixモデルによって学習しやすい教師データである。
可視光画像生成モデル学習部40は、夜間遠赤外線画像22から昼間可視光画像26への変換を直接機械学習するのではなく、夜間遠赤外線画像22から昼間遠赤外線画像24への変換を機械学習し、その後、昼間遠赤外線画像24から昼間可視光画像26への変換を機械学習するという2段階変換の機械学習モデルを生成する。
夜間遠赤外線画像22と昼間遠赤外線画像24は、同じ遠赤外線画像であるが撮影時間帯が異なるだけであるため、相関が高い。また、昼間遠赤外線画像24と昼間可視光画像26は、遠赤外線と可視光の違いがあるが撮影時間帯が同じであるため、相関が高い。それに対して、夜間遠赤外線画像22と昼間可視光画像26では、遠赤外線と可視光の違いがあり、撮影時間帯も異なるため、相関が低い。
夜間遠赤外線画像22から昼間可視光画像26を1回の変換で機械学習するよりも、夜間遠赤外線画像22から昼間遠赤外線画像24を機械学習し、その後、昼間遠赤外線画像24から昼間可視光画像26を機械学習するという2段階の変換を機械学習した方が、変換の難易度が低く、学習の精度が高くなる。
また、撮影画像から物体を検出する応用を想定した場合、物体検出モデルは、遠赤外線画像よりも可視光画像の場合に検出精度が高い。物体検出モデルをディープラーニングモデルなどにより機械学習する場合でも、可視光画像であれば、画像の色情報を用いて人物や物体を検出することができるため、検出精度を向上させることができる。また、学習段階で公開された学習済みモデルを利用する場合、可視光画像用の学習済みモデルは一般に公開されているが、遠赤外線画像用の学習済みモデルは公開されていないことが多い。このように撮影画像からの物体検出に応用することを想定する場合、夜間遠赤外線画像を昼間遠赤外線画像に高い精度で変換できるようにすることは有意義である。
図2は、実施の形態に係る遠赤外線撮像装置300の構成図である。遠赤外線撮像装置300は、学習済みモデル記憶部50、画像処理装置100、および画像表示部110を含む。画像処理装置100は、遠赤外線画像取得部80および可視光画像生成部90を含む。学習済みモデル記憶部50は、図1の学習済みモデル記憶部50の構成と同じであり、可視光画像生成モデル学習部40により機械学習により生成された第1生成モデル60と第2生成モデル70が格納されている。
遠赤外線画像取得部80は、第1所定時間帯に撮影された遠赤外線画像を取得する。
可視光画像生成部90は、遠赤外線画像取得部80により取得された遠赤外線画像を、遠赤外線画像から可視光画像を生成するために機械学習された可視光画像生成モデルに入力して可視光画像を生成する。可視光画像生成モデルは、第1所定時間帯の遠赤外線画像から第2所定時間帯の遠赤外線画像を生成する第1生成モデル60と、第2所定時間帯の遠赤外線画像から第2所定時間帯の可視光画像を生成する第2生成モデル70とを含む。可視光画像生成部90は、機械学習により生成された第1生成モデル60と第2生成モデル70を学習済みモデル記憶部50から読み出す。画像表示部110は、可視光画像生成部90により生成された可視光画像を表示する。
図4は、可視光画像生成部90の構成図である。可視光画像生成部90は、第1画像変換部92と第2画像変換部94を含む。図4を参照して、可視光画像生成部90のより詳細な構成を説明するが、ここでは、一例として、第1所定時間帯は夜間、第2所定時間帯は昼間であるとして説明する。
第1画像変換部92は、遠赤外線画像取得部80により取得された遠赤外線画像(夜間遠赤外線画像82)を、第1所定時間帯の遠赤外線画像(夜間遠赤外線画像22)と第2所定時間帯の遠赤外線画像(昼間遠赤外線画像24)とを教師データとして機械学習された第1生成モデル60に入力して第2所定時間帯の遠赤外線画像(昼間遠赤外線画像84)を生成する。
第2画像変換部94は、第1画像変換部92により生成された第2所定時間帯の遠赤外線画像(昼間遠赤外線画像84)を、第2所定時間帯の遠赤外線画像(昼間遠赤外線画像24)と第2所定時間帯の可視光画像(昼間可視光画像26)とを教師データとして機械学習された第2生成モデル70に入力して第2所定時間帯の可視光画像(昼間可視光画像86)を生成する。
図5は、機械学習装置200によって、夜間遠赤外線画像から昼間可視光画像を生成する可視光画像生成モデルを機械学習する手順を説明するフローチャートである。
教師データ記憶部10から夜間遠赤外線画像22、昼間遠赤外線画像24、昼間可視光画像26を取得する(S10)。
夜間遠赤外線画像22と昼間遠赤外線画像24を教師データとする機械学習により、夜間遠赤外線画像22から昼間遠赤外線画像24を生成する第1生成モデル60を生成する(S20)。
昼間遠赤外線画像24と昼間可視光画像26を教師データとする機械学習により、昼間遠赤外線画像24から昼間可視光画像26を生成する第2生成モデル70を生成する(S30)。
第1生成モデル60と第2生成モデル70を可視光画像生成モデルとして学習済みモデル記憶部50に保存する(S40)。
図6は、画像処理装置100によって、夜間遠赤外線画像を昼間可視光画像に変換する手順を説明するフローチャートである。
遠赤外線撮像装置300により撮影された夜間遠赤外線画像82を入力する(S50)。
夜間遠赤外線画像22と昼間遠赤外線画像24を教師データとする機械学習により生成された第1生成モデル60を用いて、夜間遠赤外線画像82を昼間遠赤外線画像84に変換する(S60)。
昼間遠赤外線画像24と昼間可視光画像26を教師データとする機械学習により生成された第2生成モデル70を用いて、昼間遠赤外線画像84を昼間可視光画像86に変換する(S70)。
2段階の変換により生成された昼間可視光画像86を出力する(S80)。出力された昼間可視光画像86は物体検出などに用いられる。
以上説明した画像処理装置100、機械学習装置200、および遠赤外線撮像装置300の各種の処理は、CPUやメモリ等のハードウェアを用いた装置として実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバと送受信することも、地上波あるいは衛星ディジタル放送のデータ放送として送受信することも可能である。
以上述べたように、本発明の実施の形態によれば、夜間遠赤外線画像から昼間可視光画像を直接変換するのではなく、夜間遠赤外線画像を昼間遠赤外線画像に変換し、その後、昼間遠赤外線画像を昼間可視光画像に変換するという2段階の変換を行うことにより、夜間遠赤外線画像から昼間可視光画像を高い精度で生成することができる。
可視光がない夜間では可視光カメラよりも赤外線カメラの方が物体を撮影しやすいが、夜間遠赤外線画像は色情報がないため、物体を検出するのが難しい。本発明の実施の形態の機械学習装置200および画像処理装置100を用いれば、高い精度で夜間遠赤外線画像を昼間可視光画像に変換することができるため、物体の検出が容易になる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
10 教師データ記憶部、 20 遠赤外線画像教師データ取得部、 22 夜間遠赤外線画像、 24 昼間遠赤外線画像、 26 昼間可視光画像、 30 可視光画像教師データ取得部、 40 可視光画像生成モデル学習部、 42 第1生成モデル学習部、 44 第2生成モデル学習部、 50 学習済みモデル記憶部、 60 第1生成モデル、 70 第2生成モデル、 80 遠赤外線画像取得部、 82 夜間遠赤外線画像、 84 昼間遠赤外線画像、 86 昼間可視光画像、 90 可視光画像生成部、 92 第1画像変換部、 94 第2画像変換部、 100 画像処理装置、 110 画像表示部、 200 機械学習装置、 300 遠赤外線撮像装置。
Claims (5)
- 第1の所定時間帯と第2の所定時間帯の遠赤外線画像を取得する遠赤外線画像教師データ取得部と、
第2の所定時間帯の可視光画像を取得する可視光画像教師データ取得部と、
前記第1の所定時間帯の遠赤外線画像から前記第2の所定時間帯の可視光画像を生成する学習済みの可視光画像生成モデルを生成する可視光画像生成モデル学習部とを備え、
前記可視光画像生成モデル学習部は、
前記第1の所定時間帯の遠赤外線画像と前記第2の所定時間帯の遠赤外線画像とを教師データとして機械学習し、前記第1の所定時間帯の遠赤外線画像から前記第2の所定時間帯の遠赤外線画像を生成する学習済みの第1の生成モデルを生成する第1の生成モデル学習部と、
前記第2の所定時間帯の遠赤外線画像と前記第2の所定時間帯の可視光画像とを教師データとして機械学習し、前記第2の所定時間帯の遠赤外線画像から前記第2の所定時間帯の可視光画像を生成する学習済みの第2の生成モデルを生成する第2の生成モデル学習部とを含むことを特徴とする機械学習装置。 - 遠赤外線画像を取得する遠赤外線画像取得部と、
前記取得された遠赤外線画像を、遠赤外線画像から可視光画像を生成するために機械学習された可視光画像生成モデルに入力して可視光画像を生成する可視光画像生成部とを備え、
前記可視光画像生成部は、
前記取得された遠赤外線画像を、第1の所定時間帯の遠赤外線画像と第2の所定時間帯の遠赤外線画像とを教師データとして機械学習された第1の生成モデルに入力して第2の所定時間帯の遠赤外線画像を生成する第1の画像変換部と、
前記生成された第2の所定時間帯の遠赤外線画像を、第2の所定時間帯の遠赤外線画像と第2の所定時間帯の可視光画像とを教師データとして機械学習された第2の生成モデルに入力して第2の所定時間帯の可視光画像を生成する第2の画像変換部とを含むことを特徴とする画像処理装置。 - 前記第2の生成モデルの教師データである前記第2の所定時間帯の遠赤外線画像と前記第2の所定時間帯の可視光画像は同一の構図であることを特徴とする請求項2に記載の画像処理装置。
- 第1の所定時間帯と第2の所定時間帯の遠赤外線画像を取得する遠赤外線画像教師データ取得ステップと、
第2の所定時間帯の可視光画像を取得する可視光画像教師データ取得ステップと、
前記第1の所定時間帯の遠赤外線画像から前記第2の所定時間帯の可視光画像を生成する学習済みの可視光画像生成モデルを生成する可視光画像生成モデル学習ステップとを備え、
前記可視光画像生成モデル学習ステップは、
前記第1の所定時間帯の遠赤外線画像と前記第2の所定時間帯の遠赤外線画像とを教師データとして機械学習し、前記第1の所定時間帯の遠赤外線画像から前記第2の所定時間帯の遠赤外線画像を生成する学習済みの第1の生成モデルを生成する第1の生成モデル学習ステップと、
前記第2の所定時間帯の遠赤外線画像と前記第2の所定時間帯の可視光画像とを教師データとして機械学習し、前記第2の所定時間帯の遠赤外線画像から前記第2の所定時間帯の可視光画像を生成する学習済みの第2の生成モデルを生成する第2の生成モデル学習ステップとを含むことを特徴とする機械学習方法。 - 第1の所定時間帯と第2の所定時間帯の遠赤外線画像を取得する遠赤外線画像教師データ取得ステップと、
第2の所定時間帯の可視光画像を取得する可視光画像教師データ取得ステップと、
前記第1の所定時間帯の遠赤外線画像から前記第2の所定時間帯の可視光画像を生成する学習済みの可視光画像生成モデルを生成する可視光画像生成モデル学習ステップとをコンピュータに実行させ、
前記可視光画像生成モデル学習ステップは、
前記第1の所定時間帯の遠赤外線画像と前記第2の所定時間帯の遠赤外線画像とを教師データとして機械学習し、前記第1の所定時間帯の遠赤外線画像から前記第2の所定時間帯の遠赤外線画像を生成する学習済みの第1の生成モデルを生成する第1の生成モデル学習ステップと、
前記第2の所定時間帯の遠赤外線画像と前記第2の所定時間帯の可視光画像とを教師データとして機械学習し、前記第2の所定時間帯の遠赤外線画像から前記第2の所定時間帯の可視光画像を生成する学習済みの第2の生成モデルを生成する第2の生成モデル学習ステップとを含むことを特徴とする機械学習プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020142707A JP7443990B2 (ja) | 2020-08-26 | 2020-08-26 | 機械学習装置、画像処理装置、機械学習方法、及び機械学習プログラム |
PCT/JP2021/003568 WO2022044368A1 (ja) | 2020-08-26 | 2021-02-01 | 機械学習装置、画像処理装置、機械学習方法、及び機械学習プログラム |
US18/173,819 US20230199281A1 (en) | 2020-08-26 | 2023-02-24 | Machine learning device, image processing device, machine learning method, and machine learning program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020142707A JP7443990B2 (ja) | 2020-08-26 | 2020-08-26 | 機械学習装置、画像処理装置、機械学習方法、及び機械学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022038286A JP2022038286A (ja) | 2022-03-10 |
JP7443990B2 true JP7443990B2 (ja) | 2024-03-06 |
Family
ID=80355047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020142707A Active JP7443990B2 (ja) | 2020-08-26 | 2020-08-26 | 機械学習装置、画像処理装置、機械学習方法、及び機械学習プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230199281A1 (ja) |
JP (1) | JP7443990B2 (ja) |
WO (1) | WO2022044368A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019069581A1 (ja) | 2017-10-02 | 2019-04-11 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
JP2020125618A (ja) | 2019-02-04 | 2020-08-20 | 東京電力ホールディングス株式会社 | 情報処理方法、プログラム、取水制御システム及び学習済みモデルの生成方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6939283B2 (ja) * | 2017-09-05 | 2021-09-22 | ソニーグループ株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
-
2020
- 2020-08-26 JP JP2020142707A patent/JP7443990B2/ja active Active
-
2021
- 2021-02-01 WO PCT/JP2021/003568 patent/WO2022044368A1/ja active Application Filing
-
2023
- 2023-02-24 US US18/173,819 patent/US20230199281A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019069581A1 (ja) | 2017-10-02 | 2019-04-11 | ソニー株式会社 | 画像処理装置及び画像処理方法 |
JP2020125618A (ja) | 2019-02-04 | 2020-08-20 | 東京電力ホールディングス株式会社 | 情報処理方法、プログラム、取水制御システム及び学習済みモデルの生成方法 |
Also Published As
Publication number | Publication date |
---|---|
US20230199281A1 (en) | 2023-06-22 |
WO2022044368A1 (ja) | 2022-03-03 |
JP2022038286A (ja) | 2022-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10997696B2 (en) | Image processing method, apparatus and device | |
CN110428366B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
US9979909B2 (en) | Automatic lens flare detection and correction for light-field images | |
JP2021534520A (ja) | 画像強調のための人工知能技法 | |
KR20170017911A (ko) | 디지털 이미지들의 컬러 프로세싱을 위한 방법들 및 시스템들 | |
US20210097650A1 (en) | Image processing method, storage medium, image processing apparatus, learned model manufacturing method, and image processing system | |
JP2021179833A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN114298942A (zh) | 图像去模糊方法及装置、计算机可读介质和电子设备 | |
US20230196739A1 (en) | Machine learning device and far-infrared image capturing device | |
JPWO2020194378A1 (ja) | 画像処理システム、画像処理装置、画像処理方法、及び画像処理プログラム | |
JP7443990B2 (ja) | 機械学習装置、画像処理装置、機械学習方法、及び機械学習プログラム | |
JP7403995B2 (ja) | 情報処理装置、制御方法およびプログラム | |
CN110689486A (zh) | 图像的处理方法、装置、设备及计算机可存储介质 | |
CN113067980A (zh) | 图像采集方法、装置、电子设备及存储介质 | |
JP2018045366A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2009009206A (ja) | 画像中の輪郭抽出方法及びその画像処理装置 | |
JP6757392B2 (ja) | 画像生成装置、画像生成方法及び画像生成プログラム | |
JP2015233202A (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
JP6332982B2 (ja) | 画像処理装置およびその方法 | |
JP2022045567A (ja) | 撮像制御装置、撮像制御方法、及びプログラム | |
CN113034553A (zh) | 图像配准算法的评估方法、终端及存储介质 | |
JP2020191546A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP6384961B2 (ja) | カメラキャリブレーション装置、カメラキャリブレーション方法、カメラキャリブレーションプログラム及び記録媒体 | |
KR102415572B1 (ko) | 오토인코더 기반의 전력설비 진단 장치 및 그 학습 방법 | |
CN111553286B (zh) | 用于捕捉耳朵动画特征的方法、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7443990 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |