JP7528637B2 - 機械学習装置及び遠赤外線撮像装置 - Google Patents

機械学習装置及び遠赤外線撮像装置 Download PDF

Info

Publication number
JP7528637B2
JP7528637B2 JP2020142706A JP2020142706A JP7528637B2 JP 7528637 B2 JP7528637 B2 JP 7528637B2 JP 2020142706 A JP2020142706 A JP 2020142706A JP 2020142706 A JP2020142706 A JP 2020142706A JP 7528637 B2 JP7528637 B2 JP 7528637B2
Authority
JP
Japan
Prior art keywords
visible light
light image
image
far
trained model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020142706A
Other languages
English (en)
Other versions
JP2022038285A (ja
Inventor
晋吾 木田
英樹 竹原
尹誠 楊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020142706A priority Critical patent/JP7528637B2/ja
Priority to PCT/JP2021/003567 priority patent/WO2022044367A1/ja
Publication of JP2022038285A publication Critical patent/JP2022038285A/ja
Priority to US18/173,820 priority patent/US20230196739A1/en
Application granted granted Critical
Publication of JP7528637B2 publication Critical patent/JP7528637B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、転移学習技術に関する。
可視光がない夜間では、可視光カメラの代わりに赤外線カメラを用いて物体を撮影し、遠赤外線画像から人物など特定の物体を検出することになるが、遠赤外線画像に適した汎用の物体検出の学習済みモデルは入手が困難である。そこで、RGB画像を用いた汎用の物体検出の学習済みモデルに対して、赤外線画像を教師データとして学習し直す転移学習が行われている。
特許文献1には、RGB映像とそれに対応する発話内容を教師データとして学習された学習済みのRGB映像モデルに対して、赤外線画像とそれに対応する発話内容を教師データとして用いて、転移学習を行い、赤外線映像モデルを生成する学習装置が開示されている。
特開2019-204147号公報
RGB画像を用いた物体検出モデルに対して、遠赤外線画像を教師データとした転移学習を行うと、転移学習時に色情報が損失するため、転移学習後の物体検出モデルの推論の認識率が低くなるという問題があった。
本発明はこうした状況に鑑みてなされたものであり、その目的は、推論精度の高い転移学習技術を提供することにある。
上記課題を解決するために、本発明のある態様の機械学習装置は、遠赤外線画像を取得する遠赤外線画像取得部と、前記取得された遠赤外線画像を可視光画像に変換する画像変換部と、可視光画像を教師データとして学習された第1の可視光画像学習済みモデルを記憶する可視光画像学習済みモデル記憶部と、前記変換された可視光画像を教師データとして用いて前記第1の可視光画像学習済みモデルを転移学習させて、第2の可視光画像学習済みモデルを生成する転移学習部とを含む。
本発明の別の態様は、遠赤外線撮像装置である。この装置は、遠赤外線画像を取得する遠赤外線画像取得部と、前記取得された遠赤外線画像を可視光画像に変換する画像変換部と、遠赤外線画像を可視光画像に変換した画像を教師データとして用いて第1の可視光画像学習済みモデルを転移学習させて生成された第2の可視光画像学習済みモデルを用いて、前記変換された可視光画像から物体を検出する物体検出部とを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、推論精度の高い転移学習技術を提供することができる。
実施の形態に係る機械学習装置の構成図である。 実施の形態に係る遠赤外線撮像装置の構成図である。 別の実施の形態に係る機械学習装置の構成図である。 さらに別の実施の形態に係る機械学習装置の構成図である。 図1の機械学習装置による転移学習手順を説明するフローチャートである。 図2の遠赤外線撮像装置による物体検出手順を説明するフローチャートである。
図1は、実施の形態に係る機械学習装置100の構成図である。機械学習装置100は、遠赤外線画像取得部10、画像変換部20、転移学習部30、可視光画像学習済みモデル記憶部40、および遠赤外線可視光化画像学習済みモデル記憶部50を含む。
遠赤外線画像取得部10は、遠赤外線撮像装置により撮影された遠赤外線画像を取得し、画像変換部20に供給する。
画像変換部20は、遠赤外線画像と可視光画像を教師データとして機械学習された画像変換モデルにもとづいて遠赤外線画像を可視光画像に変換する。
画像変換部20は、遠赤外線画像と可視光画像を教師データとして機械学習し、遠赤外線画像から可視光画像を生成する生成モデルを生成する生成部を含み、取得された遠赤外線画像を生成モデルに入力して可視光画像に変換する。
機械学習の一例として、敵対的生成ネットワーク(GAN(Generative Adversarial Networks))を用いる。敵対的生成ネットワークでは、生成器(Generator)と識別器(Discriminator)という二つのニューラルネットワークが互いに敵対的な学習を行う。敵対的生成ネットワークを用いて画像から画像への変換を学習する方法として、CycleGANと呼ばれる手法と、Pix2Pixと呼ばれる手法がある。Pix2Pixでは、訓練データセットとして与える変換前後の画像が1対1に対応するペアとなっている必要があるが、CycleGANでは厳密なペアではない画像の組み合わせを訓練データセットとして用いて学習することができる。
可視光画像学習済みモデル記憶部40は、可視光画像を教師データとして学習された物体検出用の第1の可視光画像学習済みモデルを記憶する。
転移学習部30は、画像変換部20により変換された可視光画像を教師データとして用いて第1の可視光画像学習済みモデルを転移学習させて、第2の可視光画像学習済みモデルを生成する。
転移学習では、第1の可視光画像学習済みモデルのニューラルネットワークに新たな層を追加して、遠赤外線画像から変換された可視光画像を教師データとして学習することにより、第2の可視光画像学習済みモデルのニューラルネットワークを生成する。
遠赤外線可視光化画像学習済みモデル記憶部50は、転移学習後の第2の可視光画像学習済みモデルを記憶する。
遠赤外線画像を可視光画像に変換した画像を教師データとするため、色情報を損失することなく、第1の可視光画像学習済みモデルを第2の可視光画像学習済みモデルに転移させることができる。
第1の可視光画像学習済みモデルは、可視光画像を教師データとして学習された物体検出モデルであるため、遠赤外線画像を教師データとして再学習するより、遠赤外線画像から変換された可視光画像を教師データとして再学習する方が学習済みモデルとの親和性が高く、転移学習後の第2の可視光画像学習済みモデルは物体検出の精度がより高くなる。
図2は、実施の形態に係る遠赤外線撮像装置200の構成図である。遠赤外線撮像装置200は、遠赤外線可視光化画像学習済みモデル記憶部50、遠赤外線画像取得部60、画像変換部70、物体検出部80、および検出結果表示部90を含む。遠赤外線可視光化画像学習済みモデル記憶部50は、図1の遠赤外線可視光化画像学習済みモデル記憶部50の構成と同じであり、転移学習部30により生成された第2の可視光画像学習済みモデルが格納されている。
遠赤外線画像取得部60は、遠赤外線撮像装置により撮影された遠赤外線画像を取得し、画像変換部70に供給する。
画像変換部70は、遠赤外線画像と可視光画像を教師データとして機械学習された画像変換モデルにもとづいて遠赤外線画像を可視光画像に変換する。画像変換部70は、図1の画像変換部20の構成と同じである。
物体検出部80は、遠赤外線可視光化画像学習済みモデル記憶部50に記憶された第2の可視光画像学習済みモデルを用いて、変換された可視光画像から物体を検出する。
ここで、第2の可視光画像学習済みモデルは、遠赤外線画像を可視光画像に変換した画像を教師データとして用いて第1の可視光画像学習済みモデルを転移学習させて生成された物体検出モデルである。転移学習後の第2の可視光画像学習済みモデルを用いることにより、遠赤外線画像を変換した可視光画像から物体を検出する際の認識精度が向上する。
検出結果表示部90は、変換後の可視光画像または変換前の遠赤外線画像において、検出された物体を枠で囲むなどにより検出結果を表示する。
図3は、別の実施の形態に係る機械学習装置100の構成図である。図3の機械学習装置100は学習済みモデル選択部15を含む点が図1の機械学習装置100とは異なる。ここでは、図1の機械学習装置100と異なる構成について説明し、図1の機械学習装置100と同じ構成については適宜説明を省略する。
学習済みモデル選択部15は、複数の第1の可視光画像学習済みモデルの内、画像変換部20により変換された可視光画像から物体検出するのに最も適した第1の可視光画像学習済みモデルを選択し、選択された第1の可視光画像学習済みモデルを可視光画像学習済みモデル記憶部40に保存する。
最適な第1の可視光画像学習済みモデルを選択する方法をより具体的に説明する。複数の第1の可視光画像学習済みモデルとして学習済みモデルA、B、Cの3つがあり、学習済みモデルA、B、Cの教師データとして用いられた可視光画像を教師データA、B、Cとする。画像変換部20により変換された可視光画像を教師データXとする。教師データXに対する教師データA、B、Cの類似度を算出し、学習済みモデルA、B、Cの内、類似度が最も高い学習済みモデルを最適な第1の可視光画像学習済みモデルとして選択する。
学習済みモデルA、B、Cに教師データA、B、Cを入力した場合の中間出力であるニューラルネットワークの後段の中間層の特徴量A’、B’、C’と、学習済みモデルA、B、Cに教師データXを入力した場合の中間出力であるニューラルネットワークの後段の中間層の特徴量X’、X’、X’との差分から教師データの類似度を算出する。差分が小さいほど類似度は高い。学習済みモデルA、B、Cの内、差分が最小である学習済みモデルを最適な第1の可視光画像学習済みモデルとして選択する。
転移学習部30は、最適な第1の可視光画像学習済みモデルを可視光画像学習済みモデル記憶部40から読み出して、画像変換部20により変換された可視光画像を教師データとして用いて最適な第1の可視光画像学習済みモデルを転移学習させて、第2の可視光画像学習済みモデルを生成する。
転移学習は、学習済みモデルの重みや係数などのパラメータをそのまま活用するため、教師データの類似度が高い学習済みモデルを選択して転移学習することにより、推論精度を向上させることができる。
図4は、さらに別の実施の形態に係る機械学習装置100の構成図である。図4の画像変換部20の構成と動作が図1の機械学習装置100の画像変換部20とは異なり、それ以外の構成は図1の機械学習装置100と同じであるから重複する説明は適宜省略する。
画像変換部20の生成部は、遠赤外線画像取得部10により取得された遠赤外線画像と、可視光画像学習済みモデル記憶部40に記憶された第1の可視光画像学習済みモデルの教師データとして用いられた可視光画像とを教師データとして用いて生成モデルを機械学習により生成する。画像変換部20は、第1の可視光画像学習済みモデルで使用した可視光画像を教師データとして用いて生成された生成モデルを用いて、遠赤外線画像を可視光画像に変換する。
遠赤外線画像取得部10により取得された遠赤外線画像と第1の可視光画像学習済みモデルの教師データとして用いられた可視光画像とは1対1に対応するペアではない。そのため、機械学習として敵対的生成ネットワークを利用する場合は、厳密なペアではない画像の組み合わせを訓練データセットとして用いて学習することのできるCycleGANを用いる必要がある。
物体検出用の第1の可視光画像学習済みモデルの教師データとして用いられた可視光画像を画像変換部20による生成モデルの機械学習に用いることにより、画像変換部20により遠赤外線画像から変換される可視光画像が物体検出モデルに適したものになる。
画像変換部20の生成部は、遠赤外線画像と可視光画像を教師データとして敵対的生成ネットワークで機械学習し、遠赤外線画像から可視光画像を生成する生成モデルを生成する。この可視光画像として、転移学習部30による転移学習で用いる第1の可視光画像学習済みモデルの教師データとして用いられた可視光画像を教師データYとして用いる。これにより画像変換部20により遠赤外線画像から変換された可視光画像Zは教師データYの特徴を反映したものとなり、可視光画像Zは、後段の転移学習部30の入力として有効な教師データZとなる。
転移学習は、学習済みモデルの重みや係数などのパラメータをそのまま活用するため、教師データYと教師データZの相関性が高ければ、転移学習済みモデルを高精度化することができ、推論精度を向上させることができる。
図5は、機械学習装置100によって、第1の可視光画像学習済みモデルを転移学習させて、第2の可視光画像学習済みモデルを生成する手順を説明するフローチャートである。
遠赤外線カメラにより撮影された夜間赤外線画像を取得する(S10)。
夜間遠赤外線画像と昼間可視光画像を教師データとして機械学習された生成モデルを用いて、取得された夜間遠赤外線画像を昼間可視光画像に変換する(S20)。
変換された昼間可視光画像を教師データとして用いて、物体検出用の第1の可視光画像学習済みモデルを転移学習させて、第2の可視光画像学習済みモデルを生成する(S30)。
図6は、遠赤外線撮像装置200によって、第1の可視光画像学習済みモデルを転移学習させて生成された第2の可視光画像学習済みモデルを用いて、可視光画像から物体を検出する手順を説明するフローチャートである。
遠赤外線撮像装置200により撮影された夜間遠赤外線画像を取得する(S50)。
夜間遠赤外線画像と昼間可視光画像を教師データとして機械学習された生成モデルを用いて、取得された夜間遠赤外線画像を昼間可視光画像に変換する(S60)。
第1の可視光画像学習済みモデルを転移学習させて生成された第2の可視光画像学習済みモデルを用いて、変換された昼間可視光画像から物体を検出する(S70)。
変換後の昼間可視光画像において、検出された物体を枠で囲むなどにより強調表示する(S80)。変換前の夜間遠赤外線画像において、検出された物体を枠で囲んで強調表示してもよい。
以上説明した機械学習装置100および遠赤外線撮像装置200の各種の処理は、CPUやメモリ等のハードウェアを用いた装置として実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバと送受信することも、地上波あるいは衛星ディジタル放送のデータ放送として送受信することも可能である。
以上述べたように、汎用の学習済み物体検出モデルは、可視光画像を教師データとして学習されているため、転移学習時に遠赤外線画像のような白黒画像を教師データとして用いて再学習すると、色情報の欠如のため、学習済みモデルにおいて色情報を反映していたパラメータがうまく適応されず、推論精度が低下する。それに対して、本発明の実施の形態によれば、遠赤外線画像を可視光画像に変換してから、可視光画像を教師データとして学習済みの汎用の物体検出モデルを転移学習させるため、学習済みモデルにおいて色情報を反映していたパラメータが損なわれることなく、変換後の可視光画像で再学習されるため、推論精度が向上する。
物体検出モデルは、遠赤外線画像よりも可視光画像の場合に検出精度が高い。また、汎用の学習済み物体検出モデルを利用する場合、可視光画像用の学習済み物体検出モデルは一般に公開されており入手しやすいが、遠赤外線画像用の学習済みモデルは入手困難である。本発明の実施の形態によれば、遠赤外線画像から変換された可視光画像を教師データとして汎用の可視光画像用の学習済み物体検出モデルを転移学習させるため、遠赤外線画像から変換された可視光画像において、画像の色情報を用いて人物や物体をより高い精度で検出することができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
10 遠赤外線画像取得部、 15 学習済みモデル選択部、 20 画像変換部、 30 転移学習部、 40 可視光画像学習済みモデル記憶部、 50 遠赤外線可視光化画像学習済みモデル記憶部、 60 遠赤外線画像取得部、 70 画像変換部、 80 物体検出部、 90 検出結果表示部、 100 機械学習装置、 200 遠赤外線撮像装置。

Claims (4)

  1. 遠赤外線画像を取得する遠赤外線画像取得部と、
    前記取得された遠赤外線画像を可視光画像に変換する画像変換部と、
    可視光画像を教師データとして学習された第1の可視光画像学習済みモデルを記憶する可視光画像学習済みモデル記憶部と、
    前記変換された可視光画像を教師データとして用いて前記第1の可視光画像学習済みモデルを転移学習させて、第2の可視光画像学習済みモデルを生成する転移学習部と
    複数の第1の可視光画像学習済みモデルの内、前記変換された可視光画像を各第1の可視光画像学習済みモデルに入力した場合の中間出力と、各第1の可視光画像学習済みモデルの教師データとして用いられた可視光画像を各第1の可視光画像学習済みモデルに入力した場合の中間出力との差分が最小である第1の可視光画像学習済みモデルを選択し、選択された第1の可視光画像学習済みモデルを可視光画像学習済みモデル記憶部に保存する学習済みモデル選択部とを含むことを特徴とする機械学習装置。
  2. 前記画像変換部は、遠赤外線画像と可視光画像を教師データとして機械学習し、遠赤外線画像から可視光画像を生成する生成モデルを生成する生成部を含み、前記取得された遠赤外線画像を前記生成モデルに入力して可視光画像に変換することを特徴とする請求項1に記載の機械学習装置。
  3. 前記生成部は、遠赤外線画像と前記第1の可視光画像学習済みモデルの教師データとして用いられた可視光画像を教師データとして敵対的生成ネットワークで機械学習し、遠赤外線画像から可視光画像を生成する前記生成モデルを生成することを特徴とする請求項に記載の機械学習装置。
  4. 遠赤外線画像を取得する遠赤外線画像取得部と、
    前記取得された遠赤外線画像を可視光画像に変換する画像変換部と、
    遠赤外線画像を可視光画像に変換した画像を教師データとして用いて第1の可視光画像学習済みモデルを転移学習させて生成された第2の可視光画像学習済みモデルを用いて、前記変換された可視光画像から物体を検出する物体検出部と
    複数の第1の可視光画像学習済みモデルの内、前記変換された可視光画像を各第1の可視光画像学習済みモデルに入力した場合の中間出力と、各第1の可視光画像学習済みモデルの教師データとして用いられた可視光画像を各第1の可視光画像学習済みモデルに入力した場合の中間出力との差分が最小である第1の可視光画像学習済みモデルを選択する学習済みモデル選択部とを含むことを特徴とする遠赤外線撮像装置。
JP2020142706A 2020-08-26 2020-08-26 機械学習装置及び遠赤外線撮像装置 Active JP7528637B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020142706A JP7528637B2 (ja) 2020-08-26 2020-08-26 機械学習装置及び遠赤外線撮像装置
PCT/JP2021/003567 WO2022044367A1 (ja) 2020-08-26 2021-02-01 機械学習装置及び遠赤外線撮像装置
US18/173,820 US20230196739A1 (en) 2020-08-26 2023-02-24 Machine learning device and far-infrared image capturing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020142706A JP7528637B2 (ja) 2020-08-26 2020-08-26 機械学習装置及び遠赤外線撮像装置

Publications (2)

Publication Number Publication Date
JP2022038285A JP2022038285A (ja) 2022-03-10
JP7528637B2 true JP7528637B2 (ja) 2024-08-06

Family

ID=80355045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020142706A Active JP7528637B2 (ja) 2020-08-26 2020-08-26 機械学習装置及び遠赤外線撮像装置

Country Status (3)

Country Link
US (1) US20230196739A1 (ja)
JP (1) JP7528637B2 (ja)
WO (1) WO2022044367A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024052970A1 (ja) * 2022-09-06 2024-03-14 三菱電機株式会社 学習装置及び学習システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046276A (ja) 2017-09-05 2019-03-22 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2019118043A (ja) 2017-12-27 2019-07-18 キヤノン株式会社 撮像装置、画像処理装置、制御方法およびプログラム
WO2019176235A1 (ja) 2018-03-12 2019-09-19 株式会社日立産業制御ソリューションズ 画像生成方法、画像生成装置及び画像生成システム
JP6663524B1 (ja) 2019-03-20 2020-03-11 株式会社 日立産業制御ソリューションズ 学習データ生成装置および学習データ生成方法
WO2020115981A1 (ja) 2018-12-03 2020-06-11 株式会社Jvcケンウッド 認識処理装置、認識処理方法及びプログラム
WO2020158217A1 (ja) 2019-02-01 2020-08-06 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP6742554B1 (ja) 2019-09-13 2020-08-19 三菱電機株式会社 情報処理装置およびそれを備えた電子機器

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046276A (ja) 2017-09-05 2019-03-22 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2019118043A (ja) 2017-12-27 2019-07-18 キヤノン株式会社 撮像装置、画像処理装置、制御方法およびプログラム
WO2019176235A1 (ja) 2018-03-12 2019-09-19 株式会社日立産業制御ソリューションズ 画像生成方法、画像生成装置及び画像生成システム
WO2020115981A1 (ja) 2018-12-03 2020-06-11 株式会社Jvcケンウッド 認識処理装置、認識処理方法及びプログラム
WO2020158217A1 (ja) 2019-02-01 2020-08-06 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP6663524B1 (ja) 2019-03-20 2020-03-11 株式会社 日立産業制御ソリューションズ 学習データ生成装置および学習データ生成方法
JP6742554B1 (ja) 2019-09-13 2020-08-19 三菱電機株式会社 情報処理装置およびそれを備えた電子機器

Also Published As

Publication number Publication date
WO2022044367A1 (ja) 2022-03-03
US20230196739A1 (en) 2023-06-22
JP2022038285A (ja) 2022-03-10

Similar Documents

Publication Publication Date Title
Liao et al. DR-GAN: Automatic radial distortion rectification using conditional GAN in real-time
KR102385463B1 (ko) 얼굴 특징 추출 모델 학습 방법, 얼굴 특징 추출 방법, 장치, 디바이스 및 저장 매체
Nazir et al. SemAttNet: Toward attention-based semantic aware guided depth completion
WO2021077140A2 (en) Systems and methods for prior knowledge transfer for image inpainting
CN111383307A (zh) 基于人像的视频生成方法及设备、存储介质
JP2022513858A (ja) 顔画像生成用のデータ処理方法、データ処理機器、コンピュータプログラム、及びコンピュータ機器
CN111401101A (zh) 基于人像的视频生成系统
CN112651358A (zh) 一种目标检测方法、装置、网络摄像机及存储介质
JP2019200671A (ja) 学習装置、学習方法、プログラム、データ生成方法及び識別装置
CN110889809A (zh) 图像处理方法及装置、电子设备、存储介质
US20230196739A1 (en) Machine learning device and far-infrared image capturing device
KR102537207B1 (ko) 머신 러닝에 기반한 이미지 처리 방법 및 장치
TWI805282B (zh) 使用焦點資訊深度估計的方法和裝置
CN113658091A (zh) 一种图像评价方法、存储介质及终端设备
US20230199281A1 (en) Machine learning device, image processing device, machine learning method, and machine learning program
JPWO2020194378A1 (ja) 画像処理システム、画像処理装置、画像処理方法、及び画像処理プログラム
Vayadande et al. Lipreadnet: A deep learning approach to lip reading
JP7437918B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN117671371A (zh) 一种基于代理注意力的视觉任务处理方法和系统
WO2018211602A1 (ja) 学習装置、推定装置、学習方法及びプログラム
CN113920455B (zh) 一种基于深度神经网络的夜间视频着色方法
JPWO2019193899A1 (ja) 演算装置の学習方法、学習装置、学習プログラム、および学習済みモデル
KR102563522B1 (ko) 사용자의 얼굴을 인식하는 장치, 방법 및 컴퓨터 프로그램
CN117196957B (zh) 基于人工智能的图像分辨率转换方法及装置
JP2022187566A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240708

R150 Certificate of patent or registration of utility model

Ref document number: 7528637

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150