JP7075674B2 - 学習方法、コンピュータプログラム、分類器、生成器、及び処理システム - Google Patents
学習方法、コンピュータプログラム、分類器、生成器、及び処理システム Download PDFInfo
- Publication number
- JP7075674B2 JP7075674B2 JP2020025344A JP2020025344A JP7075674B2 JP 7075674 B2 JP7075674 B2 JP 7075674B2 JP 2020025344 A JP2020025344 A JP 2020025344A JP 2020025344 A JP2020025344 A JP 2020025344A JP 7075674 B2 JP7075674 B2 JP 7075674B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- data
- machine learning
- learning model
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
図1は、本実施の形態における画像処理装置1の構成を示すブロック図であり、図2は画像処理装置1の機能ブロック図である。画像処理装置1は、制御部10、画像処理部11、記憶部12、通信部13、表示部14及び操作部15を備える。なお画像処理装置1及び画像処理装置1における動作について以下では、1台のサーバコンピュータとして説明するが、複数のコンピュータによって処理を分散するようにして構成されてもよい。
図3は、機械学習モデルとしてニューラルネットワークを用いた場合の分類器112及び生成器113の概要を示す説明図であり、図4は、学習処理手順の一例を示すフローチャートである。図3及び図4を参照して学習処理実行部101による学習処理について説明する。図3に示すように、生成器113はGANによって学習される。このため図3に示すように生成器113の出力を入力するように分類器112及び生成器113が接続されている。GANによる学習とは生成器113で生成した生成データと教師データとを分類器112に入力し、例えば、分類器112における判定誤差が最小となるよう分類器112及び生成器113の重み係数等のパラメータを設定することで行われる。
ステップS4における「変更を加えた画像データ」は、人間の視覚上判別しにくい成分を欠損させる処理を画像に行なうフィルタ、及び視覚上判別しにくいノイズ成分を付加する処理を画像に行なうフィルタの両方、またはいずれか一方のフィルタによって取得される。分類器112の学習用の画像データを作成するフィルタの一例として、デジタル画像の圧縮アルゴリズムを適用する。フィルタは例えば、JPEG(Joint Photographic Experts Group)におけるDCT(Discrete Cosine Transform ;離散コサイン変換)、またはWavelet変換とすることが可能である。
離散コサイン変換やWavelet変換を用いると、人間の視覚上判別しにくい成分を限定して除去することができる。例えば、離散コサイン変換を用いた場合はデータを直交変換した結果に対し、空間周波数の高周波成分を粗く量子化すればよく、またWavelet変換を用いた場合は、データを直交変換して分割された帯域のうち高周波帯域の小さい成分をカットすればよい。このように離散コサイン変換を行った後の量子化レベルやWavelet変換を行った後の帯域フィルタを制御し、さらにこれらの変換出力を逆離散コサイン変換や逆Wavelet変換を用いて処理することで、視覚上判別しにくい成分が削減された画像データを得る。
次に視覚上判別しにくいノイズ成分を付加する処理について説明する。図10は視覚上判別しにくいノイズ成分を付加する処理のうち、DCT変換を利用した場合の処理を説明するための図、図11は図10に示したフローを用いて視覚上判別しにくいノイズ成分を画像データに付加した場合の画素値やDCT値等のデータの一例を表した図であり、後述するノイズ強度kは0.1としている。なお、図11には図10に対応したステップ番号を各データ欄に記載する。
制御部10は学習処理実行部101の機能により、ステップS3及びステップS5により得られるラベル付きの画像データ群(分類器用学習データ)を分類器112に与え(ステップS6)、分類器112の損失関数を算出して学習させる(ステップS7)。これにより分類器112は、上述したように、予め用意されている画像データについては変更を加えた画像データを所定の割合で含む学習用の画像データ群を用いて学習される。
続いて制御部10は、学習処理実行部101の機能により、ステップS7の後の分類器112を含むネットワークの内の生成器113に、種となるデータを与える(ステップS8)。
生成器113の学習では、どのようなデータが入力されて、どのようなデータが得られるかに応じて教師データを設定する必要がある。例えば、写真データを種データとして生成器113に入力し、該生成器113では入力した写真データから漫画(カートゥーン)データを生成する場合、“写真”という特徴をもったデータと、“漫画”という特徴を持ったデータを教師データとして利用してもよい。
10 制御部
101 学習処理実行部
102 画像処理実行部
11 画像処理部
112 分類器
113 生成器
12 記憶部
1P 画像処理プログラム
121L 機械学習ライブラリ
122L 分類器ライブラリ
123L 生成器ライブラリ
DG 画像データ群
TDG 教師画像データ群
FTDG フィルタ処理を施した教師画像データ群
TDF、DF フィルタ
SW スイッチ
Claims (14)
- 画像データを入力もしくは出力する機械学習モデルを、視覚上判別しにくい成分を欠損させる処理を施した画像データ及び視覚に合わせて重み付けされたノイズ成分を付加する処理を施した画像データの両方、またはいずれか一方を所定の割合で含む学習データで学習する、学習方法。
- 画像データを出力する機械学習モデルの損失関数を、前記機械学習モデルから出力される画像データまたは前記機械学習モデルへ与える画像データのうち、所定の割合の画像データに視覚上判別しにくい成分を欠損させる処理を施した画像データと、視覚に合わせて重み付けされたノイズ成分を付加する処理を施した画像データの両方、またはいずれか一方を所定の割合で含む学習データから算出する
ことを特徴とする請求項1記載の学習方法。 - 画像データが入力された場合に、前記画像データの分類を出力するように定義された機械学習モデルに、
視覚上判別しにくい成分を欠損させる処理を施した画像データと、視覚に合わせて重み付けされたノイズ成分を付加する処理を施した画像データの両方、またはいずれか一方を所定の割合で含む分類器用学習データを与え、
前記機械学習モデルを分類器として学習する、学習方法。 - 画像データが入力された場合に、前記画像データの分類を出力するように定義された分類用の機械学習モデルに、視覚上判別しにくい成分を欠損させる処理を施した画像データと、視覚に合わせて重み付けされたノイズ成分を付加する処理を施した画像データの両方、またはいずれか一方を所定の割合で含む生成器用学習データを与え、
前記分類用の機械学習モデルの出力に基づいて、任意のデータが入力された場合に特定の画像データを出力するように定義された画像生成用の機械学習モデルを生成器として学習する、学習方法。 - 任意のデータが入力された場合に、特定の画像データを出力するように定義された画像生成用の機械学習モデルと、
前記画像生成用の機械学習モデルから出力された画像データまたは他の画像データが入力された場合に、前記画像データの分類を出力するように定義された分類用の機械学習モデルとを用い、
視覚上判別しにくい成分を欠損させる処理を施した画像データと、視覚に合わせて重み付けされたノイズ成分を付加する処理を施した画像データの両方、またはいずれか一方を所定の割合で含む分類器用学習データおよび/または生成器用学習データを用い、
前記分類用の機械学習モデル及び/または前記画像生成用の機械学習モデルをGAN(Generative Adversarial Networks)によって学習する、学習方法。 - 任意のデータが入力された場合に、特定の画像データを出力するように定義された画像生成用の機械学習モデルと、
前記画像生成用の機械学習モデルから出力された画像データまたは他の画像データが入力された場合に、前記画像データの分類を出力するように定義された分類用の機械学習モデルとを用い、
視覚上判別しにくい成分を欠損させる処理を施した画像データと、視覚上判別しにくいノイズ成分を付加する処理を施した画像データの両方、またはいずれか一方を所定の割合で含む分類器用学習データおよび/または生成器用学習データを用い、
前記分類用の機械学習モデル及び/または前記画像生成用の機械学習モデルをGAN(Generative Adversarial Networks)によって学習する、学習方法であって、
前記画像生成用の機械学習モデルから出力された画像データと前記他の画像データの両方、またはいずれか一方の画像データのうち、所定の割合の画像データに、視覚上判別しにくい成分を欠損させる処理を施した画像データ及び/または視覚上判別しにくいノイズ成分を付加する処理を施した画像データである分類器用学習データを前記分類用の機械学習モデルに与えて該分類用の機械学習モデルの損失関数を算出し、
前記画像生成用の機械学習モデルから出力された画像データに変更を加えない生成器用学習データを前記分類用の機械学習モデルに与えて画像生成用の機械学習モデルの損失関数を算出する
ことを特徴とする学習方法。 - 任意のデータが入力された場合に、特定の画像データを出力するように定義された画像生成用の機械学習モデルと、
前記画像生成用の機械学習モデルから出力された画像データまたは他の画像データが入力された場合に、前記画像データの分類を出力するように定義された分類用の機械学習モデルとを用い、
視覚上判別しにくい成分を欠損させる処理を施した画像データと、視覚上判別しにくいノイズ成分を付加する処理を施した画像データの両方、またはいずれか一方を所定の割合で含む分類器用学習データおよび/または生成器用学習データを用い、
前記分類用の機械学習モデル及び/または前記画像生成用の機械学習モデルをGAN(Generative Adversarial Networks)によって学習する、学習方法であって、
前記画像生成用の機械学習モデルから出力された画像データと前記他の画像データの両方、またはいずれか一方の画像データのうち、所定の割合の画像データに、視覚上判別しにくい成分を欠損させる処理を施した画像データ及び/または視覚上判別しにくいノイズ成分を付加する処理を施した画像データである生成器用学習データを前記分類用の機械学習モデルに与えて画像生成用の機械学習モデルの損失関数を算出し、
前記画像生成用の機械学習モデルから出力された画像データに変更を加えない生成器用学習データを前記分類用の機械学習モデルに与えて画像生成用の機械学習モデルの損失関数を算出する
ことを特徴とする学習方法。 - 画像データを入力もしくは出力する機械学習モデルを、視覚上判別しにくい成分を欠損させる処理を施した画像データ及び視覚上判別しにくいノイズ成分を付加する処理を施した画像データの両方、またはいずれか一方を所定の割合で含む学習データで学習する、学習方法であって、
視覚上判別しにくい成分を欠損させる処理を施した画像データと、視覚上判別しにくいノイズ成分を付加する処理を施した画像データの両方、またはいずれか一方は、より視覚上判別しにくい成分から優先的に欠損させて、または、より視覚上判別しにくいノイズ成分から優先的に付加して作成する
ことを特徴とする学習方法。 - コンピュータに、
画像データが入力された場合に、前記画像データに基づく画像の分類を出力するように定義された分類用の機械学習モデルの定義データを記憶し、
前記定義データに基づく分類用の機械学習モデルに、視覚上判別しにくい成分を欠損させる処理を施した画像データと、視覚に合わせて重み付けされたノイズ成分を付加する処理を施した画像データの両方、またはいずれか一方を所定の割合で含む分類器用学習用データを与え、前記分類用の機械学習モデルを分類器として学習する
処理を実行させるコンピュータプログラム。 - コンピュータに、
任意のデータが入力された場合に、特定の画像データを出力するように定義された画像生成用の機械学習モデルの定義データと、
前記画像生成用の機械学習モデルから出力された画像データまたは他の画像データが入力された場合に、前記画像データに基づく画像の分類を出力するように定義された分類用の機械学習モデルの定義データとを記憶し、
前記生成用の機械学習モデルから出力された画像データまたは前記分類用の機械学習モデルへ与える画像データのうち、所定の割合の画像データに、視覚上判別しにくい成分を欠損させる処理と、視覚に合わせて重み付けされたノイズ成分を付加する処理の両方、またはいずれか一方を施し、前記分類用の機械学習モデル及び前記画像生成用の機械学習モデルをGANによって学習する
処理を実行させるコンピュータプログラム。 - 画像データを入力する入力部と、
前記画像データに基づく画像の分類を出力する出力部と、
機械学習モデルを用いて前記画像データに対して所定の処理を実行する処理実行部と、
を備え、
視覚上判別しにくい成分を欠損させる処理を施した画像データと、視覚に合わせて重み付けされたノイズ成分を付加する処理を施した画像データの両方、またはいずれか一方を所定の割合で含む分類器用学習データと、該分類器用学習データに含まれる画像データの分類ラベルとを含む教師データによって学習され、
コンピュータに、入力された画像データの分類を出力する分類器。 - 任意のデータを入力する入力部と、
前記データに基づいて生成される画像の画像データを出力する出力部と、
機械学習モデルを用いて前記データに対して所定の処理を実行する処理実行部と、
を備え、
前記出力部から出力された画像データまたは前記機械学習モデルへ与える画像データのうち、所定の割合の画像データに、視覚上判別しにくい成分を欠損させる処理を施した画像データと、視覚に合わせて重み付けされたノイズ成分を付加する処理を施した画像データの両方、またはいずれか一方を含む生成器用学習データを用いて学習され、
コンピュータに、入力された任意のデータに基づく画像データを出力する生成器。 - 請求項11記載の分類器、または請求項12記載の生成器へ、入力データを送信し、前記分類器、または生成器から出力されたデータを受信して利用する利用装置を備える処理システム。
- 前記利用装置は、テレビジョン受信機、表示装置、撮像装置、または表示部及び通信部を備える情報処理装置である請求項13に記載の処理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/902,049 US11842283B2 (en) | 2019-06-17 | 2020-06-15 | Learning method, computer program, classifier, generator, and processing system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019112371 | 2019-06-17 | ||
JP2019112371 | 2019-06-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020205030A JP2020205030A (ja) | 2020-12-24 |
JP7075674B2 true JP7075674B2 (ja) | 2022-05-26 |
Family
ID=73837457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020025344A Active JP7075674B2 (ja) | 2019-06-17 | 2020-02-18 | 学習方法、コンピュータプログラム、分類器、生成器、及び処理システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7075674B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023176348A (ja) * | 2022-05-31 | 2023-12-13 | 浜松ホトニクス株式会社 | 画像処理装置および画像処理方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170316281A1 (en) | 2016-04-28 | 2017-11-02 | Microsoft Technology Licensing, Llc | Neural network image classifier |
JP2018137275A (ja) | 2017-02-20 | 2018-08-30 | 株式会社日立ハイテクノロジーズ | 試料観察装置および試料観察方法 |
JP2019504659A (ja) | 2015-11-29 | 2019-02-21 | アーテリーズ インコーポレイテッド | 自動化された心臓ボリュームセグメンテーション |
US20190138838A1 (en) | 2017-11-09 | 2019-05-09 | Boe Technology Group Co., Ltd. | Image processing method and processing device |
-
2020
- 2020-02-18 JP JP2020025344A patent/JP7075674B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019504659A (ja) | 2015-11-29 | 2019-02-21 | アーテリーズ インコーポレイテッド | 自動化された心臓ボリュームセグメンテーション |
US20170316281A1 (en) | 2016-04-28 | 2017-11-02 | Microsoft Technology Licensing, Llc | Neural network image classifier |
JP2018137275A (ja) | 2017-02-20 | 2018-08-30 | 株式会社日立ハイテクノロジーズ | 試料観察装置および試料観察方法 |
US20190138838A1 (en) | 2017-11-09 | 2019-05-09 | Boe Technology Group Co., Ltd. | Image processing method and processing device |
Non-Patent Citations (2)
Title |
---|
Kaichen Yang;Jianqing Liu;Chi Zhang;Yuguang Fang,Adversarial Examples Against the Deep Learning Based Network Intrusion Detection Systems,MILCOM 2018 - 2018 IEEE Military Communications Conference (MILCOM),IEEE,2018年10月29日,559-564,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8599759 |
訓練画像の色量子化を用いた深層ニューラルネットワークの敵対的サンプル耐性の強化,電子情報通信学会技術研究報告 Vol.118 No.494 EMM2018-109,2019年03月13日 |
Also Published As
Publication number | Publication date |
---|---|
JP2020205030A (ja) | 2020-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11620480B2 (en) | Learning method, computer program, classifier, and generator | |
US11257189B2 (en) | Electronic apparatus and image processing method thereof | |
US20030053717A1 (en) | Image enhancement and data loss recovery using wavelet transforms | |
Singla et al. | A review on Single Image Super Resolution techniques using generative adversarial network | |
CN116664450A (zh) | 基于扩散模型的图像增强方法、装置、设备及存储介质 | |
CN114830168B (zh) | 图像重建方法、电子设备和计算机可读存储介质 | |
JP7075674B2 (ja) | 学習方法、コンピュータプログラム、分類器、生成器、及び処理システム | |
Sheikh | Image quality assessment using natural scene statistics | |
CN113066033A (zh) | 一种彩色图像的多阶段去噪系统及方法 | |
JP5404580B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラムを記録した記録媒体 | |
KR101707337B1 (ko) | 영상 디노이징을 위한 다중해상도 nlm 필터링 방법 | |
Ponomarenko et al. | Sharpness metric for no-reference image visual quality assessment | |
US11842283B2 (en) | Learning method, computer program, classifier, generator, and processing system | |
KR101464743B1 (ko) | 카메라 모듈에서 신호 의존적인 잡음 추정 장치 및 방법 | |
CN112259086A (zh) | 一种基于语谱图合成的语音转换方法 | |
JP6347028B1 (ja) | アップサンプル装置、コンピュータプログラム、コンピュータシステム、機器、及びアップサンプル方法 | |
WO2018123202A1 (ja) | 動画像処理装置、表示装置、動画像処理方法、および制御プログラム | |
Harine et al. | Fundus image enhancement using hybrid deep learning approaches | |
JP2007251690A (ja) | 画像処理装置および方法、学習装置および方法、並びにプログラム | |
JP7520479B1 (ja) | 学習用データ生成装置 | |
Deepthi et al. | Improved Generative Adversarial Networks For Better Compression Quality And Structural Similarity | |
CN107481212B (zh) | 一种基于小波的感知图像融合方法 | |
Cloramidina et al. | High Dynamic Range (HDR) Image Quality Assessment: A Survey | |
CN117274118A (zh) | 图像处理、网络训练方法、装置、电子设备及存储介质 | |
CN116962718A (zh) | 中间帧确定方法、装置、设备、程序产品及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200218 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7075674 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |