WO2023032374A1 - データ生成方法、学習方法、撮像装置、及びプログラム - Google Patents

データ生成方法、学習方法、撮像装置、及びプログラム Download PDF

Info

Publication number
WO2023032374A1
WO2023032374A1 PCT/JP2022/022229 JP2022022229W WO2023032374A1 WO 2023032374 A1 WO2023032374 A1 WO 2023032374A1 JP 2022022229 W JP2022022229 W JP 2022022229W WO 2023032374 A1 WO2023032374 A1 WO 2023032374A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
color
image
image data
processing
Prior art date
Application number
PCT/JP2022/022229
Other languages
English (en)
French (fr)
Inventor
祐也 西尾
俊輝 小林
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN202280050879.3A priority Critical patent/CN117769838A/zh
Publication of WO2023032374A1 publication Critical patent/WO2023032374A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals

Definitions

  • the learning execution unit 84 performs the learning process of inputting the second image data 104 to the CNN 110, calculating the error 112, calculating a plurality of adjustment values 114, and adjusting a plurality of optimization variables in the CNN 110 using a plurality of teacher data. 108 is repeated. That is, the learning execution unit 84 uses a plurality of adjustment values 114 calculated so as to minimize the error 112 for each of the plurality of second image data 104 included in the plurality of teacher data 108, and calculates a plurality of CNN 110 is optimized by adjusting optimization variables.
  • a trained model 116 is generated by optimizing the CNN 110 in this way.
  • the trained model 116 is stored in a default storage device by the learning executing section 84 .
  • Examples of the default storage device include the NVM 72 of the information processing device 14 (see FIG. 3), the NVM 50 of the imaging device 12, and the like.
  • the trained model 116 stored in the predetermined storage device is used by the imaging device 12 for AI-based subject detection processing, for example.
  • the color chart information 94 the second RAM data 92 obtained by capturing the color chart 90 with the reference imaging device 60 is subjected to the first image processing 86.
  • Information obtained by performing the second image processing 86A corresponding to a part of the processing is used (see FIG. 6). Since the color chart information 94 is information that serves as a reference for generating the first information 96 using the third image processing 86B, using a part of the image processing of the first image processing 86 corresponding to all image processing, preferably created.
  • a plurality of first image data sets based on a plurality of first image data 20 generated by mutually different imaging devices are generated.
  • the two-image data 104 by bringing the color of each image represented by each of the second image data 104 closer to the reference color, color variations between image capturing apparatuses are reduced. Therefore, the second image data 104 are suitable for AI teaching data because the color reference is unified compared to the case where the contents of image processing of different imaging devices are not considered at all. Therefore, in the information processing system 10 according to this embodiment, machine learning is performed using the teacher data 108 including the second image data 104 . Therefore, according to this configuration, it is possible to obtain a trained model 116 capable of achieving highly accurate inference compared to the case where machine learning is not performed using teacher data including the second image data 104 .
  • color chart information 94 is generated by capturing an image of the color chart 90 with a reference imaging device 60 having an image sensor having the same spectral characteristics as the image sensor 24 of the imaging device 12 . You may do so.
  • the color chart information 94 thus obtained is information generated based on the spectral characteristics of the imaging device.
  • the processor 48 externally acquires an imaging device spectral characteristic 118, which is the spectral characteristic of the imaging device 12, and a color chart spectral characteristic 120, which is the spectral characteristic of the color chart 90.
  • Color patch information 122 may be generated based on device spectral characteristics 118 and color patch spectral characteristics 120 .

Abstract

データ生成方法は、撮像装置によって被写体が撮像されることで得られ、機械学習に用いられる画像データであり、かつ、付帯情報を有する第1画像データを生成する。データ生成方法は、撮像装置が第1画像処理を行うことで第1画像データを生成する第1生成工程と、付帯情報に含まれる情報として、第1画像処理に関する画像処理情報に基づく第1情報を生成する第2生成工程と、を備える。

Description

データ生成方法、学習方法、撮像装置、及びプログラム
 本開示の技術は、データ生成方法、学習方法、撮像装置、及びプログラムに関する。
 特開2018-152804号公報には、カラーチャートを撮影して得た画像から抽出したRGBデータに対して、3次元RGB色空間における3次元幾何学変換を、誤差の共分散行列を考慮した統計的に最適な方法により推定する方法が開示されている。また、文献1には、複数の異なる自由度の幾何学変換モデルの推定結果から、幾何学的モデル選択によりモデルの複雑さと当てはまりのよさをバランスする最適なモデルを決定し、選択された3次元幾何学変換による色補正処理を3次元ルックアップテーブル補間により計算することにより、カラーチャートを含むシーンを撮影した異なる機種の様々なカメラ間のカラーマッチングを行う方法が開示されている。
 特開平9-284581号公報には、第1~第4の変換手段及び出力手段を備えた色シミュレーション装置が開示されている。第1の変換手段は、被写体の各色を光源に依存しない分光反射率分布または分光透過率分布を多変量解析することにより得られる少なくとも3つの特徴パラメータと特徴パラメータ係数で表現する手段である。また、第1の変換手段は、入力された色情報値を、該色情報値に対応する少なくとも3つの特徴パラメータ係数に変換する。第2の変換手段は、第1の変換手段からの少なくとも3つの特徴パラメータ係数を、多変量解析により得られた少なくとも3つの特徴パラメータ信号により分光反射率信号若しくは分光透過率信号に変換する。第3の変換手段は、第2の変換手段で変換された分光反射率分布または分光透過率分布を、指定された光源の分光情報に基づいて、色彩値信号に変換する。第4の変換手段は、複数のニューラルネットワークからなり、準備時において、あらかじめプリンタから出力された色分解値が既知の標準色見本の光源別の色彩値を入力として与え、標準色見本の色分解値を教師信号として与え、ニューラルネットワークの学習を行なわせる機能と、変換時には前記第3の変換手段からの光源の情報が既知の色彩値を学習済みの光源別のネットワークに選択的に入力することにより、色分解値を出力する機能とを有する。出力手段は、第4の変換手段で変換された色分解値により、現画像を出力する。
 本開示の技術に係る一つの実施形態は、画像処理が行われた画像データにより示される画像の画質について、画像処理に起因するばらつきを軽減することができるデータ生成方法、学習方法、撮像装置、及びプログラムを提供する。
 本開示の技術に係る第1の態様は、撮像装置によって被写体が撮像されることで得られ、機械学習に用いられる画像データであり、かつ、付帯情報を有する第1画像データを生成するデータ生成方法であって、撮像装置が第1画像処理を行うことで第1画像データを生成する第1生成工程と、付帯情報に含まれる情報として、第1画像処理に関する画像処理情報に基づく第1情報を生成する第2生成工程と、を備えるデータ生成方法である。
 本開示の技術に係る第2の態様は、イメージセンサと、プロセッサと、を備え、プロセッサが、イメージセンサによって被写体が撮像されることで生成された撮像信号に対して第1画像処理を行うことで、機械学習に用いられる第1画像データを生成し、第1画像データが有する付帯情報に含まれる情報として、第1画像処理に関する画像処理情報に基づく第1情報を生成する撮像装置である。
 本開示の技術に係る第3の態様は、撮像装置によって被写体が撮像されることで得られ、機械学習に用いられる画像データであり、かつ、付帯情報を有する第1画像データを生成するデータ生成処理をコンピュータに実行させるためのプログラムであって、データ生成処理が、撮像装置が第1画像処理を行うことで第1画像データを生成すること、及び、付帯情報に含まれる情報として、第1画像処理に関する画像処理情報に基づく第1情報を生成すること、を含むプログラムである。
情報処理システムの全体の構成の一例を示す概略構成図である。 撮像装置の電気系のハードウェア構成の一例を示す概略構成図である。 情報処理装置の電気系のハードウェア構成の一例を示す概略構成図である。 第1生成部の処理内容の一例を示す概念図である。 第2画像処理及び第3画像処理の処理内容の一例を示す概念図である。 第2生成部の処理内容の一例を示す概念図である。 第1生成部及び演算部の処理内容の一例を示す概念図である。 教師データ生成部の処理内容の一例を示す概念図である。 学習実行部の処理内容の一例を示す概念図である。 データ生成処理の流れの一例を示すフローチャートである。 機械学習処理の流れの一例を示すフローチャートである。 図6に示す色票よりも色パッチの種類が多い色票を用いた場合の第2生成部の処理内容の一例を示す概念図である。 図7に示す色票よりも色パッチの種類が多い色票を用いた場合の演算部の処理内容の一例を示す概念図である。 撮像装置で用いられる色票情報と情報処理装置で用いられる基準色情報とが同じ情報である場合の撮像装置及び情報処理装置での処理内容の一例を示す概念図である。 色票情報の生成方法の変形例を示す概念図である。
 以下、添付図面に従って本開示の技術に係るデータ生成方法、学習方法、撮像装置、及びプログラムの実施形態の一例について説明する。
 一例として図1に示すように、情報処理システム10は、撮像装置12及び情報処理装置14を備えている。撮像装置12及び情報処理装置14は、互いに通信可能に接続されている。なお、本実施形態において、撮像装置12は、本開示の技術に係る「撮像装置」の一例である。
 撮像装置12は、被写体16を撮像することで、付帯情報18を有する第1画像データ20を生成する。第1画像データ20は、機械学習に用いられる画像データである。機械学習は、例えば、情報処理装置14によって実行される。詳しくは後述するが、付帯情報18は、第1画像データ20に関するメタデータである。
 撮像装置12は、撮像装置本体21及び交換レンズ22を備えている。交換レンズ22は、撮像装置本体21に交換可能に装着される。図1に示す例では、撮像装置12の一例として、レンズ交換式のデジタルカメラが示されている。
 但し、これは、あくまでも一例に過ぎず、レンズ固定式のデジタルカメラであってもよいし、スマートデバイス、ウェアラブル端末、細胞観察装置、眼科観察装置、又は外科顕微鏡等の各種の電子機器に搭載されるデジタルカメラであってもよい。
 撮像装置本体21には、イメージセンサ24が設けられている。イメージセンサ24は、本開示の技術に係る「イメージセンサ」の一例である。イメージセンサ24は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。
 撮像装置本体21の上面にはレリーズボタン25が設けられている。ユーザによってレリーズボタン25が操作されると、イメージセンサ24は、被写体16を含む撮像範囲を撮像する。交換レンズ22が撮像装置本体21に装着された場合に、被写体16を示す被写体光は、交換レンズ22を透過してイメージセンサ24に結像され、被写体16の画像を示すアナログ画像データ56(図2参照)がイメージセンサ24によって生成される。
 本実施形態では、イメージセンサ24としてCMOSイメージセンサを例示しているが、本開示の技術はこれに限定されず、例えば、イメージセンサ24がCCD(Charge Coupled Device)イメージセンサ等の他種類のイメージセンサであっても本開示の技術は成立する。
 情報処理装置14は、機械学習に用いられる装置である。情報処理装置14は、コンピュータ26、受付装置28、及びディスプレイ30を備えており、アノテータ32によって使用される。アノテータ32とは、与えられたデータに対して機械学習用のアノテーションを付与する作業者(すなわち、ラベリングを行う作業者)を指す。
 コンピュータ26には、撮像装置本体21が通信可能に接続されている。図1に示す例では、撮像装置本体21及びコンピュータ26が通信ケーブル34を介して接続されている。なお、図1に示す例では、撮像装置本体21とコンピュータ26とが有線接続されている形態例が示されているが、本開示の技術はこれに限定されず、撮像装置本体21とコンピュータ26との接続は、無線接続であってもよい。
 コンピュータ26には、受付装置28が接続されている。受付装置28は、キーボード36及びマウス38等を有しており、アノテータ32からの指示を受け付ける。
 一例として図2に示すように、撮像装置12は、イメージセンサ24の他に、コンピュータ40、UI(User Interface)系装置42、A/D(Analog/Digital)変換器44、及び外部I/F(Interface)46を備えている。
 コンピュータ40は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ40は、プロセッサ48、NVM(Non-volatile memory)50、及びRAM(Random Access Memory)52を備えている。
 プロセッサ48、NVM50、及びRAM52は、バス54に接続されている。また、イメージセンサ24、UI系装置42、A/D変換器44、及び外部I/F46も、バス54に接続されている。
 プロセッサ48は、本開示の技術に係る「プロセッサ」の一例である。プロセッサ48は、撮像装置12の全体を制御する。プロセッサ48は、例えば、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)を含む処理装置であり、GPUは、CPUの制御下で動作し、画像に関する処理の実行を担う。
 ここでは、プロセッサ48の一例としてCPU及びGPUを含む処理装置を挙げているが、これはあくまでも一例に過ぎず、プロセッサ48は、GPU機能を統合した1つ以上のCPUであってもよいし、GPU機能を統合していない1つ以上のCPUであってもよい。
 NVM50は、各種プログラム及び各種パラメータ等を記憶する不揮発性の記憶装置である。NVM50としては、例えば、フラッシュメモリ(例えば、EEPROM(Electrically Erasable and Programmable Read Only Memory))が挙げられる。RAM52は、一時的に情報が記憶されるメモリであり、プロセッサ48によってワークメモリとして用いられる。RAM52としては、例えば、DRAM(Dynamic Random Access Memory)又はSRAM(Static Random Access Memory)等が挙げられる。
 UI系装置42は、ユーザからの指示を示す指示信号を受け付ける受付機能と、ユーザに対して情報を提示する提示機能とを有する装置である。受付機能は、例えば、タッチパネル及びハードキー(例えば、レリーズボタン25及びメニュー選択キー)等によって実現される。提示機能は、例えば、ディスプレイ及びスピーカ等によって実現される。
 イメージセンサ24は、プロセッサ48の制御下で、被写体16(図1参照)を撮像する。イメージセンサ24には、A/D変換器(図示省略)が組み込まれており、イメージセンサ24によって撮像されることによって得られたアナログ画像データをデジタル化することで、RAWデータである第1RAW(Raw image format)データ58を生成する。第1RAWデータ58は、R(赤)画素、G(緑)画素、及びB(青)画素がモザイク状に配列された画像を示すデータである。プロセッサ48は、A/D変換器44から第1RAWデータ58を取得し、取得した第1RAWデータ58に対して、デモザイク処理等を含む第1画像処理86(図4及び図5参照)を行う。なお、第1RAWデータ58は、本開示の技術に係る「撮像信号」の一例である。
 外部I/F46は、撮像装置12の外部に存在する装置(以下、「外部装置」とも称する)とプロセッサ48との間の各種情報の授受を司る。外部I/F46の一例としては、USB(Universal Serial Bus)インタフェースが挙げられる。外部I/F46には、外部装置として、情報処理装置14、基準撮像装置60、スマートデバイス、パーソナル・コンピュータ、サーバ、USBメモリ、メモリカード、又はプリンタ等が直接的又は間接的に接続される。基準撮像装置60の一例としては、例えば、撮像装置12に相当する機能を有する撮像装置が挙げられる。
 ところで、撮像装置12を含む複数の撮像装置(例えば、異なるメーカで製造された複数の撮像装置)の各々によって被写体16(図1参照)が撮像されることで得られる画像データにより示される画像の画質は、撮像装置間で同種の画像処理が行われたとしても、各撮像装置で行われる画像処理に対して用いられるパラメータの違い等に起因して、ばらつくことがある。例えば、ホワイトバランス補正処理で用いられるホワイトバランスゲイン(以下、「WBゲイン」とも称する)が撮像装置間で異なると、各撮像装置によって被写体16が撮像されることで得られる各画像の色味が異なる。また、各画像の色味が異なるだけでなく、撮像装置の画像処理に用いられる各種のパラメータ次第で、被写体16(図1参照)の本来の色味とは全く異なる色味の画像が得られてしまうこともある。
 そこで、このような事情に鑑み、撮像装置12は、プロセッサ48によってデータ生成処理(図4~図7及び図10参照)が行われるように構成されている。データ生成処理は、プロセッサ48がデータ生成処理プログラム62に従って第1生成部64及び第2生成部66として動作することで実現される。データ生成処理プログラム62は、本開示の技術に係る「プログラム」の一例である。
 図2に示す例では、NVM50にデータ生成処理プログラム62が記憶されている。プロセッサ48は、NVM62からデータ生成処理プログラム62を読み出し、読み出したデータ生成処理プログラム62をRAM52上で実行する。プロセッサ48は、RAM52上で実行するデータ生成処理プログラム62に従って第1生成部64及び第2生成部66として動作することでデータ生成処理を行う。
 一例として図3に示すように、情報処理装置14は、コンピュータ26、受付装置28、及びディスプレイ30の他、外部I/F68を備えている。
 コンピュータ26は、プロセッサ70、NVM72、及びRAM74を備えている。プロセッサ70、NVM72、及びRAM74は、バス76に接続されている。また、受付装置28、ディスプレイ30、及び外部I/F68も、バス76に接続されている。
 プロセッサ70は、情報処理装置14の全体を制御する。プロセッサ70、NVM72、及びRAM74は、上述したプロセッサ48、NVM50、及びRAM52と同様のハードウェア資源である。
 受付装置28は、アノテータ32(図1参照)からの指示を受け付ける。プロセッサ70は、受付装置28によって受け付けられた指示に従って動作する。
 外部I/F68は、上述した外部I/F46と同様のハードウェア資源である。外部I/F68は、撮像装置12の外部I/F46に接続されており、撮像装置12とプロセッサ70との間の各種情報の授受を司る。
 NVM72には、機械学習処理プログラム78が記憶されている。プロセッサ70は、NVM72から機械学習処理プログラム78を読み出し、読み出した機械学習処理プログラム78をRAM74上で実行する。プロセッサ70は、RAM74上で実行する機械学習処理プログラム78に従って機械学習処理を行う。機械学習処理は、プロセッサ70が機械学習処理プログラム78に従って演算部80、教師データ生成部82、及び学習実行部84として動作することで実現される。
 一例として図4に示すように、第1生成部64は、第1RAWデータ58に対して第1画像処理86を行うことで第1画像データ20を生成する。ここで、第1画像データ20を生成する工程は、本開示の技術に係る「第1生成工程」の一例である。
 第1画像処理86には、第1画像処理86の一部の処理である第2画像処理86A、及び、第1画像処理86の一部の処理である第3画像処理86Bが含まれている。ここで、第2画像処理86Aは、本開示の技術に係る「第1画像処理の一部の処理に相当する第2画像処理」の一例である。
 第1生成部64は、第1RAWデータ58に対して第1画像処理86(例えば、第2画像処理86A及び第3画像処理86B)を行うことで処理済み画像データ88を生成し、生成した処理済み画像データ88に対して付帯情報18を紐付けることで第1画像データ20を生成する。
 一例として図5に示すように、第1生成部64は、デモザイク処理部64A、ホワイトバランス補正部64B、色補正部64C、ガンマ補正部64D、色空間変換部64E、輝度処理部64F、色差処理部64G、色差処理部64H、リサイズ処理部64I、及び圧縮処理部64Jを備えている。
 第2画像処理86Aの一例としては、デモザイク処理部64Aによって行われる処理が挙げられる。第3画像処理86Bの一例としては、ホワイトバランス補正部64Bによっ
て行われる処理、色補正部64Cによって行われる処理、ガンマ補正部64Dによって行われる処理、色空間変換部64Eによって行われる処理、輝度処理部64Fによって行われる処理、色差処理部64Gによって行われる処理、色差処理部64Hによって行われる処理、リサイズ処理部64Iによって行われる処理、及び圧縮処理部64Jによって行われる処理が挙げられる。
 デモザイク処理部64Aは、第1RAWデータ58に対してデモザイク処理を行う。デモザイク処理は、第1RAWデータ58をR、G、及びBに3板化する処理である。すなわち、デモザイク処理部64Aは、第1RAWデータ58に含まれるR信号、G信号、及びB信号に色補間処理を施すことにより、Rに対応する画像を示すR画像データ、Gに対応する画像を示すB画像データ、及びGに対応する画像を示すG画像データを生成する。ここで、色補間処理とは、各画素が有さない色を周辺画素から補間する処理を指す。すなわち、光電変換素子24A(図2参照)の各感光画素においては、R信号、G信号、又はB信号(すなわち、R、G、及びBのうちの1色の画素に対応する信号値)しか得られないため、デモザイク処理部64Aは、各画素において得られない他の色について、周辺の画素の信号値を用いて補間する。なお、以下では、R画像データ、B画像データ、及びG画像データを、「RGB画像データ」とも称する。
 ホワイトバランス補正部64Bは、デモザイク処理が行われることで得られたRGB画像データに対してホワイトバランス補正処理を行う。ホワイトバランス補正処理は、R画素、G画素、及びB画素の各々について設定されたWBゲインを、RGBの色信号に乗じることで、RGBの色信号について光源種の色の影響を補正する処理である。WBゲインは、例えば、白色に対するゲインである。白色に対するゲインの一例としては、画像に写り込んでいる白色の被写体に対してR信号、G信号、及びB信号の各信号レベルが等しくなるように定められたゲインが挙げられる。WBゲインは、例えば、画像解析が行われることによって特定された光源種に応じて設定されたり、ユーザ等によって指定された光源種に応じて設定されたりする。
 色補正部64Cは、ホワイトバランス補正処理が行われたRGB画像データに対して色補正処理(ここでは、一例として、リニアマトリクスによる色補正)を行う。色補正処理は、色相及び色飽和特性を調整する処理である。色補正処理の一例としては、RGB画像データに対して色再現係数(例えば、リニアマトリクス係数)を乗じることで色再現性を変化させる処理が挙げられる。なお、色再現係数は、R、G、及びBの分光特性を人間の視感度特性に近付けるように定められた係数である。
 ガンマ補正部64Dは、色補正処理が行われたRGB画像データに対してガンマ補正処理を行う。ガンマ補正処理は、画像の階調の応答特性を示す値、すなわち、ガンマ値に従ってRGB画像データにより示される画像の階調を補正する処理である。
 色空間変換部64Eは、色補正処理が行われたRGB画像データに対して色空間変換処理を行う。色空間変換処理は、色補正処理が行われたRGB画像データの色空間をRGB色空間からYCbCr色空間に変換する処理である。すなわち、色空間変換部64Eは、RGB画像データを輝度・色差信号に変換する。輝度・色差信号は、Y信号、Cb信号、及びCr信号である。Y信号は、輝度を示す信号である。以下、Y信号を輝度信号と記載する場合もある。Cb信号は、B信号から輝度成分を減じた信号を調整することで得られた信号である。Cr信号は、R信号から輝度成分を減じた信号を調整することで得られた信号である。以下、Cb信号及びCr信号を色差信号と記載する場合もある。
 輝度処理部64Fは、Y信号に対して輝度フィルタ処理を行う。輝度フィルタ処理は、Y信号を、輝度フィルタ(図示省略)を用いてフィルタリングする処理である。例えば、輝度フィルタは、デモザイク処理で生じた高周波ノイズを低減したり、シャープネスを強調したりするフィルタである。Y信号に対する信号処理、すなわち、輝度フィルタによるフィルタリングは、輝度フィルタパラメータに従って行われる。輝度フィルタパラメータは、輝度フィルタに対して設定されるパラメータである。輝度フィルタパラメータは、デモザイク処理で生じた高周波ノイズを低減する度合い、及びシャープネスを強調する度合いを規定している。輝度フィルタパラメータは、例えば、撮像条件、又は、UI系装置42(図2参照)によって受け付けられた指示信号に従って変更される。
 色差処理部64Gは、Cb信号に対して第1色差フィルタ処理を行う。第1色差フィルタ処理は、Cb信号を、第1色差フィルタ(図示省略)を用いてフィルタリングする処理である。例えば、第1色差フィルタは、Cb信号に含まれる高周波ノイズを低減するローパスフィルタである。Cb信号に対する信号処理、すなわち、第1色差フィルタによるフィルタリングは、指定された第1色差フィルタパラメータに従って行われる。第1色差フィルタパラメータは、第1色差フィルタに対して設定されるパラメータである。第1色差フィルタパラメータは、Cb信号に含まれる高周波ノイズを低減する度合いを規定している。第1色差フィルタパラメータは、例えば、撮像条件、又は、UI系装置42(図2参照)によって受け付けられた指示信号に従って変更される。
 色差処理部64Hは、Cr信号に対して第2色差フィルタ処理を行う。第2色差フィルタ処理は、Cr信号を、第2色差フィルタ(図示省略)を用いてフィルタリングする処理である。例えば、第2色差フィルタは、Cr信号に含まれる高周波ノイズを低減するローパスフィルタである。Cr信号に対する信号処理、すなわち、第2色差フィルタによるフィルタリングは、指定された第2色差フィルタパラメータに従って行われる。第2色差フィルタパラメータは、第2色差フィルタに対して設定されるパラメータである。第2色差フィルタパラメータは、Cr信号に含まれる高周波ノイズを低減する度合いを規定している。第2色差フィルタパラメータは、例えば、撮像条件、又は、UI系装置42(図2参照)によって受け付けられた指示信号に従って変更される。
 リサイズ処理部64Iは、輝度・色差信号に対してリサイズ処理を行う。リサイズ処理は、輝度・色差信号により示される画像のサイズを、ユーザ等によって指定されたサイズに合わせるように輝度・色差信号を調節する処理である。
 圧縮処理部64Jは、リサイズ処理が行われた輝度・色差信号に対して圧縮処理を行う。圧縮処理は、例えば、輝度・色差信号を既定の圧縮方式に従って圧縮する処理である。既定の圧縮方式としては、例えば、JPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、又は、JPEG XR(Joint Photographic Experts Group Extended Range)等が挙げられる。輝度・色差信号に対して圧縮処理が行われることによって処理済み画像データ88が得られる。圧縮処理部64Jは、処理済み画像データ88を既定の記憶装置(例えば、RAM52(図2参照))に記憶させる。
 一例として図6に示すように、基準撮像装置60は、色票90を撮像することで第2RAWデータ92を生成する。第2RAWデータ92は、本開示の技術に係る「色票撮像信号」の一例である。
 色票90は、複数の色パッチ90Aを含む。図6に示す例では、色票90の一例として、24色の矩形状の色パッチ90Aが配列された板状の物体が示されている。第2RAWデータ92は、第1RAWデータ58を得るために撮像装置12によって行われた処理と同様の処理が基準撮像装置60によって行われることで得られたRAWデータである。
 基準撮像装置60では、第2RAWデータ92に対して第2画像処理86Aが行われることによって、色票90を示す色票情報94が生成される。例えば、色票情報94は、複数の色パッチ90A(一例として、24色の色パッチ90A)の各々についてのR、G及びBの信号値(例えば、0~255の256階調の画素毎の出力値)として表現される。すなわち、色票情報94は、複数の色パッチ90AがR、G及びBの信号値として規定された情報である。ここで、Rの信号値は、本開示の技術に係る「第1原色を示す第1信号値」の一例であり、Gの信号値は、本開示の技術に係る「第2原色を示す第2信号値」の一例であり、Bの信号値は、本開示の技術に係る「第3原色を示す第3信号値」の一例である。
 このようにして得られた色票情報94は、撮像装置12に予め記憶されている。図6に示す例では、色票情報94は、NVM50に予め記憶されている。
 第2生成部66は、付帯情報18に含まれる情報として、第1情報96を生成する。第1情報96は、第1画像処理86(図4参照)に関する画像処理情報(以下、単に「画像処理情報」とも称する)に基づく情報である。ここで、第1情報96を生成する工程は、本開示の技術に係る「第2生成工程」の一例である。
 画像処理情報の一例としては、第3画像処理86Bで用いられる各種パラメータが挙げられる。各種パラメータとしては、例えば、ホワイトバランス補正処理で用いられるWBゲイン、ガンマ補正処理で用いられるガンマ値、色補正処理で用いられる色再現係数、色空間変換処理で用いられる変換係数、輝度フィルタ処理で用いられる輝度フィルタパラメータ、第1色差フィルタ処理で用いられる第1色差フィルタパラメータ、第2色差フィルタ処理で用いられる第2色差フィルタパラメータ、リサイズ処理で用いられるパラメータ、及び圧縮処理で用いられるパラメータが挙げられる。なお、画像処理情報は、第1画像処理86の一部を考慮しない画像処理情報であってもよい。例えば、画像処理情報は、ホワイバランス補正処理を考慮しない情報であってもよい。
 第1情報96は、色票情報94と画像処理情報とに基づく情報である。換言すると、第1情報96は、色票情報94から派生した色情報である。色票情報94から派生した色情報の一例としては、色票情報94が表現されたR、G及びBの信号値に対して画像処理情報が加味されることによって、色票情報94が表現されたR、G及びBの信号値を変更させて得られた情報が挙げられる。
 第1情報96、すなわち、色票情報94と画像処理情報とに基づく情報は、例えば、色票情報94に対して、第1画像処理86の一部の処理である第3画像処理86Bが行われることによって得られる。図6に示す例において、生成部66は、NVM50から色票情報94を取得し、取得した色票情報94に対して第3画像処理86Bを行うことで第1情報96を生成する。第1情報96は、複数の色パッチ90A(一例として、24色の色パッチ90A)の各々についてのR、G及びBの信号値として表現される。
 第2生成部66は、付帯情報18に含まれる情報として、第2情報98を生成する。第2情報98は、第3画像処理86Bに含まれるホワイトバランス補正処理で用いられるゲインに関する情報である。本実施形態では、第2情報98として、色票情報94に対して行われたホワイトバランス補正処理で用いられたWBゲインが適用されている。
 なお、これは、あくまでも一例に過ぎず、WBゲインを算出するために用いられる信号値そのものであってもよく、ホワイトバランス補正処理で用いられるゲインに関する情報であればよい。
 また、図6に示す例では、付帯情報18に含まれる情報として、第1情報96及び第2情報98が示されているが、本開示の技術はこれに限定されず、付帯情報18には、更に、撮像装置12によって被写体検出処理(例えば、AI(Artificial Intelligence)方式又はテンプレートマッチング方式の被写体検出処理)が行われることで被写体16(図1参照)が検出されたエリアを特定可能な被写体検出エリア情報、又は、処理済み画像データ88により示される画像内の指定されたエリアを特定可能な指定エリア情報等が含まれていてもよい。
 一例として図7に示すように、第1生成部64は、第2生成部66から、第1情報96及び第2情報98を含む付帯情報18を取得し、取得した付帯情報18を処理済み画像データ88に対して紐付けることで第1画像データ20を生成する。第1生成部64は、生成した第1画像データ20を情報処理装置14に送信する。
 情報処理装置14は、第1生成部64から送信された第1画像データ20を受信する。情報処理装置14において、演算部80は、第1画像データ20に対して付帯情報18を用いた演算を行うことで、第2画像データ104を生成する。例えば、第2画像データ104は、第1画像データ20に対して、付帯情報18に含まれる第1情報96と、色票90の基準色を示す情報である基準色情報100とを比較した結果を用いた演算が行われることによって生成される。ここで、第2画像データ104を生成する工程は、本開示の技術に係る「第3生成工程」の一例である。
 演算部80が第2画像データ104を生成する場合、演算部80は、基準色情報100を取得する。例えば、基準色情報100は、NVM72(図3参照)に予め記憶されており、演算部80によって取得される。基準色情報100は、複数の色パッチ90A(一例として、24色の色パッチ90A)の各々についてのR、G及びBの信号値として表現された情報である。基準色情報100は、一般的な規格として広く知られている情報であってもよいし、色票90が測色器(図示省略)によって測色されて得られた情報であってもよい。ここで、「基準色」は、例えば、人の目が知覚する色に近い色、又は、AIの機械学習に適した色等である。
 また、演算部80が第2画像データ104を生成する場合、演算部80は、第1生成部によって生成された第1画像データ20を取得し、取得した第1画像データ20から、処理済み画像データ88、第1情報96、及び第2情報98を抽出する。演算部80は、第1情報96と基準色情報100との差分102を算出する。差分102の一例としては、色票90の色パッチ毎の差分が挙げられる。ここでは、差分102を挙げているが、これは、あくまでも一例に過ぎず、差分102に代えて、第1情報96及び基準色情報100の一方に対する他方の割合を適用してもよく、第1情報96と基準色情報100との相違度を示す値であれば如何なる値であってもよい。
 演算部80は、第1情報96を用いた演算を行うことで処理済み画像データ88に対して差分102を用いた演算を行うことで補正した処理済み画像データ88を生成する。すなわち、処理済み画像データ88に対して差分102を用いた演算が行われることによって、処理済み画像データ88が補正した処理済み画像データ88に変換される。処理済み画像データ88に対して差分102を用いた演算とは、例えば、第1情報96を基準色情報100に一致させるのに要する係数、又は、第1情報96を基準色情報100に近付けるのに要する係数を処理済み画像データ88に対して画素単位で乗じる演算を指す。これによって、処理済み画像データ88により示される画像の色を基準色の色に近付けることができる。
 色票情報94(図6参照)は、色票90を適切な白色の光源で撮像されることによって生成されるため、ホワイトバランス補正処理で光源による色の変化を抑制する必要は無い。一方で、実際に撮像されることで得られた画像を示す第1画像データ20は様々な光源(すなわち、環境光)の下で撮像されることによって得られる画像データであるため、ホワイトバランス補正処理をして光源の影響を抑えた自然な色にすることが重要である。しかし、図7のように、第1画像データ20により示される画像の色を第1情報96に基づいて基準色の色に近付ける補正が行われる場合、撮像装置12で実行されたホワイトバランス補正処理の効果を打ち消してしまい、結果として基準色が光源の色の影響で変化した画像を示す画像データが生成されてしまう。第1情報96は、ホワイトバランス補正処理を含めた第3画像処理86Bに基づいて生成されているからである。
 そこで、演算部80は、差分102を用いた演算を行うことで補正した処理済み画像データ88に対して第2情報98を用いた演算を行うことで、補正した処理済み画像データ88を補正して第2画像データ104を生成する。これによって、光源の色を抑えて基準色に近付けた画像を示す第2画像データ104が生成される。処理済み画像データ88に対して第2情報98を用いた演算とは、例えば、処理済み画像データ88に対してホワイトバランス補正処理が行われることで得られた色味を、色票情報94に対してホワイトバランス補正処理が行われることで得られた色味に一致させるのに要する係数、又は、処理済み画像データ88に対してホワイトバランス補正処理が行われることで得られた色味を、色票情報94に対してホワイトバランス補正処理が行われることで得られた色味に近付けるのに要する係数を処理済み画像データ88に対して画素単位で乗じる演算を指す。
 なお、図6では、第1情報96はホワイトバランス補正処理を含む第3画像処理86Bの情報に基づいて生成されている。しかし、第3画像処理86Bのうちホワイトバランス補正処理を考慮せずに第1情報96を生成している場合は、図7における、補正された処理済み画像データ88に対する第2情報98を用いた演算をスキップしてもよい。
 前述の通り、第2画像データ104により示される画像は基準色に近付けた色を有している。よって、互いに異なる撮像装置(すなわち、画像処理の内容が異なる撮像装置)で生成された複数第1画像データ20に基づいた複数の第2画像データ104であっても、各々の第2画像データ104により示される各画像の色を基準色に近付けることで、撮像装置間の色バラツキは低減される。よって、異なる撮像装置の画像処理の内容が全く考慮されていない場合に比べ、これらの第2画像データ104は色の基準が統一されているため、AIの教師データに適している。
 演算部80は、第2情報98を用いた演算を行うことで補正した処理済み画像データ88に対して差分102を用いた演算を行うことで第2画像データ104を生成する。すなわち、処理済み画像データ88に対して差分102を用いた演算が行われることによって、処理済み画像データ88が第2画像データ104に変換される。処理済み画像データ88に対して差分102を用いた演算とは、例えば、第1情報96を基準色情報100に一致させるのに要する係数、又は、第1情報96を基準色情報100に近付けるのに要する係数を処理済み画像データ88に対して画素単位で乗じる演算を指す。
 一例として図8に示すように、演算部80は、ディスプレイ30に対して、第2画像データ104により示される画像を表示させる。この状態で、アノテータ32は、受付装置28を介してコンピュータ26に対して、第2画像データ104に関する正解データ106を付与する。正解データ106には、例えば、第2画像データ104により示される画像のうちの指定された領域の位置を特定する位置特定情報(例えば、座標)、及び、位置特定情報から特定される領域に像として含まれる被写体を特定可能な被写体情報(例えば、被写体の名称を示す情報)が含まれている。教師データ生成部82は、演算部80から第2画像データ104を取得し、取得した第2画像データ104に対して、アノテータ32から付与された正解データ106を紐付けることで教師データ108を生成する。
 一例として図9に示すように、情報処理装置14において、学習実行部84は、教師データ生成部82によって生成された教師データ108を取得する。そして、学習実行部84は、教師データ108を用いて機械学習を実行する。
 図9に示す例において、学習実行部84は、CNN(Convolutional neural network)110を有する。学習実行部84は、教師データ108に含まれる第2画像データ104をCNN110に入力する。CNN110は、第2画像データ104が入力されると、推論を行い、推論結果を示すCNN信号110Aを出力する。学習実行部84は、CNN信号110Aと、教師データ108に含まれる正解データ106との誤差112を算出する。
 学習実行部84は、誤差112を最小にする複数の調整値114を算出する。そして、学習実行部84は、複数の調整値114を用いてCNN110内の複数の最適化変数を調整することでCNN110を最適化する。ここで、複数の最適化変数とは、例えば、CNN110に含まれる複数の結合荷重及び複数のオフセット値等を指す。
 学習実行部84は、第2画像データ104のCNN110への入力、誤差112の算出、複数の調整値114の算出、及びCNN110内の複数の最適化変数の調整、という学習処理を複数の教師データ108を用いて繰り返し行う。すなわち、学習実行部84は、複数の教師データ108に含まれる複数の第2画像データ104の各々について、誤差112が最小になるように算出した複数の調整値114を用いてCNN110内の複数の最適化変数を調整することで、CNN110を最適化する。このようにCNN110が最適されることによって学習済みモデル116が生成される。学習済みモデル116は、学習実行部84によって既定の記憶装置に記憶される。既定の記憶装置としては、例えば、情報処理装置14のNVM72(図3参照)又は撮像装置12のNVM50等が挙げられる。既定の記憶装置に記憶された学習済みモデル116は、例えば、撮像装置12によって、AI方式の被写体検出処理に用いられる。
 次に、情報処理システム10の作用について図10及び図11を参照しながら説明する。
 先ず、撮像装置12のプロセッサ48によって実行されるデータ生成処理の流れの一例について図10を参照しながら説明する。図10に示すデータ生成処理の流れは、本開示の技術に係る「データ生成方法」の一例である。
 図10に示すデータ生成処理では、先ず、ステップST10で、第1生成部64は、第1RAWデータ58を取得する(図4参照)。ステップST10の処理が実行された後、データ生成処理は、ステップST12へ移行する。
 ステップST12で、第1生成部64は、ステップST10で取得した第1RAWデータ58に対して第1画像処理86を行うことで処理済み画像データ88を生成する(図4及び図5参照)。ステップST12の処理が実行された後、データ生成処理は、ステップST14へ移行する。
 ステップST14で、第2生成部66は、NVM50から色票情報94を取得する(図6参照)。ステップST14の処理が実行された後、データ生成処理は、ステップST16へ移行する。
 ステップST16で、第2生成部66は、ステップST14で取得した色票情報94に対して第3画像処理86Bを行うことで第1情報96を生成する(図6参照)。ステップST16の処理が実行された後、データ生成処理は、ステップST18へ移行する。
 ステップST18で、第2生成部66は、ステップST16で行った第3画像処理86Bに含まれるホワイトバランス補正処理で用いられるゲインに関する情報を第2情報98として生成する(図6参照)。ステップST18の処理が実行された後、データ生成処理は、ステップST20へ移行する。
 ステップST20で、第2生成部66は、ステップST16で生成した第1情報96、及びステップST18で生成した第2情報98を含む付帯情報18を生成する(図6参照)。ステップST20の処理が実行された後、データ生成処理は、ステップST22へ移行する。
 ステップST22で、第1生成部64は、ステップST12で生成した処理済み画像データ88、及びステップST20で生成された付帯情報18を用いて第1画像データ20を生成する(図7参照)。ステップST22の処理が実行された後、データ生成処理は、ステップST24へ移行する。
 ステップST24で、第1生成部64は、ステップST22で生成した第1画像データ20を情報処理装置14に送信する(図7参照)。ステップST24の処理が実行された後、データ生成処理は、ステップST26へ移行する。
 ステップST26で、第1生成部64は、データ生成処理を終了する条件(以下、「データ生成処理終了条件」と称する)を満足したか否かを判定する。データ生成処理終了条件としては、データ生成処理を終了させる指示がUI系装置42(図2参照)又は受付装置28(図3参照)によって受け付けられた、との条件が挙げられる。ステップST26において、データ生成処理終了条件を満足していない場合は、判定が否定されて、データ生成処理は、ステップST10へ移行する。ステップST26において、データ生成処理終了条件を満足した場合は、判定が肯定されて、データ生成処理が終了する。
 次に、情報処理装置14のプロセッサ70によって実行される機械学習処理の流れの一例について図11を参照しながら説明する。図11に示す機械学習処理の流れは、本開示の技術に係る「学習方法」の一例である。
 図11に示す機械学習処理では、先ず、ステップST50で、演算部80は、図10に示すデータ生成処理に含まれるステップST24の処理が実行されることで情報処理装置14に送信された第1画像データ20が外部I/F68(図3参照)によって受信されたか否かを判定する。ステップST50において、第1画像データ20が外部I/F68によって受信されていない場合は、判定が否定されて、機械学習処理は、ステップST66へ移行する。ステップST50において、第1画像データ20が外部I/F68によって受信された場合は、判定が肯定されて、機械学習処理は、ステップST52へ移行する。
 ステップST52で、演算部80は、ステップST50で外部I/F68によって受信された第1画像データ20に含まれる第1情報96と基準色情報100との差分102を算出する(図7参照)。ステップST52の処理が実行された後、機械学習処理は、ステップST54へ移行する。
 ステップST54で、演算部80はステップST50で外部I/F68によって受信された処理済み画像データ88に対して、ステップST52で算出した差分102を用いた演算を実行することで、第2画像データ104を生成する(図7参照)。ステップST54の処理が実行された後、機械学習処理は、ステップST56へ移行する。
 ステップST56で、演算部80は、差分102を用いた演算後の処理済み画像データ88に対して、第1画像データ20に含まれる第2情報98を用いた演算を行うことで、処理済み画像データ88を補正することで、第2画像データ104を生成する(図7参照)。ステップST56の処理が実行された後、機械学習処理は、ステップST58へ移行する。
 ステップST58で、演算部80は、ディスプレイ30に対して、ステップST56で生成した第2画像データ104により示される画像を表示させる(図8参照)。ステップST58の処理が実行された後、機械学習処理は、ステップST60へ移行する。
 ステップST60で、教師データ生成部82は、受付装置28によって受け付けられた正解データ106を取得する(図8参照)。ステップST60の処理が実行された後、機械学習処理は、ステップST62へ移行する。
 ステップST62で、教師データ生成部82は、ステップST56で生成された第2画像データ104に対して、ステップST60で取得した正解データ106を付与することで、教師データ108を生成する(図9参照)。ステップST62の処理が実行された後、機械学習処理は、ステップST64へ移行する。
 ステップST64で、学習実行部84は、ステップST62で生成された教師データ108を用いて機械学習を実行することでCNN110を最適化する。CNN110が最適化されることによって学習済みモデル116が生成される(図9参照)。ステップST64の処理が実行された後、機械学習処理は、ステップST66へ移行する。
 ステップST66で、学習実行部84は、機械学習処理を終了する条件(以下、「機械学習処理終了条件」と称する)を満足したか否かを判定する。機械学習処理終了条件としては、機械学習処理を終了させる指示が受付装置28(図3参照)によって受け付けられた、との条件が挙げられる。ステップST66において、機械学習処理終了条件を満足していない場合は、判定が否定されて、機械学習処理は、ステップST50へ移行する。ステップST66において、機械学習処理終了条件を満足した場合は、判定が肯定されて、機械学習処理が終了する。
 以上説明したように、本実施形態に係る情報処理システム10では、撮像装置12の第1生成部64によって第1RAWデータ58に対して第1画像処理86が行われることで第1画像データ20が生成される(図4参照)。第1画像データ20には、付帯情報18が含まれている(図4参照)。また、撮像装置12の第2生成部66によって、付帯情報18に含まれる情報として、第1画像処理86に関する画像処理情報に基づく第1情報96が生成される(図6参照)。このようにして生成された第1情報96を含む付帯情報18は、第1画像データ20に含まれる処理済み画像データ88に対する補正で用いられ、これによって第2画像データ104が生成される(図7参照)。すなわち、第1情報96が既定の画質に関する情報(例えば、基準色情報100)になるように処理済み画像データ88が補正されることによって、第2画像データ104が生成される。このようにして生成された第2画像データ104により示される画像の画質(例えば、色)は、補正前の処理済み画像データ88により示される画像に比べ、基準画質(例えば、基準色)に近付く。第2画像データ104により示される画像の画質を基準画質に近付けることができると、互いに異なる撮像装置(例えば、画像処理の内容が異なる撮像装置間)で生成された複数の第2画像データ104であったとしても、異なる撮像装置間での第1画像処理86に起因する画質のばらつきも少なくなる。従って、本構成によれば、第1RAWデータ58に対して第1画像処理86が行われた第1画像データ20が第1画像処理86とは全く無関係な情報のみを付帯情報として有する場合に比べ、第2画像データ104により示される画像の画質について、第1画像処理86に起因するばらつき(例えば、異なる撮像装置間での第1画像処理86に起因するばらつき)を軽減することができる。
 また、本実施形態に係る情報処理システム10では、撮像装置12の第2生成部66によって、付帯情報18に含まれる第1情報96として、色票90を示す色票情報94と第1画像処理86に関する画像処理情報とに基づく情報が生成される。このようにして生成された第1情報96を含む付帯情報18は、第1画像データ20に含まれる処理済み画像データ88に対する補正で用いられ、これによって第2画像データ104が生成される(図7参照)。すなわち、第1情報96が既定の色に関する情報になるように処理済み画像データ88が補正されることによって、第2画像データ104が生成される。このようにして生成された第2画像データ104により示される画像の色は、補正前の処理済み画像データ88により示される画像に比べ、基準色に近付く。第2画像データ104により示される画像の色を基準色に近付けることができると、互いに異なる撮像装置(例えば、画像処理の内容が異なる撮像装置間)で生成された複数の第2画像データ104であったとしても、異なる撮像装置間での第1画像処理86に起因する色のばらつきも少なくなる。従って、本構成によれば、第1RAWデータ58に対して第1画像処理86が行われることで得られた第1画像データ20が第1画像処理86及び色票90とは全く無関係な情報のみを付帯情報として有する場合に比べ、第2画像データ104により示される画像の色について、第1画像処理86に起因するばらつき(例えば、異なる撮像装置間での第1画像処理86に起因するばらつき)を軽減することができる。
 また、本実施形態に係る情報処理システム10では、撮像装置12の第2生成部66によって、付帯情報18に含まれる第1情報96として、色票情報94から派生した色情報(例えば、色票情報94が表現されたR、G及びBの信号値に対して画像処理情報が加味されることによって得られた情報)が生成される。このようにして生成された第1情報96を含む付帯情報18は、第1画像データ20に含まれる処理済み画像データ88に対する補正で用いられ、これによって第2画像データ104が生成される(図7参照)。すなわち、色票情報94から派生した色情報が既定の色に関する情報にとなるように処理済み画像データ88が補正することによって第2画像データ104が生成される。このようにして生成された第2画像データ104により示される画像の色は、補正前の処理済み画像データ88により示される画像に比べ、基準色に近付く。第2画像データ104により示される画像の色を基準色に近付けることができると、互いに異なる撮像装置(例えば、画像処理の内容が異なる撮像装置間)で生成された複数の第2画像データ104であったとしても、異なる撮像装置間での第1画像処理86に起因する画質のばらつきも少なくなる。従って、本構成によれば、色票情報94から派生した色情報以外の情報のみを用いて処理済み画像データ88を補正する場合に比べ、第2画像データ104により示される画像の色について、第1画像処理86に起因するばらつき(例えば、異なる撮像装置間での第1画像処理86に起因するばらつき)を軽減することができる。
 また、本実施形態に係る情報処理システム10では、色票情報94が撮像装置12のNVM50に予め記憶されている。従って、本構成によれば、第1情報96及び第2情報98の生成が行われるたびに色票90に対する測色を行うことなく、第1情報96及び第2情報98を用いて処理済み画像データ88を補正することができる。
 また、本実施形態に係る情報処理システム10では、色票情報94として、複数の色パッチ90A(図6参照)がR、G及びBの信号値に基づいて規定された情報が用いられている。従って、本構成によれば、色票を示す色票情報がRの信号値、Gの信号値、又はBの信号値のみで規定された情報である場合に比べ、色票情報94及び色票情報94に基づいて生成される第1情報96が詳細な情報になる。よって、色票情報94に基づいて生成された第1情報96及び第2情報98に基づいて第2画像データ104を生成する工程で、第2画像データ20により示される画像の色をより精密に基準色に近付けることができる。
 また、本実施形態に係る情報処理システム10では、色票情報94として、色票90が基準撮像装置60によって撮像されることで得られた第2RAMデータ92に対して、第1画像処理86の一部の処理に相当する第2画像処理86Aが行われることで得られた情報が用いられる(図6参照)。色票情報94は、第3画像処理86Bを用いて第1情報96を生成する基準となる情報であるため、全ての画像処理に相当する第1画像処理86の一部の画像処理を用いて作成されると好ましい。従って、本構成によれば、第2RAWデータ92に対して第2画像処理86Aとは全く無関係な画像処理が行われることで得られた情報を色票情報として用いる場合に比べ、第2画像データ104により示される画像の色について、第2画像処理86Aに起因するばらつきを軽減することができる。
 また、本実施形態に係る情報処理システム10では、第1画像データ20に含まれる付帯情報18に含まれる情報として、ホワイトバランス補正処理で用いられるゲインに関する第2情報98が用いられる。これにより、付帯情報18に含まれる情報がホワイトバランス補正処理で用いられるゲインに関する情報とは全く無関係な情報である場合に比べ、第2情報98を用いて処理済み画像データ88に対してホワイトバランスに関する演算処理を行うことができる。従って、本構成によれば、第2画像データ104により示される画像の色について、撮像環境の光源の色(すなわち、環境光の色)が第2画像データ104に与える影響を軽減することができる。
 また、本実施形態に係る情報処理システム10では、第1画像データ20に含まれる処理済み画像データ88に対して、第1画像データ20に含まれる付帯情報18を用いた演算が行われることで、第2画像データ104が生成される(図7参照)。このようにして生成された第2画像データ104に対して、正解データ106に含まれる情報として付帯情報18のラベリングが行われることによって教師データ108が生成され(図8参照)、教師データ108が機械学習に用いられる(図9参照)。このように、付帯情報18を用いることで、第2画像データ104により示される画像の色について、第1画像処理86に起因するばらつき(例えば、異なる撮像装置間での第1画像処理86に起因するばらつき)を軽減することができる。従って、本構成によれば、ラベリングされた第2画像データ104が機械学習の教師データとして用いない場合に比べ、学習済みモデル116(図9参照)による高精度な推論を実現することができる。
 また、本実施形態に係る情報処理システム10では、第1画像データ20に含まれる処理済み画像データ88に対して、付帯情報18に含まれる第1情報96と、基準色情報100とを比較した結果(例えば、差分102)を用いた演算が行われることで、第2画像データ104が生成される(図7参照)。すなわち、第1情報96が基準色情報100になるように処理済み画像データ88が補正されることによって、第2画像データ104が生成される。このようにして生成された第2画像データ104により示される画像の色は、補正前の処理済み画像データ88により示される画像に比べ、基準色に近付く。第2画像データ104により示される画像の色を基準色に近付けることができると、互いに異なる撮像装置(例えば、画像処理の内容が異なる撮像装置間)で生成された複数の第2画像データ104であったとしても、異なる撮像装置間での第1画像処理86に起因する色のばらつきも少なくなる。よって、異なる撮像装置の画像処理の内容が全く考慮されていない場合に比べ、これらの第2画像データ104は、色の基準が統一されているため、AIの教師データに適している。従って、本構成によれば、ラベリングされた第2画像データ104が機械学習の教師データとして用いられない場合に比べ、学習済みモデル116(図9参照)による高精度な推論を実現することができる。
 本実施形態に係る情報処理システム10では、上述したように、互いに異なる撮像装置(例えば、画像処理の内容が異なる撮像装置間)で生成された複数の第1画像データ20に基づいた複数の第2画像データ104であったとしても、各々の第2画像データ104により示される各画像の色を基準色に近付けることで、撮像装置間の色バラツキが低減される。よって、異なる撮像装置の画像処理の内容が全く考慮されていない場合に比べ、これらの第2画像データ104は色の基準が統一されているためAIの教師データに適している。そこで、本実施形態に係る情報処理システム10では、第2画像データ104を含む教師データ108を用いて機械学習が実行される。従って、本構成によれば、第2画像データ104を含む教師データを用いて機械学習が実行されない場合に比べ、高精度な推論を実現可能な学習済みモデル116を得ることができる。
 また、上記実施形態では、24色の色パッチ90A(図6参照)を有する色票90を例示したが、本開示の技術はこれに限定されるものではなく、色票90に含まれる色パッチ90Aの個数は、24色を超える個数(例えば、4096個)であってもよい。この場合も、上記実施形態と同様に、色票情報94(図6参照)及び基準色情報100(図7参照)が、色パッチ90Aの個数分のR、G及びBの信号値(例えば、0~255の256階調の画素毎の出力値)で表現されるようにすればよい。従って、色票情報94及び基準色情報100が信号値で作成されていない場合に比べ、色票情報94及び基準色情報100が信号値で作成されている場合は、色票情報94及び基準色情報100を簡易に作成することができる。
 また、上記実施形態では、色票情報94が、複数の色パッチ90A(一例として、24色の色パッチ90A)の各々についてのR、G及びBの信号値として表現されている。この場合、複数の色パッチ90A間で、Rの信号値、Bの信号値、及びGの信号値のうちの1つ又は2つが異なり、残りが同じになるようにしてもよい。これにより、複数の色パッチ90A間のRの信号値、Bの信号値、及びGの信号値の全てを異なる値とした場合に比べ、色票情報94及び色票情報94に基づいて生成される第1情報96が詳細な情報になるので、第1画像処理86の特徴を詳細に把握できる。従って、複数の色パッチ90A間のRの信号値、Bの信号値、及びGの信号値の全てを異なる値とした場合に比べ、演算部80によって、第2画像データ104により示される画像の色を精密に基準色に近付けることができる。このように色票情報94の一例として図13に示すように、色票情報94及び基準色情報100は、複数の色パッチ200Aの各々についてR、G及びBの信号値として表現された情報である。
 また、一例として図12に示すように、上述した色票90に代えて色票200を用いてもよい。色票200には、複数の色パッチ200Aが配列されている。色票200において、複数の色パッチ200A間で、彩度、明度、及び色相のうちの1つ又は2つが異なり、残りは同じである。
 色票200の第1の例としては、色パッチ200A間で、彩度が互いに同じ(例えば、256種類の彩度のうちの1つ)であるが、明度が互いに異なっており、かつ、色相も互いに異なっているパターン数の色パッチ200A、色パッチ200A間で、明度が互いに同じ(例えば、256種類の明度のうちの1つ)であるが、彩度が互いに異なっており、かつ、色相も互いに異なっているパターン数の色パッチ200A、及び、色パッチ200A間で、色相(例えば、256種類の色相のうちの1つ)が同じであるが、彩度が互いに異なっており、かつ、明度も互いに異なっているパターン数の色パッチ200Aが配列された色票が挙げられる。また、色票200の第2の例としては、色パッチ200A間で、彩度が互いに同じであり、かつ、明度も互いに同じであるが、色相が互いに異なっているパターン数の色パッチ200A、色パッチ200A間で、明度が互いに同じであり、かつ、彩度も互いに同じであるが、色相が互いに異なっているパターン数の色パッチ200A、及び、色パッチ200A間で、色相が同じであり、かつ、彩度も互いに同じであるが、明度が互いに異なっているパターン数の色パッチ200Aが配列された色票が挙げられる。
 このように、色票90に代えて色票200が用いられることで、複数の色パッチ200A間の彩度、明度及び色相が全て異なる場合に比べ、色票情報94及び色票情報94に基づいて生成される第1情報96が詳細な情報になるので、第1画像処理86の特徴を詳細に把握することができる。よって、複数の色パッチ200A間の彩度、明度及び色相が全て異なる場合に比べ、演算部80によって、第1画像処理86による色変化を打ち消し易くなり、第2画像データ104の色を精密に基準色に近付けることができる。第1情報96のうち各色パッチ200Aに対応する情報は、上記実施形態のように図12のようなR、G及びBの信号値で表してもよいし、彩度、明度及び色相の値で表してもよい。
 また、上記実施形態では、色票情報94と基準色情報100とが互いに異なる情報とされているが、一例として図14に示すように、撮像装置12のNVM50に記憶される色票情報94は、基準色情報100と同じ情報であってもよい。
 また、上記実施形態では、撮像装置12の分光特性(すなわち、イメージセンサ24の分光特性)を加味せずに得られた色票情報94を挙げて説明したが、本開示の技術はこれに限定されない。例えば、色票90と撮像装置12の分光特性(すなわち、イメージセンサ24の分光特性)に基づいて色票情報が生成されるようにしてもよい。
 この場合、例えば、撮像装置12のイメージセンサ24によって色票90が撮像されることで得られるRAWデータに対して第2画像処理86Aが行われることで、撮像装置12の分光特性が加味された色票情報が生成される。
 このようにして撮像装置分光特性118を考慮して生成された色票情報は、上記実施形態で説明した色票情報94と同様に用いられる。すなわち、色票情報122が既定の色に関する情報になるように処理済み画像データ88が補正されることによって第2画像データ104が生成される。これにより、互いに異なる撮像装置(例えば、画像処理の内容が異なる撮像装置間)で生成された複数の第1画像データ20に基づいた複数の第2画像データ104であったとしても、各々の第2画像データ104により示される各画像の色を基準色に近付けることで、撮像装置間の色バラツキが低減される。従って、撮像装置分光特性118とは無関係に色票情報が生成される場合に比べ、第2画像データ104により示される画像の色について、撮像装置分光特性118に起因するばらつき(例えば、異なる撮像装置間での撮像装置分光特性118に起因するばらつき)を軽減することができる。
 なお、撮像装置12の分光特性が加味された色票情報を予めNVM50に記憶させておき、プロセッサ48が、NVM50から撮像装置12の分光特性を取得し、上記実施形態で説明した色票情報94に対して撮像装置12の分光特性を加味することで新たな色票情報を生成するようにしてもよい。
 また、例として図6に示すように、撮像装置12のイメージセンサ24と同じ分光特性を持つイメージセンサを有する基準撮像装置60によって色票90が撮像されることによって色票情報94が生成されるようにしてもよい。このようにして得られた色票情報94は、撮像装置の分光特性に基づいて生成された情報となる。また、図15に示すように、プロセッサ48は、撮像装置12の分光特性である撮像装置分光特性118、及び色票90の分光特性である色票分光特性120を外部から取得し、取得した撮像装置分光特性118及び色票分光特性120に基づいて色票情報122を生成するようにしてもよい。
 ここで、例えば、撮像装置分光特性118及び色票分光特性120は、外部I/F46を介して外部装置から取得されるようにしてもよいし、NVM50に撮像装置分光特性118及び色票分光特性120を予め記憶させておき、NVM50から撮像装置分光特性118及び色票分光特性120が取得されるようにしてもよい。
 色票情報122は、上記実施形態で説明した色票情報94に対して撮像装置分光特性118及び色票分光特性120が加味されることで得られる情報である。プロセッサ48は、NVM50に対して、生成した色票情報122を記憶させる。
 NVM50に記憶されており、撮像装置の分光特性情報に基づいた色票情報122は、上記実施形態と同様に用いられる。すなわち、色票情報122が既定の色に関する情報(例えば、基準色情報100)になるように処理済み画像データ88が補正されることによって第2画像データ104が生成される。このようにして生成された第2画像データ104により示される画像の色は、補正前の処理済み画像データ88により示される画像に比べ、基準色に近付く。第2画像データ104により示される画像の色を基準色に近付けることができると、互いに異なる撮像装置(例えば、画像処理の内容が異なる撮像装置間)で生成された複数の第2画像データ104であったとしても、異なる撮像装置間での第1画像処理86に起因する色のばらつきも少なくなる。従って、本構成によれば、撮像装置分光特性118及び色票分光特性120とは無関係に色票情報が生成される場合に比べ、第2画像データ104により示される画像の色について、撮像装置分光特性118に起因するばらつき(例えば、異なる撮像装置間での撮像装置分光特性118及び色票分光特性120に起因するばらつき)を軽減することができる。
 また、上記実施形態では、第1情報96の生成に用いられる画像処理情報の一例として、ホワイトバランス補正処理で用いられるWBゲイン、ガンマ補正処理で用いられるガンマ値、色補正処理で用いられる色再現係数、色空間変換処理で用いられる変換係数、輝度フィルタ処理で用いられる輝度フィルタパラメータ、第1色差フィルタ処理で用いられる第1色差フィルタパラメータ、第2色差フィルタ処理で用いられる第2色差フィルタパラメータ、リサイズ処理で用いられるパラメータ、及び圧縮処理で用いられるパラメータを挙げたが、これはあくまでも一例に過ぎない。例えば、これらの情報のうち、画質に影響を及ぼす情報のみを、第1情報96の生成に用いられる画像処理情報として用いてもよい。また、これらの情報以外の情報(例えば、処理済み画像データ88に対してオフセット補正処理を行う場合に用いられるオプティカルブラックの信号値)も、第1情報96の生成に用いられる画像処理情報として用いてもよい。
 また、上記実施形態では、第2画像データ104が機械学習に用いられる形態例を挙げて説明したが、本開示の技術はこれに限定されず、機械学習以外の用途で第2画像データ104が用いられるようにしてもよい。例えば、第2画像データ104は、指定された記憶装置(例えば、撮像装置12のNVM50)に記憶されるようにしてもよい。また、第2画像データ104は、UI系装置42(図2参照)に含まれるディスプレイに表示されるようにしてもよい。この場合、例えば、第2画像データ104により示される画像が単にディスプレイに表示されるようにしてもよいし、処理済み画像データ88により示される画像と第2画像データ104により示される画像とが対比可能な状態(例えば、同一画面内に並べた状態)でディスプレイに表示されるようにしてもよいし、処理済み画像データ88により示される画像及び第2画像データ104により示される画像のうちの一方に対して他方が重ねられた状態でディスプレイに表示されるようにしてもよい。また、第2画像データ104に対して画像解析処理(例えば、AI方式又はテンプレートマッチング方式の画像解析処理)が行われるようにしてもよい。
 また、上記実施形態では、機械学習処理が情報処理装置14によって行われる形態例を挙げて説明したが、本開示の技術はこれに限定されず、機械学習処理の少なくとも一部(例えば、演算部80による処理)が他の装置(例えば、撮像装置12)によって行われるようにしてもよい。
 また、上記実施形態では、データ生成処理が撮像装置12によって行われる形態例を挙げて説明したが、本開示の技術はこれに限定されず、データ生成処理の少なくとも一部(例えば、第2生成部66による処理)が他の装置(例えば、情報処理装置14)によって行われるようにしてもよい。
 また、上記実施形態では、第1RAWデータ58に対してデモザイク処理部64A、ホワイトバランス補正部64B、色補正部64C、及びガンマ補正部64Dの順に処理が行われる形態例を挙げて説明したが、これは、あくまでも一例に過ぎず、例えば、第1RAWデータ58に対してデモザイク処理部64A、ホワイトバランス補正部64B、色補正部64C、及びガンマ補正部64Dによる各処理が行われる順序は適宜変更可能である。
 また、上記実施形態では、NVM50にデータ生成処理プログラム62が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、データ生成処理プログラム62がSSD(Solid State Drive)又はUSBメモリなどの可搬型のコンピュータ読取可能な非一時的記憶媒体に記憶されていてもよい。非一時的記憶媒体に記憶されているデータ生成処理プログラム62は、撮像装置12のコンピュータ40にインストールされる。プロセッサ48は、データ生成処理プログラム62に従ってデータ生成処理を実行する。
 また、ネットワークを介して撮像装置12に接続される他のコンピュータ又はサーバ装置等の記憶装置にデータ生成処理プログラム62を記憶させておき、撮像装置12の要求に応じてデータ生成処理プログラム62がダウンロードされ、コンピュータ40にインストールされるようにしてもよい。
 なお、撮像装置12に接続される他のコンピュータ又はサーバ装置等の記憶装置、又はNVM50にデータ生成処理プログラム62の全てを記憶させておく必要はなく、データ生成処理プログラム62の一部を記憶させておいてもよい。
 また、図2に示す撮像装置12にはコンピュータ40が内蔵されているが、本開示の技術はこれに限定されず、例えば、コンピュータ40が撮像装置12の外部に設けられるようにしてもよい。
 上記実施形態では、コンピュータ40が例示されているが、本開示の技術はこれに限定されず、コンピュータ40に代えて、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又はPLD(Programmable Logic Device)を含むデバイスを適用してもよい。また、コンピュータ40に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 上記実施形態で説明したデータ生成処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、データ生成処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することでデータ生成処理を実行する。
 データ生成処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、データ生成処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、データ生成処理を実行するハードウェア資源として機能する形態がある。第2に、SoC(System-on-a-chip)などに代表されるように、データ生成処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、データ生成処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記のデータ生成処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「又は」で結び付けて表現する場合も、「A又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (17)

  1.  撮像装置によって被写体が撮像されることで得られ、機械学習に用いられる画像データであり、かつ、付帯情報を有する第1画像データを生成するデータ生成方法であって、
     前記撮像装置が第1画像処理を行うことで前記第1画像データを生成する第1生成工程と、
     前記付帯情報に含まれる情報として、前記第1画像処理に関する画像処理情報に基づく第1情報を生成する第2生成工程と、
     を備えるデータ生成方法。
  2.  前記第1情報は、色票を示す色票情報と前記画像処理情報とに基づく情報である
     請求項1に記載のデータ生成方法。
  3.  前記第1情報は、前記色票情報から派生した色情報である
     請求項2に記載のデータ生成方法。
  4.  前記色票情報は、前記撮像装置に予め記憶されている
     請求項2又は請求項3に記載のデータ生成方法。
  5.  前記色票は、複数の色パッチを含み、
     前記複数の色パッチ間で、彩度、明度、及び色相のうちの1つ又は2つが異なり、残りが同じである
     請求項2から請求項4の何れか一項に記載のデータ生成方法。
  6.  前記色票情報は、複数の色パッチが第1原色を示す第1信号値、第2原色を示す第2信号値、及び第3原色を示す第3信号値に基づいて規定された情報である
     請求項2から請求項5の何れか一項に記載のデータ生成方法。
  7.  前記複数の色パッチ間で、前記第1信号値、前記第2信号値、及び前記第3信号値のうち1つ又は2つが異なり、残りが同じである
     請求項6に記載のデータ生成方法。
  8.  前記色票情報は、前記色票が基準撮像装置によって撮像されることで得られた色票撮像信号に対して、前記第1画像処理の一部の処理に相当する第2画像処理が行われることによって得られた情報である
     請求項2から請求項7の何れか一項に記載のデータ生成方法。
  9.  前記色票情報は、前記色票と前記撮像装置の分光特性に基づいて生成された情報である
     請求項2から請求項8の何れか一項に記載のデータ生成方法。
  10.  前記色票情報は、前記色票の分光特性と前記撮像装置の分光特性とに基づいて生成された情報である
     請求項9に記載のデータ生成方法。
  11.  前記第1画像データに対して、前記第1情報と、前記色票の基準色を示す基準色情報とを比較した結果を用いた演算を行うことで、第2画像データを生成する第3生成工程を含む
     請求項2から請求項10の何れか一項に記載のデータ生成方法。
  12.  前記第1画像データに対して前記付帯情報を用いた演算を行うことで、第2画像データ
    を生成する第3生成工程を含む
     請求項1から請求項11の何れか一項に記載のデータ生成方法。
  13.  前記第1画像処理は、ホワイトバランス補正処理を含み、
     前記付帯情報は、前記ホワイトバランス補正処理で用いられるゲインに関する第2情報を含む
     請求項1から請求項12の何れか一項に記載のデータ生成方法。
  14.  請求項11又は請求項12に記載のデータ生成方法によって生成された前記第2画像データを用いた学習方法であって、
     前記第2画像データを含む教師データを用いて機械学習を実行することを含む
     学習方法。
  15.  イメージセンサと、
     プロセッサと、を備え、
     前記プロセッサは、
     前記イメージセンサによって被写体が撮像されることで生成された撮像信号に対して第1画像処理を行うことで、機械学習に用いられる第1画像データを生成し、
     前記第1画像データが有する付帯情報に含まれる情報として、前記第1画像処理に関する画像処理情報に基づく第1情報を生成する
     撮像装置。
  16.  前記プロセッサは、色票を示す色票情報と前記画像処理情報とに基づいて前記第1情報を生成する
     請求項15に記載の撮像装置。
  17.  撮像装置によって被写体が撮像されることで得られ、機械学習に用いられる画像データであり、かつ、付帯情報を有する第1画像データを生成するデータ生成処理をコンピュータに実行させるためのプログラムであって、
     前記データ生成処理は、
     前記撮像装置が第1画像処理を行うことで前記第1画像データを生成すること、及び、
     前記付帯情報に含まれる情報として、前記第1画像処理に関する画像処理情報に基づく第1情報を生成すること、を含む
     プログラム。
PCT/JP2022/022229 2021-08-31 2022-05-31 データ生成方法、学習方法、撮像装置、及びプログラム WO2023032374A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202280050879.3A CN117769838A (zh) 2021-08-31 2022-05-31 数据生成方法、学习方法、摄像装置及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021141805 2021-08-31
JP2021-141805 2021-08-31

Publications (1)

Publication Number Publication Date
WO2023032374A1 true WO2023032374A1 (ja) 2023-03-09

Family

ID=85411177

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/022229 WO2023032374A1 (ja) 2021-08-31 2022-05-31 データ生成方法、学習方法、撮像装置、及びプログラム

Country Status (2)

Country Link
CN (1) CN117769838A (ja)
WO (1) WO2023032374A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09284581A (ja) * 1996-04-15 1997-10-31 Toyo Ink Mfg Co Ltd 色シミュレーション装置
JP2009273146A (ja) * 2009-08-10 2009-11-19 Olympus Corp デジタルカメラ
JP2010022595A (ja) * 2008-07-18 2010-02-04 Olympus Corp 信号処理システム及び信号処理プログラム
JP2011022647A (ja) * 2009-07-13 2011-02-03 Fujifilm Corp 検査画像判定装置、スケール、検査画像判定方法およびプログラム
JP2020201540A (ja) * 2019-06-06 2020-12-17 キヤノン株式会社 画像処理方法、画像処理装置、画像処理システム、学習済みウエイトの製造方法、および、プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09284581A (ja) * 1996-04-15 1997-10-31 Toyo Ink Mfg Co Ltd 色シミュレーション装置
JP2010022595A (ja) * 2008-07-18 2010-02-04 Olympus Corp 信号処理システム及び信号処理プログラム
JP2011022647A (ja) * 2009-07-13 2011-02-03 Fujifilm Corp 検査画像判定装置、スケール、検査画像判定方法およびプログラム
JP2009273146A (ja) * 2009-08-10 2009-11-19 Olympus Corp デジタルカメラ
JP2020201540A (ja) * 2019-06-06 2020-12-17 キヤノン株式会社 画像処理方法、画像処理装置、画像処理システム、学習済みウエイトの製造方法、および、プログラム

Also Published As

Publication number Publication date
CN117769838A (zh) 2024-03-26

Similar Documents

Publication Publication Date Title
JP4375781B2 (ja) 画像処理装置および画像処理方法並びにプログラムおよび記録媒体
US8103119B2 (en) Image processing device, image processing method, image processing program product, and image-capturing device
US9342872B2 (en) Color correction parameter computation method, color correction parameter computation device, and image output system
US20050280716A1 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method and image processing system
JP2009038524A (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP3972816B2 (ja) 画像処理装置および表色系変換方法
JP2004341762A (ja) 画像処理装置
JP3539665B2 (ja) 顔領域補正方法、顔領域補正装置および顔領域補正プログラムを記録した記録媒体
JP4774757B2 (ja) 画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法
KR101006334B1 (ko) 영상 처리 장치 및 영상 처리 방법과, 영상 처리 방법이 기록된 기록 매체
WO2023032374A1 (ja) データ生成方法、学習方法、撮像装置、及びプログラム
Le et al. Gamutnet: Restoring wide-gamut colors for camera-captured images
JP5962169B2 (ja) デジタルカメラ、色変換プログラムおよび記録制御プログラム
JP4375580B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP6413210B2 (ja) 画像処理装置、撮像装置およびプログラム
US20100238300A1 (en) Color control apparatus, method for creating color control system, and method for creating color reproduction apparatus
JP3912196B2 (ja) 色変換表作成装置、色変換表作成方法、色変換表作成プログラムを記録した記録媒体、および、上記装置または方法によって作成された色変換表に基づいてプロファイルを作成するプロファイル作成装置
JP5810593B2 (ja) 画像処理装置、撮像装置およびプログラム
JP4784097B2 (ja) 信号処理方法、信号処理装置、信号処理手順を格納した記憶媒体
JP6318497B2 (ja) 画像処理装置、撮像装置およびプログラム
JP2004356796A (ja) 画像処理装置
CN113556525B (zh) 色温调整方法、装置、计算机设备和存储介质
JP5056006B2 (ja) 撮像装置およびプログラム
JP4224933B2 (ja) 画像処理方法、画像処理装置、および画像処理プログラムを記録した記録媒体
JP2019022228A (ja) 画像処理装置、撮像装置およびプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2023545087

Country of ref document: JP