JP2021043722A - 映像処理装置、および、映像処理方法 - Google Patents

映像処理装置、および、映像処理方法 Download PDF

Info

Publication number
JP2021043722A
JP2021043722A JP2019165576A JP2019165576A JP2021043722A JP 2021043722 A JP2021043722 A JP 2021043722A JP 2019165576 A JP2019165576 A JP 2019165576A JP 2019165576 A JP2019165576 A JP 2019165576A JP 2021043722 A JP2021043722 A JP 2021043722A
Authority
JP
Japan
Prior art keywords
image
inference
unit
video
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019165576A
Other languages
English (en)
Inventor
秀真 西川
Shuma Nishikawa
秀真 西川
西澤 明仁
Akihito Nishizawa
明仁 西澤
康介 白井
Kosuke Shirai
康介 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2019165576A priority Critical patent/JP2021043722A/ja
Publication of JP2021043722A publication Critical patent/JP2021043722A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】被写体をカラー撮影する映像処理において、撮影環境の影響を抑制して高精度な機械学習の推論処理および機械学習の学習処理を実現すること。【解決手段】映像処理装置1は、推論対象被写体11を撮影した評価映像と、評価映像の撮影に使用された撮影環境についての特性である撮影環境特性とを推論モデル3mに入力することで、推論対象被写体11の機械学習における推論処理を行う推論部3を有する。推論部3は、評価映像をカラー映像データに光電変換したときに用いられる色分解フィルタ22の特性を、撮影環境特性として用いる。または、推論部3は、評価映像を撮影したときの光源を用いて、複数の有色領域を有する撮影環境特性評価チャート13を撮影した特性映像を、撮影環境特性として用いる。【選択図】 図3

Description

本発明は、映像処理装置、および、映像処理方法に関わる。
特許文献1には、以下のように記載されている。
「撮像装置のセンサ値による入力画像を取得する取得手段と、変換部を有する識別器を用いて、取得されたセンサ値による入力画像を識別する識別手段と、を有し、識別器のうち少なくとも変換部は、撮像装置のセンサ値による学習画像とその学習画像に付与された正解データとに基づいて学習されていることを特徴とする画像識別装置。」
特開2019−28650号広報
光源からの入射光が被写体に当てられ、その反射光を撮像装置のイメージセンサが受光することにより、被写体を映す映像が生成される。よって、被写体の映像信号は、被写体本来の色を示す反射係数に、光源の特性を乗じた結果になる。
そのため、映像信号として記録されている色情報は、光源の特性の影響を受けて、被写体本来の色情報とは異なることもある。そのときには、被写体本来の色を特定できないので、被写体の判断ができない場合もある。例えば、赤色の映像信号として記録されている被写体は、赤色の光源を当てた白色の被写体である可能性もあるし、白色の光源を当てた赤色の被写体である可能性もある。
このような光源などの撮影環境に依存する特性の影響により、DL(Deep Learning)などの機械学習に用いられる識別器(推論モデル)の学習精度または推論精度が低下してしまう。よって、撮影環境の影響を抑制し、被写体本来の色情報をもとに識別器の推論および学習を行うことが重要である。しかし、特許文献1では、センサ値による入力画像の識別を行うことが記載されているだけであり、撮影環境の影響についての検討はなされていない。
そこで、本発明は、被写体をカラー撮影する映像処理において、撮影環境の影響を抑制して高精度な機械学習の推論処理および機械学習の学習処理を実現することを、主な課題とする。
前記課題を解決するために、本発明の映像処理装置は、以下の特徴を有する。
本発明は、推論対象被写体をカラー撮影した評価映像と、前記評価映像の撮影に使用された撮影環境についての特性である撮影環境特性とを推論モデルに入力することで、前記推論対象被写体の機械学習における推論処理を行う推論部を有することを特徴とする。
その他の手段は、後記する。
本発明によれば、被写体をカラー撮影する映像処理において、撮影環境の影響を抑制して高精度な機械学習の推論処理および機械学習の学習処理を実現することができる。
本発明の一実施形態に関する撮影環境特性のうちの光源特性の説明図である。 本発明の一実施形態に関する撮影環境特性のうちの光電変換特性の説明図である。 本発明の一実施形態に関する第1推論例の概要図である。 本発明の一実施形態に関する第2推論例の概要図である。 本発明の一実施形態に関する第3推論例の概要図である。 本発明の一実施形態に関する第1学習例の概要図である。 本発明の一実施形態に関する第2学習例の概要図である。 本発明の一実施形態に関する第3学習例の概要図である。 本発明の一実施形態に関する第1,第2推論例で共通する構成図である。 本発明の一実施形態に関する第3推論例の構成図である。 本発明の一実施形態に関する第1,第2学習例で共通する構成図である。 本発明の一実施形態に関する第3学習例の構成図である。 本発明の一実施形態に関する第1推論例のフローチャートである。 本発明の一実施形態に関する第2推論例のフローチャートである。 本発明の一実施形態に関する第3推論例のフローチャートである。 本発明の一実施形態に関する第1学習例のフローチャートである。 本発明の一実施形態に関する第2学習例のフローチャートである。 本発明の一実施形態に関する第3学習例のフローチャートである。
以下、本発明の一実施形態を、図面を参照して詳細に説明する。
映像処理装置1(図3)は、DL(Deep Learning)などの機械学習に用いられる識別器(図3の推論モデル3m)を用いた、機械学習における推論処理を行う。映像処理装置1(図6)は、その推論モデル3mを生成するための機械学習における学習処理を行う。
ここで、本実施形態の映像処理装置1の主な特徴は、推論モデル3mに対する入力データとして、評価対象(推論対象、学習対象)の被写体映像に加えて、その被写体映像を撮影したときの撮影環境特性を用いる点である。以下、図1,図2を参照して、撮影環境特性の詳細を説明する。
図1は、撮影環境特性のうちの光源特性の説明図である。
評価対象の被写体に当てられる光源からの入射光の特性(以下、光源特性)は、撮影環境特性の一例である。そこで、光源特性を測定するための撮影環境特性評価チャート13を、評価対象の被写体とは別に用意する。撮影環境特性評価チャート13は、例えば、有色領域として、青色領域13B、緑色領域13G、赤色領域13Rを含む物体として構成される。
撮影環境特性評価チャート13の波長別反射係数のグラフ14には、3色の有色領域に対応して、3つのピーク14B,14G,14Rが形成される。この3つのピーク14B,14G,14Rは撮影環境特性評価チャート13本来の色とも言える。
光源特性のグラフ15は、波長別反射係数のグラフ14と同様に、横軸を波長とする。光源特性のグラフ15の縦軸は入射光の波長別の強度である。図1の例では、右上がりのグラフなので、赤色成分が強めの(赤みがかった)入射光が光源から出力されている。
映像信号のグラフ16は、光源特性のグラフ15で示す入射光を撮影環境特性評価チャート13に当てて撮影した結果である。波長別反射係数のグラフ14と比較すると、赤色成分が強めの入射光の影響により、青色ピーク16Bが本来の色より弱い信号となり、赤色ピーク16Rが本来の色より強い信号となって撮影されている。
このように、波長別反射係数のグラフ14と、映像信号のグラフ16とをもとに、光源特性のグラフ15を撮影環境特性として取得することができる。また、撮影環境特性評価チャート13には、3色の有色領域を設ける代わりに、1つの無彩色領域(グレー色または白色)を設けることで、全ての波長で同じ反射係数になるようにしてもよい。
図2は、撮影環境特性のうちの光電変換特性の説明図である。
評価対象の被写体からの反射光をセンシングしたアナログの光信号を、デジタルの映像データに変換するときの光電変換特性も、撮影環境特性の一例である。
光電変換特性は、例えば、色分解フィルタ22の分光特性として定義される。色分解フィルタ22は、レンズ21(図9)で結像した被写体像を複数の波長帯に分解する。色分解フィルタ22は、分光プリズムであってもよい。このように被写体像を複数の波長帯に分解することで、単一波長フィルタでは識別できなかった色の違いを認識できるため、推論処理の精度が向上する。
色分解フィルタ22は、ピクセルごとのフィルタを縦方向および横方向に配置したベイヤー配列型で構成される。
フィルタの構成要素は、以下の通りである。
・赤色の波長を通すRフィルタ(図示では「R」)
・緑色の波長を通すGフィルタ(図示では「G」)
・青色の波長を通すBフィルタ(図示では「B」)
・フィルタなしの部分(図示では「C」)
・近赤外領域の波長を通すNIRフィルタ(図示では「N」)
色分解フィルタ22aは、Rフィルタ、Gフィルタ、Bフィルタから構成される。
色分解フィルタ22bは、Rフィルタ、Gフィルタ、Bフィルタ、フィルタなしの部分から構成される。
色分解フィルタ22cは、Rフィルタ、Gフィルタ、Bフィルタ、NIRフィルタから構成される。
同じ被写体をカラー撮影した場合でも、光源特性が異なる場合や、使用する色分解フィルタ22a〜22cが異なる場合には、波長ごとに異なる強度の光信号が出力される。
以下、図3〜図8を参照して、撮影環境特性を用いた3つの推論例(第1〜第3推論例)と、3つの学習例(第1〜第3学習例)を順に説明する。これらの例を区別して説明するために、まずは制御用情報として「シーン情報」および「モード情報」を定義する。
シーン情報は、撮像部2から出力された映像(または映像の一部である領域)に何が写っているかを指定する情報である。本明細書では、以下の3つのシーン情報を用いる。
・「推論シーン」とは、入力映像から推論対象被写体11(図3〜図5)を記録するためのシーンである。
・「学習シーン」とは、入力映像から学習対象被写体12(図6〜図8)を記録するためのシーンである。
・「環境シーン」とは、入力映像から撮影環境特性評価チャート13(図3〜図8)を記録するためのシーンである。
モード情報は、シーン情報をどのように取得するかを指定する情報である。本明細書では、以下の2つのモード情報を用いる。
・「手動モード」とは、ユーザにより手動で入力されたシーン情報をそのまま採用するモードである。
・「自動モード」とは、ユーザによるシーン情報の入力を省略するモードであり、入力映像からシーン情報が自動判定される。
図3は、第1推論例の概要図である。第1推論例は、手動モードで予め撮影環境特性を取得しておき(符号111)、その撮影環境特性を活用して被写体の推論を行う(符号112)例である。
映像処理装置1は、撮像部2と、推論部3を有する。
なお、映像処理装置1は、CPU(Central Processing Unit)と、メモリと、ハードディスクなどの記憶手段(記憶部)と、ネットワークインタフェースとを有するコンピュータとして構成される。
このコンピュータは、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。
撮像部2は、手動モードで環境シーンが指定されると、撮影環境特性評価チャート13を撮影する(符号111)。その後、撮像部2は、手動モードで推論シーンが指定されると、推論対象被写体11を撮影する(符号112)。そして、推論部3は、環境シーンの映像と推論シーンの映像とを推論モデル3mに入力することで、推論対象被写体11を推論する。
なお、図2で説明したように、推論モデル3mに入力される撮影環境特性を示すデータは、撮影環境特性評価チャート13の映像データに限定されず、光源特性を示すデータ、光電変換特性を示すデータでもよい。撮影環境特性を示すデータのデータフォーマットも映像データ以外のデータフォーマットとしてもよく、例えば、図1の映像信号のグラフ16、図2の色分解フィルタ22a〜cのいずれかを特定するフィルタ識別子などを用いることができる。
図4は、第2推論例の概要図である。第2推論例は、自動モードで推論実行時の映像から撮影環境特性を取得し、その撮影環境特性を活用して被写体の推論を行う例である。
撮像部2は、自動モードにより、環境シーン(例えば映像内の左側範囲に映る撮影環境特性評価チャート13)の撮影と、推論シーン(例えば映像内の右側範囲に映る推論対象被写体11)の撮影とを自動で切り替える。そして、推論部3は、環境シーンの映像と推論シーンの映像とを推論モデル3mに入力することで、推論対象被写体11を推論する。
図5は、第3推論例の概要図である。第3推論例は、撮影環境特性を取得するための第1撮像部2Aと、推論対象被写体11を撮影するための第2撮像部2Bとを別々に用意して被写体の推論を行う例である。
第1撮像部2Aは、撮影環境特性評価チャート13を撮影し続ける。第2撮像部2Bは、推論対象被写体11を撮影し続ける。そして、推論部3は、第1撮像部2Aの映像と第2撮像部2Bの映像とを推論モデル3mに入力することで、推論対象被写体11を推論する。
図6は、第1学習例の概要図である。推論対象被写体11が学習対象被写体12に変更されることで、図3の第1推論例における推論部3が、図6の第1学習例では学習部4に置き換わる。
図7は、第2学習例の概要図である。推論対象被写体11が学習対象被写体12に変更されることで、図4の第2推論例における推論部3が、図7の第2学習例では学習部4に置き換わる。
図8は、第3学習例の概要図である。推論対象被写体11が学習対象被写体12に変更されることで、図5の第3推論例における推論部3が、図8の第3学習例では学習部4に置き換わる。
図9は、第1,第2推論例で共通する構成図である。
撮像部2は、絞り21a付きのレンズ21と、色分解フィルタ22と、光電変換部23と、増幅部24と、AD変換部25と、IF26と、ドライバ27と、IF28とを有する。
レンズ21は、被写体を結像させる。絞り21aは、被写体からの光の量を調節する。色分解フィルタ22は、レンズ21で結像した被写体像を複数の波長帯に分解する。光電変換部23は、色分解フィルタ22から得られた光信号を電気信号に変換する。
増幅部24は、光電変換部23から得た電気信号を増幅する。AD変換部25は、増幅部24から得たアナログ信号をデジタル化する。
IF26は、AD変換部25から得たデジタル信号を外部出力する。ドライバ27は、レンズ21や絞り21aを制御する。IF28は、増幅部24とドライバ27の制御を行う外部からの信号を受け取る。
なお、IF26は、推論部3に外部出力する映像データについて、現像処理を行わないRAWデータを出力することが望ましい。このように従来のカメラにある現像処理を取り除くことで、被写体像の情報量の損失を防止し、高精度の推論処理ができる。
推論部3は、シーン判定部31と、モード入力部32と、格納先指定部33と、格納先選択部34と、特性映像格納部35と、評価映像格納部36と、推論実行部37と、CPU38と有する。
シーン判定部31は、撮像部2から出力された映像(出力映像)を受け付け、そのシーン情報を判定する。この判定処理とは、手動モードならモード入力部32に入力されたシーン情報をそのまま採用し、自動モードなら撮像部2から出力された映像を画像解析するなどして、シーン情報を自動的に判定する。
モード入力部32は、管理者などからモード情報と、手動モードにおけるシーン情報の入力を受け取る。
格納先指定部33は、シーン情報に従った出力映像の格納先として、特性映像格納部35または評価映像格納部36のいずれかを指定する。
格納先選択部34は、格納先指定部33から出力された格納先指定の情報をもとに、出力映像を格納先に書き出す。特性映像格納部35は、環境シーンの出力映像(撮影環境特性評価チャート13の映像)を格納する。評価映像格納部36は、推論シーンの出力映像(推論対象被写体11)を格納する。
推論実行部37は、特性映像格納部35の映像と、評価映像格納部36の映像とを推論モデル3mに入力することで、推論対象被写体11を推論する。
CPU38は、推論実行部37を制御する信号と、IF28を介して増幅部24とドライバ27とを制御する信号をそれぞれ通知する。
図10は、第3推論例の構成図である。
第1撮像部2Aおよび第2撮像部2Bは、それぞれ図9の撮像部2と同じ構成を有する。なお、図10では撮像部2の構成の一部(色分解フィルタ22、光電変換部23、増幅部24、AD変換部25、ドライバ27)を図示省略するが、省略された構成も撮像部2に備えられている。
また、第3推論例では、図5で説明したように、第1撮像部2Aが撮影環境特性評価チャート13の撮影に用いられ、第2撮像部2Bが推論対象被写体11の撮影に用いられるように、1:1に(固定的に)対応づけられる。よって、シーン情報やモード情報を元にした制御が不要となるので、推論部3の構成の一部(図9のシーン判定部31、モード入力部32、格納先指定部33、格納先選択部34)は省略可能である。
さらに、推論部3は、第1撮像部2Aからの入力映像を特性映像格納部35に格納するとともに、第2撮像部2Bからの入力映像を評価映像格納部36に格納するように構成されている。そのため、CPU38からの制御信号の出力先も2系統のIF28になるように拡張される。
図11は、第1,第2学習例で共通する構成図である。
図9の推論部3と図11の学習部4とは、ほぼ同じ構成であり、推論部3の推論実行部37が学習部4の学習実行部47に置き換わる。
学習実行部47は、特性映像格納部35の映像(撮影環境特性評価チャート13の映像)と、評価映像格納部36の映像(学習対象被写体12の映像)と、管理者などが入力した学習対象被写体12の教師ラベル(正解の推論結果、例えば学習対象被写体12が誰であるか)とをもとに、推論モデル3mを学習する。
図12は、第3学習例の構成図である。
図12の第3学習例と、図10の第3推論例とを比較すると、推論部3の推論実行部37が学習部4の学習実行部47に置き換わる。その他の図12の構成は、図10と同じである。
以上、図9〜図12を参照して、各構成図を説明した。以下、図13〜図18を参照して、各処理の詳細をフローチャートで説明する。
図13は、第1推論例のフローチャートである。
S101として、撮像部2は、撮影環境特性評価チャート13を撮像する。具体的には、撮像部2は、撮影環境特性評価チャート13からの光をレンズ21を介して、色分解フィルタ22で複数の色信号に波長帯域毎に分解し、光電変換部23で電気信号に変換する。そして、撮像部2は、増幅部24で電気信号の増幅を行い、AD変換部25で信号のAD変換を行い、IF26を介して撮影環境特性評価チャート13の映像を推論部3に入力する。
そして、モード入力部32は、S101の撮像映像に対して、手動モードとして環境シーンの指定を受け付ける。
S102として、格納先指定部33は、環境シーンの指定に従い、S101の撮像映像の格納先を特性映像格納部35に指定する。
S103として、格納先選択部34は、S102で指定された特性映像格納部35に、S101の撮像映像を格納する。
S111として、撮像部2は、推論対象被写体11を撮像する。具体的には、撮像部2は、推論対象被写体11からの光をレンズ21を介して、色分解フィルタ22で複数の色信号に波長帯域毎に分解し、光電変換部23で電気信号に変換する。そして、撮像部2は、増幅部24で電気信号の増幅を行い、AD変換部25で信号のAD変換を行い、IF26を介して推論対象被写体11の映像を推論部3に入力する。
そして、モード入力部32は、S111の撮像映像に対して、手動モードとして推論シーンの指定を管理者などから受け付ける。
S112として、シーン判定部31によりS111の撮像映像が推論シーンとして判定されたので、格納先指定部33は、S111の撮像映像の格納先を評価映像格納部36に指定する。
S113として、格納先選択部34は、S112で指定された評価映像格納部36に、S111の撮像映像を格納する。
S121として、推論実行部37は、S103で格納されたS101の撮像映像と、S113で格納されたS111の撮像映像との両映像を組み合わせて推論モデル3mに入力することで、推論モデル3mに入力映像に対応する推論結果を出力させる旨の推論処理を実行する。推論部3は、推論実行結果を外部出力する。
図14は、第2推論例のフローチャートである。
S131として、撮像部2は、撮影環境特性評価チャート13と推論対象被写体11との両方が映っている映像を撮像し、その撮像結果を推論部3に入力する(S101、S111と同様)。
S132として、モード入力部32は、S131の撮像映像の扱いを自動モードとする旨の入力を管理者などから受け付ける。
S133として、シーン判定部31は、S132の自動モードに従いS131の撮像映像を自動でシーン判定する。このシーン判定により、推論シーンに該当する撮像映像と、環境シーンに該当する撮像映像とがそれぞれS131の撮像映像から抽出される。
格納先選択部34は、抽出された環境シーンの映像を特性映像格納部35に格納し(S103)、抽出された推論シーンの映像を評価映像格納部36に格納する(S113)。この映像格納処理は、撮像が完了するまで(S134,Yes)継続される。
S121として、推論実行部37は、図13で説明したように、格納された両映像に対して推論処理を実行する。
図15は、第3推論例のフローチャートである。
S101Bとして、第1撮像部2Aは、撮影環境特性評価チャート13を撮像する。図13でのS102の処理は、図15では省略される。
S103として、推論部3は、S101Bの撮像映像を特性映像格納部35に格納する。
S111Bとして、第2撮像部2Bは、推論対象被写体11を撮像する。図13でのS112の処理は、図15では省略される。
S113として、推論部3は、S111Bの撮像映像を評価映像格納部36に格納する。
なお、特性映像格納部35への映像格納処理(S101B、S103)と、評価映像格納部36への映像格納処理(S111B、S113)とは、互いに独立に(たとえば並列で)処理される。
S121の推論実行部37による推論処理は、図13で示したとおりである。
図16は、第1学習例のフローチャートである。
図13の第1推論例と比較すると、推論シーン(S111〜S121)が学習シーン(S111L〜S121L)に置き換わる。
つまり、モード入力部32は、S111Lの撮像映像に対して、手動モードとして学習シーンの指定を受け付ける。これにより、評価映像格納部36に格納される映像が、推論対象被写体11の映像から学習対象被写体12の映像に置き換わる。
そして、図13では推論実行部37が推論モデル3mを用いて推論処理を実行していたが(S121)、図16では学習実行部47がS103の映像とS113Lの映像との両映像をもとに、推論モデル3mを学習させる学習処理に置き換わる(S121L)。
図17は、第2学習例のフローチャートである。
図14の第2推論例と比較すると、S131の代わりのS131Lで、撮像部2が撮影環境特性評価チャート13と学習対象被写体12との両映像を同時に撮像する。
そして、S133の代わりのS133Lで、S132の自動モードにより環境シーンか学習シーンかを判定する。そして、学習シーンのときには、S113の代わりのS113Lで、格納先選択部34は、抽出された学習シーンの映像(学習対象被写体12の映像)を評価映像格納部36に格納する(S113)。
図18は、第3学習例のフローチャートである。
図15の第3推論例と比較すると、評価映像格納部36への映像格納処理(図15のS111B、S113)の処理対象が推論対象被写体11から学習対象被写体12に変更される(図18のS111BL、S113L)。
S121Lの学習処理は、図16で説明した通りである。
以上説明した本実施形態によれば、以下の各効果が得られる。
(1)推論対象被写体11の映像に加えて、光源の特性、光電変換の特性などの撮影環境特性を示すデータを推論モデル3mの推論処理に用いることで、撮影環境特性に依存しない推論対象被写体11本来の色を判断でき、高精度の推論処理を実現できる。
(2)学習対象被写体12の映像に加えて、撮影環境特性を示すデータを推論モデル3mの学習処理に用いることで、(1)の高精度の推論処理を実現するための推論モデル3mを作成できる。
(3)撮影環境特性を示すデータとして、撮影環境特性評価チャート13の映像を(1)の推論処理や(2)の学習処理に用いることで、推論モデル3mに入力する2つの映像データが同じフォーマットになる。よって、映像データ以外のフォーマットと比べて、推論モデル3mに関するソフトウェアおよびハードウェアの規模を削減できる。
(4)第1撮像部2Aおよび第2撮像部2Bを別々に用意する構成(第3推論例、第3学習例)では、撮像元から格納部への映像データの流れが1:1に対応づけられる。よって、シーン情報やモード情報を元にした制御が不要となり、推論部3や学習部4を実装するためのソフトウェアの規模を削減できる。
なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。
また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)などの記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
さらに、各装置を繋ぐ通信手段は、無線LANに限定せず、有線LANやその他の通信手段に変更してもよい。
1 映像処理装置
2 撮像部
2A 第1撮像部
2B 第2撮像部
3 推論部
3m 推論モデル
4 学習部
11 推論対象被写体
12 学習対象被写体
13 撮影環境特性評価チャート
21 レンズ
21a 絞り
22 色分解フィルタ
23 光電変換部
24 増幅部
25 AD変換部
26 IF
27 ドライバ
28 IF
31 シーン判定部
32 モード入力部
33 格納先指定部
34 格納先選択部
35 特性映像格納部
36 評価映像格納部
37 推論実行部
38 CPU
47 学習実行部

Claims (14)

  1. 推論対象被写体をカラー撮影した評価映像と、前記評価映像の撮影に使用された撮影環境についての特性である撮影環境特性とを推論モデルに入力することで、前記推論対象被写体の機械学習における推論処理を行う推論部を有することを特徴とする
    映像処理装置。
  2. 前記推論部は、前記評価映像をカラー映像データに光電変換したときに用いられる色分解フィルタの特性を、前記撮影環境特性として用いることを特徴とする
    請求項1に記載の映像処理装置。
  3. 前記推論部は、前記評価映像を撮影したときの光源を用いて、複数の有色領域を有する評価チャートを撮影した特性映像を、前記撮影環境特性として用いることを特徴とする
    請求項1に記載の映像処理装置。
  4. 前記推論部は、前記特性映像を撮影する撮像部から映像の入力を受け付けた後、前記評価映像を撮影する前記撮像部から映像の入力を受け付けることを特徴とする
    請求項3に記載の映像処理装置。
  5. 前記推論部は、撮像部から入力された映像から、事前に設定された前記評価映像の範囲と、事前に設定された前記特性映像の範囲とをもとに、前記評価映像および前記特性映像を取得することを特徴とする
    請求項3に記載の映像処理装置。
  6. 前記推論部は、前記特性映像を撮影する第1撮像部と、前記評価映像を撮影する第2撮像部とから、それぞれ映像の入力を受け付けることを特徴とする
    請求項3に記載の映像処理装置。
  7. 学習対象被写体をカラー撮影した評価映像と、前記評価映像の撮影に使用された撮影環境についての特性である撮影環境特性と、学習対象被写体の教師ラベルとをもとに、機械学習における推論モデルの学習処理を行う学習部を有することを特徴とする
    映像処理装置。
  8. 前記学習部は、前記評価映像をカラー映像データに光電変換したときに用いられる色分解フィルタの特性を、前記撮影環境特性として用いることを特徴とする
    請求項7に記載の映像処理装置。
  9. 前記学習部は、前記評価映像を撮影したときの光源を用いて、複数の有色領域を有する評価チャートを撮影した特性映像を、前記撮影環境特性として用いることを特徴とする
    請求項7に記載の映像処理装置。
  10. 前記学習部は、前記特性映像を撮影する撮像部から映像の入力を受け付けた後、前記評価映像を撮影する前記撮像部から映像の入力を受け付けることを特徴とする
    請求項9に記載の映像処理装置。
  11. 前記学習部は、撮像部から入力された映像から、事前に設定された前記評価映像の範囲と、事前に設定された前記特性映像の範囲とをもとに、前記評価映像および前記特性映像を取得することを特徴とする
    請求項9に記載の映像処理装置。
  12. 前記学習部は、前記特性映像を撮影する第1撮像部と、前記評価映像を撮影する第2撮像部とから、それぞれ映像の入力を受け付けることを特徴とする
    請求項9に記載の映像処理装置。
  13. 映像処理装置は、推論部を有しており、
    前記推論部は、推論対象被写体をカラー撮影した評価映像と、前記評価映像の撮影に使用された撮影環境についての特性である撮影環境特性とを推論モデルに入力することで、前記推論対象被写体の機械学習における推論処理を行うことを特徴とする
    映像処理方法。
  14. 映像処理装置は、学習部を有しており、
    前記学習部は、学習対象被写体をカラー撮影した評価映像と、前記評価映像の撮影に使用された撮影環境についての特性である撮影環境特性と、学習対象被写体の教師ラベルとをもとに、機械学習における推論モデルの学習処理を行うことを特徴とする
    映像処理方法。
JP2019165576A 2019-09-11 2019-09-11 映像処理装置、および、映像処理方法 Pending JP2021043722A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019165576A JP2021043722A (ja) 2019-09-11 2019-09-11 映像処理装置、および、映像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019165576A JP2021043722A (ja) 2019-09-11 2019-09-11 映像処理装置、および、映像処理方法

Publications (1)

Publication Number Publication Date
JP2021043722A true JP2021043722A (ja) 2021-03-18

Family

ID=74861614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019165576A Pending JP2021043722A (ja) 2019-09-11 2019-09-11 映像処理装置、および、映像処理方法

Country Status (1)

Country Link
JP (1) JP2021043722A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07274194A (ja) * 1994-03-29 1995-10-20 Olympus Optical Co Ltd カラー映像信号処理装置
JP2000020680A (ja) * 1998-06-29 2000-01-21 Toyo Ink Mfg Co Ltd 色修正装置
JP2008206163A (ja) * 2008-02-25 2008-09-04 Olympus Corp カラー画像処理装置
JP2017055242A (ja) * 2015-09-09 2017-03-16 富士通株式会社 色補正装置、色補正方法及び色補正用コンピュータプログラム
JP2019028650A (ja) * 2017-07-28 2019-02-21 キヤノン株式会社 画像識別装置、学習装置、画像識別方法、学習方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07274194A (ja) * 1994-03-29 1995-10-20 Olympus Optical Co Ltd カラー映像信号処理装置
JP2000020680A (ja) * 1998-06-29 2000-01-21 Toyo Ink Mfg Co Ltd 色修正装置
JP2008206163A (ja) * 2008-02-25 2008-09-04 Olympus Corp カラー画像処理装置
JP2017055242A (ja) * 2015-09-09 2017-03-16 富士通株式会社 色補正装置、色補正方法及び色補正用コンピュータプログラム
JP2019028650A (ja) * 2017-07-28 2019-02-21 キヤノン株式会社 画像識別装置、学習装置、画像識別方法、学習方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
矢田 紀子,外2名: "ヒューマンインフォメーション", 映像情報メディア学会誌 第59巻 第12号, vol. 第59巻, JPN6022042665, 2005, JP, ISSN: 0004958689 *

Similar Documents

Publication Publication Date Title
JP4186699B2 (ja) 撮像装置および画像処理装置
CN101841650B (zh) 适合于人物摄影的摄像装置
US20110317005A1 (en) Depth-Sensing Camera System
JP2008288629A (ja) 画像信号処理装置、撮像素子、および画像信号処理方法、並びにコンピュータ・プログラム
JP4874752B2 (ja) デジタルカメラ
JP5090146B2 (ja) 色変換係数算出装置、色変換係数算出プログラム、色変換係数算出方法
JP4250506B2 (ja) 画像処理方法、画像処理装置、画像処理プログラムおよび撮像システム
JP2021022758A (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2007278950A (ja) マルチバンド撮像装置およびカラーフィルタの特性設定方法
JP6969550B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP5052286B2 (ja) 分光特性補正装置、分光特性補正方法
WO2007148576A1 (ja) 撮像システム及び撮像プログラム
JP5464982B2 (ja) 撮像装置および画像処理方法
JP5288702B2 (ja) 色補正計算方法
JP2021043722A (ja) 映像処理装置、および、映像処理方法
JP5962169B2 (ja) デジタルカメラ、色変換プログラムおよび記録制御プログラム
JP4529210B2 (ja) 測色変換係数算出方法と測色画像変換方法、及び、測色変換係数算出装置と測色画像変換装置、並びに、測色変換係数算出プログラム又は測色的撮像プログラムを記録したコンピュータ読み取り可能な情報記録媒体
JP2009272709A (ja) 画像処理装置、方法及びプログラム
JP2018074607A (ja) 画像処理装置およびカメラ
JP4859502B2 (ja) 撮像装置
WO2013111824A1 (ja) 画像処理装置、撮像装置及び画像処理方法
JP5606300B2 (ja) 撮像装置及び撮像装置の制御方法
JP2008085975A (ja) 撮像素子特性評価方法および撮像素子特性評価装置
JP2021018754A (ja) 対象識別方法、情報処理装置、情報処理プログラム、光学フィルタ、および照明装置
JP2001116620A (ja) 測色変換係数算出方法と測色的撮像方法、および測色変換係数算出装置と測色的撮像装置、並びに測色変換プログラムを記録したコンピュータ読み取り可能な情報記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230110