JP2021043722A - 映像処理装置、および、映像処理方法 - Google Patents
映像処理装置、および、映像処理方法 Download PDFInfo
- Publication number
- JP2021043722A JP2021043722A JP2019165576A JP2019165576A JP2021043722A JP 2021043722 A JP2021043722 A JP 2021043722A JP 2019165576 A JP2019165576 A JP 2019165576A JP 2019165576 A JP2019165576 A JP 2019165576A JP 2021043722 A JP2021043722 A JP 2021043722A
- Authority
- JP
- Japan
- Prior art keywords
- image
- inference
- unit
- video
- evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 55
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000011156 evaluation Methods 0.000 claims abstract description 67
- 238000003384 imaging method Methods 0.000 claims abstract description 59
- 238000000926 separation method Methods 0.000 claims abstract description 19
- 238000010801 machine learning Methods 0.000 claims abstract description 14
- 230000000694 effects Effects 0.000 abstract description 3
- 238000006243 chemical reaction Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 23
- 238000000034 method Methods 0.000 description 16
- 230000003321 amplification Effects 0.000 description 9
- 238000003199 nucleic acid amplification method Methods 0.000 description 9
- 230000007613 environmental effect Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Abstract
Description
「撮像装置のセンサ値による入力画像を取得する取得手段と、変換部を有する識別器を用いて、取得されたセンサ値による入力画像を識別する識別手段と、を有し、識別器のうち少なくとも変換部は、撮像装置のセンサ値による学習画像とその学習画像に付与された正解データとに基づいて学習されていることを特徴とする画像識別装置。」
そのため、映像信号として記録されている色情報は、光源の特性の影響を受けて、被写体本来の色情報とは異なることもある。そのときには、被写体本来の色を特定できないので、被写体の判断ができない場合もある。例えば、赤色の映像信号として記録されている被写体は、赤色の光源を当てた白色の被写体である可能性もあるし、白色の光源を当てた赤色の被写体である可能性もある。
本発明は、推論対象被写体をカラー撮影した評価映像と、前記評価映像の撮影に使用された撮影環境についての特性である撮影環境特性とを推論モデルに入力することで、前記推論対象被写体の機械学習における推論処理を行う推論部を有することを特徴とする。
その他の手段は、後記する。
映像処理装置1(図3)は、DL(Deep Learning)などの機械学習に用いられる識別器(図3の推論モデル3m)を用いた、機械学習における推論処理を行う。映像処理装置1(図6)は、その推論モデル3mを生成するための機械学習における学習処理を行う。
ここで、本実施形態の映像処理装置1の主な特徴は、推論モデル3mに対する入力データとして、評価対象(推論対象、学習対象)の被写体映像に加えて、その被写体映像を撮影したときの撮影環境特性を用いる点である。以下、図1,図2を参照して、撮影環境特性の詳細を説明する。
評価対象の被写体に当てられる光源からの入射光の特性(以下、光源特性)は、撮影環境特性の一例である。そこで、光源特性を測定するための撮影環境特性評価チャート13を、評価対象の被写体とは別に用意する。撮影環境特性評価チャート13は、例えば、有色領域として、青色領域13B、緑色領域13G、赤色領域13Rを含む物体として構成される。
光源特性のグラフ15は、波長別反射係数のグラフ14と同様に、横軸を波長とする。光源特性のグラフ15の縦軸は入射光の波長別の強度である。図1の例では、右上がりのグラフなので、赤色成分が強めの(赤みがかった)入射光が光源から出力されている。
このように、波長別反射係数のグラフ14と、映像信号のグラフ16とをもとに、光源特性のグラフ15を撮影環境特性として取得することができる。また、撮影環境特性評価チャート13には、3色の有色領域を設ける代わりに、1つの無彩色領域(グレー色または白色)を設けることで、全ての波長で同じ反射係数になるようにしてもよい。
評価対象の被写体からの反射光をセンシングしたアナログの光信号を、デジタルの映像データに変換するときの光電変換特性も、撮影環境特性の一例である。
光電変換特性は、例えば、色分解フィルタ22の分光特性として定義される。色分解フィルタ22は、レンズ21(図9)で結像した被写体像を複数の波長帯に分解する。色分解フィルタ22は、分光プリズムであってもよい。このように被写体像を複数の波長帯に分解することで、単一波長フィルタでは識別できなかった色の違いを認識できるため、推論処理の精度が向上する。
色分解フィルタ22は、ピクセルごとのフィルタを縦方向および横方向に配置したベイヤー配列型で構成される。
フィルタの構成要素は、以下の通りである。
・赤色の波長を通すRフィルタ(図示では「R」)
・緑色の波長を通すGフィルタ(図示では「G」)
・青色の波長を通すBフィルタ(図示では「B」)
・フィルタなしの部分(図示では「C」)
・近赤外領域の波長を通すNIRフィルタ(図示では「N」)
色分解フィルタ22bは、Rフィルタ、Gフィルタ、Bフィルタ、フィルタなしの部分から構成される。
色分解フィルタ22cは、Rフィルタ、Gフィルタ、Bフィルタ、NIRフィルタから構成される。
同じ被写体をカラー撮影した場合でも、光源特性が異なる場合や、使用する色分解フィルタ22a〜22cが異なる場合には、波長ごとに異なる強度の光信号が出力される。
シーン情報は、撮像部2から出力された映像(または映像の一部である領域)に何が写っているかを指定する情報である。本明細書では、以下の3つのシーン情報を用いる。
・「推論シーン」とは、入力映像から推論対象被写体11(図3〜図5)を記録するためのシーンである。
・「学習シーン」とは、入力映像から学習対象被写体12(図6〜図8)を記録するためのシーンである。
・「環境シーン」とは、入力映像から撮影環境特性評価チャート13(図3〜図8)を記録するためのシーンである。
・「手動モード」とは、ユーザにより手動で入力されたシーン情報をそのまま採用するモードである。
・「自動モード」とは、ユーザによるシーン情報の入力を省略するモードであり、入力映像からシーン情報が自動判定される。
映像処理装置1は、撮像部2と、推論部3を有する。
なお、映像処理装置1は、CPU(Central Processing Unit)と、メモリと、ハードディスクなどの記憶手段(記憶部)と、ネットワークインタフェースとを有するコンピュータとして構成される。
このコンピュータは、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。
なお、図2で説明したように、推論モデル3mに入力される撮影環境特性を示すデータは、撮影環境特性評価チャート13の映像データに限定されず、光源特性を示すデータ、光電変換特性を示すデータでもよい。撮影環境特性を示すデータのデータフォーマットも映像データ以外のデータフォーマットとしてもよく、例えば、図1の映像信号のグラフ16、図2の色分解フィルタ22a〜cのいずれかを特定するフィルタ識別子などを用いることができる。
撮像部2は、自動モードにより、環境シーン(例えば映像内の左側範囲に映る撮影環境特性評価チャート13)の撮影と、推論シーン(例えば映像内の右側範囲に映る推論対象被写体11)の撮影とを自動で切り替える。そして、推論部3は、環境シーンの映像と推論シーンの映像とを推論モデル3mに入力することで、推論対象被写体11を推論する。
第1撮像部2Aは、撮影環境特性評価チャート13を撮影し続ける。第2撮像部2Bは、推論対象被写体11を撮影し続ける。そして、推論部3は、第1撮像部2Aの映像と第2撮像部2Bの映像とを推論モデル3mに入力することで、推論対象被写体11を推論する。
図7は、第2学習例の概要図である。推論対象被写体11が学習対象被写体12に変更されることで、図4の第2推論例における推論部3が、図7の第2学習例では学習部4に置き換わる。
図8は、第3学習例の概要図である。推論対象被写体11が学習対象被写体12に変更されることで、図5の第3推論例における推論部3が、図8の第3学習例では学習部4に置き換わる。
撮像部2は、絞り21a付きのレンズ21と、色分解フィルタ22と、光電変換部23と、増幅部24と、AD変換部25と、IF26と、ドライバ27と、IF28とを有する。
レンズ21は、被写体を結像させる。絞り21aは、被写体からの光の量を調節する。色分解フィルタ22は、レンズ21で結像した被写体像を複数の波長帯に分解する。光電変換部23は、色分解フィルタ22から得られた光信号を電気信号に変換する。
増幅部24は、光電変換部23から得た電気信号を増幅する。AD変換部25は、増幅部24から得たアナログ信号をデジタル化する。
なお、IF26は、推論部3に外部出力する映像データについて、現像処理を行わないRAWデータを出力することが望ましい。このように従来のカメラにある現像処理を取り除くことで、被写体像の情報量の損失を防止し、高精度の推論処理ができる。
シーン判定部31は、撮像部2から出力された映像(出力映像)を受け付け、そのシーン情報を判定する。この判定処理とは、手動モードならモード入力部32に入力されたシーン情報をそのまま採用し、自動モードなら撮像部2から出力された映像を画像解析するなどして、シーン情報を自動的に判定する。
モード入力部32は、管理者などからモード情報と、手動モードにおけるシーン情報の入力を受け取る。
格納先選択部34は、格納先指定部33から出力された格納先指定の情報をもとに、出力映像を格納先に書き出す。特性映像格納部35は、環境シーンの出力映像(撮影環境特性評価チャート13の映像)を格納する。評価映像格納部36は、推論シーンの出力映像(推論対象被写体11)を格納する。
推論実行部37は、特性映像格納部35の映像と、評価映像格納部36の映像とを推論モデル3mに入力することで、推論対象被写体11を推論する。
CPU38は、推論実行部37を制御する信号と、IF28を介して増幅部24とドライバ27とを制御する信号をそれぞれ通知する。
第1撮像部2Aおよび第2撮像部2Bは、それぞれ図9の撮像部2と同じ構成を有する。なお、図10では撮像部2の構成の一部(色分解フィルタ22、光電変換部23、増幅部24、AD変換部25、ドライバ27)を図示省略するが、省略された構成も撮像部2に備えられている。
また、第3推論例では、図5で説明したように、第1撮像部2Aが撮影環境特性評価チャート13の撮影に用いられ、第2撮像部2Bが推論対象被写体11の撮影に用いられるように、1:1に(固定的に)対応づけられる。よって、シーン情報やモード情報を元にした制御が不要となるので、推論部3の構成の一部(図9のシーン判定部31、モード入力部32、格納先指定部33、格納先選択部34)は省略可能である。
さらに、推論部3は、第1撮像部2Aからの入力映像を特性映像格納部35に格納するとともに、第2撮像部2Bからの入力映像を評価映像格納部36に格納するように構成されている。そのため、CPU38からの制御信号の出力先も2系統のIF28になるように拡張される。
図9の推論部3と図11の学習部4とは、ほぼ同じ構成であり、推論部3の推論実行部37が学習部4の学習実行部47に置き換わる。
学習実行部47は、特性映像格納部35の映像(撮影環境特性評価チャート13の映像)と、評価映像格納部36の映像(学習対象被写体12の映像)と、管理者などが入力した学習対象被写体12の教師ラベル(正解の推論結果、例えば学習対象被写体12が誰であるか)とをもとに、推論モデル3mを学習する。
図12の第3学習例と、図10の第3推論例とを比較すると、推論部3の推論実行部37が学習部4の学習実行部47に置き換わる。その他の図12の構成は、図10と同じである。
図13は、第1推論例のフローチャートである。
S101として、撮像部2は、撮影環境特性評価チャート13を撮像する。具体的には、撮像部2は、撮影環境特性評価チャート13からの光をレンズ21を介して、色分解フィルタ22で複数の色信号に波長帯域毎に分解し、光電変換部23で電気信号に変換する。そして、撮像部2は、増幅部24で電気信号の増幅を行い、AD変換部25で信号のAD変換を行い、IF26を介して撮影環境特性評価チャート13の映像を推論部3に入力する。
そして、モード入力部32は、S101の撮像映像に対して、手動モードとして環境シーンの指定を受け付ける。
S102として、格納先指定部33は、環境シーンの指定に従い、S101の撮像映像の格納先を特性映像格納部35に指定する。
S103として、格納先選択部34は、S102で指定された特性映像格納部35に、S101の撮像映像を格納する。
そして、モード入力部32は、S111の撮像映像に対して、手動モードとして推論シーンの指定を管理者などから受け付ける。
S112として、シーン判定部31によりS111の撮像映像が推論シーンとして判定されたので、格納先指定部33は、S111の撮像映像の格納先を評価映像格納部36に指定する。
S113として、格納先選択部34は、S112で指定された評価映像格納部36に、S111の撮像映像を格納する。
S131として、撮像部2は、撮影環境特性評価チャート13と推論対象被写体11との両方が映っている映像を撮像し、その撮像結果を推論部3に入力する(S101、S111と同様)。
S132として、モード入力部32は、S131の撮像映像の扱いを自動モードとする旨の入力を管理者などから受け付ける。
S133として、シーン判定部31は、S132の自動モードに従いS131の撮像映像を自動でシーン判定する。このシーン判定により、推論シーンに該当する撮像映像と、環境シーンに該当する撮像映像とがそれぞれS131の撮像映像から抽出される。
格納先選択部34は、抽出された環境シーンの映像を特性映像格納部35に格納し(S103)、抽出された推論シーンの映像を評価映像格納部36に格納する(S113)。この映像格納処理は、撮像が完了するまで(S134,Yes)継続される。
S121として、推論実行部37は、図13で説明したように、格納された両映像に対して推論処理を実行する。
S101Bとして、第1撮像部2Aは、撮影環境特性評価チャート13を撮像する。図13でのS102の処理は、図15では省略される。
S103として、推論部3は、S101Bの撮像映像を特性映像格納部35に格納する。
S111Bとして、第2撮像部2Bは、推論対象被写体11を撮像する。図13でのS112の処理は、図15では省略される。
S113として、推論部3は、S111Bの撮像映像を評価映像格納部36に格納する。
なお、特性映像格納部35への映像格納処理(S101B、S103)と、評価映像格納部36への映像格納処理(S111B、S113)とは、互いに独立に(たとえば並列で)処理される。
S121の推論実行部37による推論処理は、図13で示したとおりである。
図13の第1推論例と比較すると、推論シーン(S111〜S121)が学習シーン(S111L〜S121L)に置き換わる。
つまり、モード入力部32は、S111Lの撮像映像に対して、手動モードとして学習シーンの指定を受け付ける。これにより、評価映像格納部36に格納される映像が、推論対象被写体11の映像から学習対象被写体12の映像に置き換わる。
そして、図13では推論実行部37が推論モデル3mを用いて推論処理を実行していたが(S121)、図16では学習実行部47がS103の映像とS113Lの映像との両映像をもとに、推論モデル3mを学習させる学習処理に置き換わる(S121L)。
図14の第2推論例と比較すると、S131の代わりのS131Lで、撮像部2が撮影環境特性評価チャート13と学習対象被写体12との両映像を同時に撮像する。
そして、S133の代わりのS133Lで、S132の自動モードにより環境シーンか学習シーンかを判定する。そして、学習シーンのときには、S113の代わりのS113Lで、格納先選択部34は、抽出された学習シーンの映像(学習対象被写体12の映像)を評価映像格納部36に格納する(S113)。
図15の第3推論例と比較すると、評価映像格納部36への映像格納処理(図15のS111B、S113)の処理対象が推論対象被写体11から学習対象被写体12に変更される(図18のS111BL、S113L)。
S121Lの学習処理は、図16で説明した通りである。
(1)推論対象被写体11の映像に加えて、光源の特性、光電変換の特性などの撮影環境特性を示すデータを推論モデル3mの推論処理に用いることで、撮影環境特性に依存しない推論対象被写体11本来の色を判断でき、高精度の推論処理を実現できる。
(2)学習対象被写体12の映像に加えて、撮影環境特性を示すデータを推論モデル3mの学習処理に用いることで、(1)の高精度の推論処理を実現するための推論モデル3mを作成できる。
(4)第1撮像部2Aおよび第2撮像部2Bを別々に用意する構成(第3推論例、第3学習例)では、撮像元から格納部への映像データの流れが1:1に対応づけられる。よって、シーン情報やモード情報を元にした制御が不要となり、推論部3や学習部4を実装するためのソフトウェアの規模を削減できる。
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。
また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
さらに、各装置を繋ぐ通信手段は、無線LANに限定せず、有線LANやその他の通信手段に変更してもよい。
2 撮像部
2A 第1撮像部
2B 第2撮像部
3 推論部
3m 推論モデル
4 学習部
11 推論対象被写体
12 学習対象被写体
13 撮影環境特性評価チャート
21 レンズ
21a 絞り
22 色分解フィルタ
23 光電変換部
24 増幅部
25 AD変換部
26 IF
27 ドライバ
28 IF
31 シーン判定部
32 モード入力部
33 格納先指定部
34 格納先選択部
35 特性映像格納部
36 評価映像格納部
37 推論実行部
38 CPU
47 学習実行部
Claims (14)
- 推論対象被写体をカラー撮影した評価映像と、前記評価映像の撮影に使用された撮影環境についての特性である撮影環境特性とを推論モデルに入力することで、前記推論対象被写体の機械学習における推論処理を行う推論部を有することを特徴とする
映像処理装置。 - 前記推論部は、前記評価映像をカラー映像データに光電変換したときに用いられる色分解フィルタの特性を、前記撮影環境特性として用いることを特徴とする
請求項1に記載の映像処理装置。 - 前記推論部は、前記評価映像を撮影したときの光源を用いて、複数の有色領域を有する評価チャートを撮影した特性映像を、前記撮影環境特性として用いることを特徴とする
請求項1に記載の映像処理装置。 - 前記推論部は、前記特性映像を撮影する撮像部から映像の入力を受け付けた後、前記評価映像を撮影する前記撮像部から映像の入力を受け付けることを特徴とする
請求項3に記載の映像処理装置。 - 前記推論部は、撮像部から入力された映像から、事前に設定された前記評価映像の範囲と、事前に設定された前記特性映像の範囲とをもとに、前記評価映像および前記特性映像を取得することを特徴とする
請求項3に記載の映像処理装置。 - 前記推論部は、前記特性映像を撮影する第1撮像部と、前記評価映像を撮影する第2撮像部とから、それぞれ映像の入力を受け付けることを特徴とする
請求項3に記載の映像処理装置。 - 学習対象被写体をカラー撮影した評価映像と、前記評価映像の撮影に使用された撮影環境についての特性である撮影環境特性と、学習対象被写体の教師ラベルとをもとに、機械学習における推論モデルの学習処理を行う学習部を有することを特徴とする
映像処理装置。 - 前記学習部は、前記評価映像をカラー映像データに光電変換したときに用いられる色分解フィルタの特性を、前記撮影環境特性として用いることを特徴とする
請求項7に記載の映像処理装置。 - 前記学習部は、前記評価映像を撮影したときの光源を用いて、複数の有色領域を有する評価チャートを撮影した特性映像を、前記撮影環境特性として用いることを特徴とする
請求項7に記載の映像処理装置。 - 前記学習部は、前記特性映像を撮影する撮像部から映像の入力を受け付けた後、前記評価映像を撮影する前記撮像部から映像の入力を受け付けることを特徴とする
請求項9に記載の映像処理装置。 - 前記学習部は、撮像部から入力された映像から、事前に設定された前記評価映像の範囲と、事前に設定された前記特性映像の範囲とをもとに、前記評価映像および前記特性映像を取得することを特徴とする
請求項9に記載の映像処理装置。 - 前記学習部は、前記特性映像を撮影する第1撮像部と、前記評価映像を撮影する第2撮像部とから、それぞれ映像の入力を受け付けることを特徴とする
請求項9に記載の映像処理装置。 - 映像処理装置は、推論部を有しており、
前記推論部は、推論対象被写体をカラー撮影した評価映像と、前記評価映像の撮影に使用された撮影環境についての特性である撮影環境特性とを推論モデルに入力することで、前記推論対象被写体の機械学習における推論処理を行うことを特徴とする
映像処理方法。 - 映像処理装置は、学習部を有しており、
前記学習部は、学習対象被写体をカラー撮影した評価映像と、前記評価映像の撮影に使用された撮影環境についての特性である撮影環境特性と、学習対象被写体の教師ラベルとをもとに、機械学習における推論モデルの学習処理を行うことを特徴とする
映像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165576A JP2021043722A (ja) | 2019-09-11 | 2019-09-11 | 映像処理装置、および、映像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165576A JP2021043722A (ja) | 2019-09-11 | 2019-09-11 | 映像処理装置、および、映像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021043722A true JP2021043722A (ja) | 2021-03-18 |
Family
ID=74861614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019165576A Pending JP2021043722A (ja) | 2019-09-11 | 2019-09-11 | 映像処理装置、および、映像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021043722A (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07274194A (ja) * | 1994-03-29 | 1995-10-20 | Olympus Optical Co Ltd | カラー映像信号処理装置 |
JP2000020680A (ja) * | 1998-06-29 | 2000-01-21 | Toyo Ink Mfg Co Ltd | 色修正装置 |
JP2008206163A (ja) * | 2008-02-25 | 2008-09-04 | Olympus Corp | カラー画像処理装置 |
JP2017055242A (ja) * | 2015-09-09 | 2017-03-16 | 富士通株式会社 | 色補正装置、色補正方法及び色補正用コンピュータプログラム |
JP2019028650A (ja) * | 2017-07-28 | 2019-02-21 | キヤノン株式会社 | 画像識別装置、学習装置、画像識別方法、学習方法及びプログラム |
-
2019
- 2019-09-11 JP JP2019165576A patent/JP2021043722A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07274194A (ja) * | 1994-03-29 | 1995-10-20 | Olympus Optical Co Ltd | カラー映像信号処理装置 |
JP2000020680A (ja) * | 1998-06-29 | 2000-01-21 | Toyo Ink Mfg Co Ltd | 色修正装置 |
JP2008206163A (ja) * | 2008-02-25 | 2008-09-04 | Olympus Corp | カラー画像処理装置 |
JP2017055242A (ja) * | 2015-09-09 | 2017-03-16 | 富士通株式会社 | 色補正装置、色補正方法及び色補正用コンピュータプログラム |
JP2019028650A (ja) * | 2017-07-28 | 2019-02-21 | キヤノン株式会社 | 画像識別装置、学習装置、画像識別方法、学習方法及びプログラム |
Non-Patent Citations (1)
Title |
---|
矢田 紀子,外2名: "ヒューマンインフォメーション", 映像情報メディア学会誌 第59巻 第12号, vol. 第59巻, JPN6022042665, 2005, JP, ISSN: 0004958689 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4186699B2 (ja) | 撮像装置および画像処理装置 | |
CN101841650B (zh) | 适合于人物摄影的摄像装置 | |
US20110317005A1 (en) | Depth-Sensing Camera System | |
JP2008288629A (ja) | 画像信号処理装置、撮像素子、および画像信号処理方法、並びにコンピュータ・プログラム | |
JP4874752B2 (ja) | デジタルカメラ | |
JP5090146B2 (ja) | 色変換係数算出装置、色変換係数算出プログラム、色変換係数算出方法 | |
JP4250506B2 (ja) | 画像処理方法、画像処理装置、画像処理プログラムおよび撮像システム | |
JP2021022758A (ja) | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム | |
JP2007278950A (ja) | マルチバンド撮像装置およびカラーフィルタの特性設定方法 | |
JP6969550B2 (ja) | 画像処理装置、画像処理システム、画像処理方法及びプログラム | |
JP5052286B2 (ja) | 分光特性補正装置、分光特性補正方法 | |
WO2007148576A1 (ja) | 撮像システム及び撮像プログラム | |
JP5464982B2 (ja) | 撮像装置および画像処理方法 | |
JP5288702B2 (ja) | 色補正計算方法 | |
JP2021043722A (ja) | 映像処理装置、および、映像処理方法 | |
JP5962169B2 (ja) | デジタルカメラ、色変換プログラムおよび記録制御プログラム | |
JP4529210B2 (ja) | 測色変換係数算出方法と測色画像変換方法、及び、測色変換係数算出装置と測色画像変換装置、並びに、測色変換係数算出プログラム又は測色的撮像プログラムを記録したコンピュータ読み取り可能な情報記録媒体 | |
JP2009272709A (ja) | 画像処理装置、方法及びプログラム | |
JP2018074607A (ja) | 画像処理装置およびカメラ | |
JP4859502B2 (ja) | 撮像装置 | |
WO2013111824A1 (ja) | 画像処理装置、撮像装置及び画像処理方法 | |
JP5606300B2 (ja) | 撮像装置及び撮像装置の制御方法 | |
JP2008085975A (ja) | 撮像素子特性評価方法および撮像素子特性評価装置 | |
JP2021018754A (ja) | 対象識別方法、情報処理装置、情報処理プログラム、光学フィルタ、および照明装置 | |
JP2001116620A (ja) | 測色変換係数算出方法と測色的撮像方法、および測色変換係数算出装置と測色的撮像装置、並びに測色変換プログラムを記録したコンピュータ読み取り可能な情報記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221206 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230110 |