JP2016032289A - 画像合成システム、画像合成方法、画像合成プログラム - Google Patents
画像合成システム、画像合成方法、画像合成プログラム Download PDFInfo
- Publication number
- JP2016032289A JP2016032289A JP2015004081A JP2015004081A JP2016032289A JP 2016032289 A JP2016032289 A JP 2016032289A JP 2015004081 A JP2015004081 A JP 2015004081A JP 2015004081 A JP2015004081 A JP 2015004081A JP 2016032289 A JP2016032289 A JP 2016032289A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- region
- selection
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015572 biosynthetic process Effects 0.000 title abstract description 26
- 238000003786 synthesis reaction Methods 0.000 title abstract description 24
- 238000001308 synthesis method Methods 0.000 title description 4
- 239000002131 composite material Substances 0.000 claims abstract description 91
- 238000004364 calculation method Methods 0.000 claims abstract description 88
- 239000000203 mixture Substances 0.000 claims description 116
- 238000000034 method Methods 0.000 claims description 110
- 230000008569 process Effects 0.000 claims description 47
- 230000035945 sensitivity Effects 0.000 claims description 34
- 230000010365 information processing Effects 0.000 claims description 22
- 238000010606 normalization Methods 0.000 claims description 11
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 66
- 238000012545 processing Methods 0.000 description 55
- 230000002159 abnormal effect Effects 0.000 description 45
- 238000007781 pre-processing Methods 0.000 description 19
- 238000001514 detection method Methods 0.000 description 18
- 238000010801 machine learning Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 12
- 238000012937 correction Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 229920006395 saturated elastomer Polymers 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 7
- 238000002156 mixing Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000005315 distribution function Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000009795 derivation Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 238000000611 regression analysis Methods 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 210000000349 chromosome Anatomy 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 210000000554 iris Anatomy 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001575 pathological effect Effects 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004800 variational method Methods 0.000 description 2
- 210000003462 vein Anatomy 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
【解決手段】画像合成システムとして、性質の異なる複数の画像から、視認性がより高い領域を選択するための指標データを、各々の画像の画像内指標値で数値化して取得する選択指標算出部と、複数の画像から取得した指標データを参照して、複数の画像から、合成画像を生成するために使用する視認性がより高い領域を、優先画像とその領域範囲を一体的に導出処理して選択する領域選択部と、領域選択部にて選択された視認性がより高い領域を組み合わせて合成画像を生成する画像合成部とを設ける。
【選択図】図1
Description
具体的な実施形態での処理動作は、図9に示すように、撮像部において可視光画像と赤外光画像とを同時に撮像し、各々の画像を画像処理部に出力する。画像処理部は、可視光画像に飽和した画素が存在するか否かを検出し、可視光画像に飽和した画素が存在する場合、飽和した画素の周囲の可視光画像の画素出力値と赤外光画像の画素出力値との比(補正係数)を求める。飽和した画素における赤外光画像の画素出力値と補正係数を乗算し補正値を算出する。そして、可視光画像の飽和した画素の画素値と補正値とを入れ換える。最後に、階調変換部は、補正画素値に基づいて出力画像の階調を変換する。
以下では、性質の異なる複数の画像として、波長帯域に対する感度特性が異なる複数の画像(可視光センサから取得された画像(以下、可視光画像)と非可視光センサから取得された画像(以下、非可視光画像))を例にとって説明する。なお、本発明で用いる画像はこれに限定されない。例えば、画像合成に用いる画像は、複数の異なる画像センサが両方とも非可視光センサから取得された画像であってもよいし、両方とも可視光センサから取得された画像であってもよい。また、露出量の異なるカメラから取得された画像や、撮像時のフラッシュの有無が異なる画像でもよい。
また、画像の別の例としては、可視光画像と深度画像のように性質の異なる画像であってもよい。また、画像合成システムは、可視光画像と オプティカルフロー画像やステレオ画像のように動きや立体を情報化した画像とを用いてもよい。或いは、画像合成システムは、例えば、可視画像と CG(Computer Graphics)などにより合成したシミュレーション画像とを用いてもよいし、可視画像と 何らかの物理量をシミュレートした画像とを用いてもよい。いずれにしても、本発明は、同一の対象に対する複数の画像を入力画像とすれば何でもよい。
図1は、第1の実施形態に係る画像合成システム1を示す構成図である。
なお、ここでいう視認性が高い領域というのは、利用者において、その利用用途において重要であると思われる領域であってもよい。
人体や車などの視認性が高いとして選択したい領域は多くの場面で、赤外線画像内で一定以上の温度や特定範囲内の温度を示す傾向がある。
同様に、深度画像から所望領域を選択する場合を例にとって説明する。この例では、選択指標算出部10は、より近い被写体にある画素ほど領域選択されやすくするように、深度画像の画素値が大きいほど大きな値を持つ関数で指標値を出力するように構成すればよい。
同様に、オプティカルフロー画像から領域を選択する場合を例にとって説明する。この例では、選択指標算出部10は、オプティカルフローの値が大きいほど大きな値を持つ関数で指標値を出力するように構成すればよい。
なお、所望領域を選択するための上記関数は、例えば、B-スプライン関数などによって 利用者が手動で定義してもよいし、画像認識や機械学習などの技術を用いて このような関数を算出してもよい。
まず、利用者は、学習用のデータを収集するために、機械学習マシンが提示する入力画像とは異なる複数の学習用の画像群に対して、視認性が高い領域(すなわち、利用者にとって重要な領域)を選択する。次に、機械学習マシンは、例えば、全ての学習用の画像から、特徴ベクトルを画素毎に算出する。さらに、各特徴ベクトルと視認性が高い領域の関係を、例えば、サポートベクターマシンなどにより識別器を学習する。機械学習結果は、画像合成システムと同一のコンピュータに機械学習マシンを構築して取得してもよいし、他のコンピュータやクラウド環境にある機械学習機能を介して取得してもよい。以上により、視認性が高い領域(すなわち、利用者にとって重要な領域)が、識別器によって表現できる。
実際に、入力画像に対して、視認性が高い領域を算出する際には、まず、選択指標算出部10は、入力画像の画素毎に、学習時に用いた同様の計算方法にて、特徴ベクトルを算出する。次に、選択指標算出部10は、機械学習により得られた識別器を用いて、各特徴ベクトルから、画素毎に視認性が高い領域であるか否かの大きさを示す指標値を取得する。
基準画像の選択アルゴリズムは、例えば、入力画像1枚ごとの画像内の全体の視認性指標に基づいて、より視認性が高いだろう画像を選択する手法を用いることができる。より具体的な一例であれば、基準画像選定処理として、各々の画像が有する全面もしくは選択された所定範囲の適度な視認性(例えば所定輝度範囲内)領域の面積に基づいて、面積が広い画像を基準画像として選定処理すればよい。また、単に、時間帯や撮像目標、撮影時の明るさなどに合わせて一般により良好な、撮影手法で取られた画像 や 波長帯域に対する感度特性 を有する画像を選定してもよい。
例えば、1ないし複数の入力画像を周波数成分が異なる複数の階層(画像ピラミッド)を有する画像で受け付け、又は 入力画像を前処理で複数の階層を有する画像データに分解して、各階層で各々の処理動作を実行するアルゴリズムを採用してもよい。より具体的な一例では、選択指標算出部10、領域選択部20は、階層毎に、各々の処理を並列的に実施する。次に、画像合成部30は、各階層における処理結果を統合して、最終的な合成画像を生成してもよい。
このように、各入力画像を周波数成分が異なる複数の階層に分けて取り扱うことで、可視光画像では高周波成分に視認性が高い領域が存在し、遠赤外線画像では低周波成分の同様の領域に視認性が高い領域が存在するような場合に、領域選択部20は、高周波成分が支配的な階層からは可視光画像を、低周波成分が支配的な階層からは遠赤外線画像を選択する。そして、画像合成部30は、可視光画像の高周波成分の画像情報と 遠赤外線画像の低周波成分の画像情報とを用いて、当該領域の画像を合成する。結果、両者の視認性の高さ(利用者にとっての重要性)を保持した画像が合成できる。
次に、画像合成処理について説明する。
図2では、画像合成システム1で行われる画像処理フロー例を示している。なお、本処理フローや後述する処理フローは例示であり、処理の順序の入れ替えや、各処理の繰り返し方法、各処理に適用する方式、処理する画像枚数などは所要に適宜変更して読みかえればよい。
1)画素間の連結性を示す関数として、複数の画像毎に、隣接画素との画素値が近い領域ほど、画像間選択指標を大きくなる関数
2)画素間の輝度値の勾配を示す関数として、複数の画像の輝度勾配が類似している部分で画像間選択指標が小さくなる関数
なお、選択指標算出部10は、複数の画像から指標データを取得する前に、入力画像について、視認性を定める基準画像もしくは 複数の画像の何れかの画像に対する正規化処理を実施することが望ましい。正規化処理を行うことで、撮像条件や撮像素子、出力形態などの違いによって生じた、画像毎の視認性の偏りが補正される。
領域を選択は、画素レベルの特徴が表れている指標データを参照して、画像内の画素毎の指標値と 比較する画像の画素間の指標値と を変数に有した関数を利用して画像全体に画像処理を実行することで、優先画像とその領域範囲を合成パタンデータとして確定する。また、合成パタンデータ内に領域毎の画像合成処理方式を記述してもよい。
例えば、画像合成部30は、合成画像前に、基準画像に反映させる各部分画像に、可視光領域のセンサから取得された画像の色成分の連続性と 色成分の出現頻度とに基づいて、非可視光領域の色成分を可視光領域の色成分に補正する処理を一元化して実施できる。
図3を参照すると、画像表示システム100は、プログラム制御により動作するコンピュータ(中央処理装置;プロセッサ;データ処理装置;画像合成システム)100と、画像入力部101と画像出力部102とから構成されている。
コンピュータ(中央処理装置;プロセッサ;データ処理装置;画像合成システム)100は、前処理部110と、選択指標算出部120と、領域選択部130と、画像合成部140とを含み構成されている。
これらの部はそれぞれ概略つぎのように動作する。
そして、入力画像は、コンピュータ100のメモリ(図示せず)等に記録される。
以下では、入力画像として、可視光画像と 非可視光画像としての近赤外光画像をそれぞれ1画像ずつ入力する例にとって説明する。なお、非可視光画像として、紫外画像や電波画像、テラヘルツ画像を用いてもよい。撮像された周波数成分が画像化されてあれば、どのような画像を用いてもよい。
例えば、画素毎の輝度値の勾配だけでなく、輝度値の勾配の方向や、輝度値の大きさに基づいて、可視光画像の画素毎の画像内選択指標と、非可視光画像の画素毎の画像内選択指標とを算出してもよい。例えば、輝度値の勾配の方向や、輝度値の大きさが、周辺に比べて大きく異なっている場合、画像内選択指標が大きくなるように定義した関数を用いればよい。すなわち、領域ごとに輝度値の勾配の方向や大きさについてヒストグラムを作成し、このヒストグラムにおける平均値から大きく外れている画素の画像内選択指標が高くなるように、可視光画像の画素毎の画像内選択指標と、非可視光画像の画素毎の画像内選択指標を算出することとしてもよい。
以下では、画素 p における 可視光画像と非可視光画像の画素毎の画像内選択指標をそれぞれ、EVIS(p)およびEINVIS(p)と表す。これらの画素毎の画像内選択指標はメモリ(図示せず)に適宜記録される。あるいは、複数のサンプル画像から、深層学習などにより、可視光画像と非可視光画像の事前確率分布をパッチベースで算出し、この事前確率分布が大きいほど、画像内選択指標が高くなるように、画像内選択指標を算出してもよい。
なお、上記では、入力画像が可視光画像と非可視光画像がそれぞれ1枚ずつの場合について述べたが、本発明はこれに限定されない。例えば、可視光画像と非可視光画像がそれぞれ複数ある場合、選択指標算出部120は、EVIS(p)およびEINVIS(p)に相当する画像内選択指標を画像毎に算出すればよい。
画像間選択指標は、(a) 可視光画像と非可視光画像のそれぞれについて、隣接画素との画素値が近い領域ほど、指標値が大きくなり、(b) 可視光画像と非可視光画像の輝度勾配が類似している部分で指標値が小さくなるように定義する。
このように、選択指標算出部120は、合成対象候補の各々の画像の画像間にそれぞれ含まれる任意領域間での画素間にある特徴(輝度勾配や同等輝度範囲など)に基づく類似性の高低を値として算出して画像間選択指標として取得すればよい。
以下では、合成パタンデータとして、可視光画像と非可視光画像の内、どちらの画像を用いるかを、画素(領域)毎に定義される離散ラベルの集合X=( X1, X2… Xp… XN )で表す。ここでは、この離散ラベルの集合Xを、離散ラベル集合と呼び、X={Xp} と表すこともある。なお、離散ラベルは、画素毎に変えて、数画素を纏めたグリッド毎を単位領域として用いてもよい。
この離散ラベル集合X={Xp} は、画像を合成する際に画素p におけるラベルXpの値が0の時、画素p において可視光画像を優先的に合成画像に取り込み、Xpの値が1の時、画素p において非可視光画像を優先的に合成画像に取り込むことを意味する変数である。
なお、これまでは、離散ラベルの集合Xが可視光画像と非可視光画像の2枚の入力画像に対応し、0と1の値を取る場合について述べたが、本発明はこれに限定されない。例えば、画像入力部101にて入力された画像が複数枚である場合、領域選択部130はそれに対応する離散ラベルの集合としてXを定義すればよい。より具体的には、画像入力部101が可視光画像1枚、非可視光画像4枚を入力とする場合には、これらの離散ラベルは0,1,2,3,4の5つの離散値を取る変数として定義すればよい。
合成画像を生成する方法としては、例えば、アルファブレンディングを用いればよい。具体的には、画素p における合成画像の画素値をIp としたとき、画素p における可視光画像の画素値と非可視光画像の画素値を用いて、以下のような式を用いて画像を合成すればよい。
なお、非可視光画像の成分情報が輝度値のみである場合、アルファブレンディングは輝度成分にのみ行い、色差成分などその他の成分においては可視光画像の値を用いればよい。或いは、可視光画像の輝度値と合成画像の輝度値との比率から補正係数を算出し、色成分を、算出した補正係数を乗じた値で復元してもよい。或いは、αを画素毎に変化させてブレンディングをしてもよい。例えば、画素毎の画像内選択指標EVIS(p)およびEINVIS(p) の比が大きいほど、αが大きくなるようにすればよい。
なお、アルファブレンディングにより合成画像を生成する場合と同様に、非可視光画像の成分情報が輝度値のみである場合、アルファブレンディングは輝度成分にのみ行い、色差成分などその他の成分においては可視光画像の値を用いればよい。あるいは、以下のように、輝度成分以外の成分(たとえばUV成分)についての拘束条件を加えながら、式(13)を解くことで、色情報を復元してもよい。すなわち、式(14)を、変分法を用いて解くことで画像を合成すればよい。
以上のようにして復元した合成画像を、画像合成部140はメモリ(図示せず)や補助記憶装置(図示せず)に記録する。
まず、画像入力部101に可視光画像と非可視光画像が入力されると、画像入力部101は、入力された両画像をメモリ(図示せず)に記録する(S111)。前処理部110は、可視光画像と非可視光画像のそれぞれについて、ノイズ除去などの前処理を実施する(S112)。
次に、領域選択部130は、選択指標算出部120にて算出された画素毎の選択指標データと画素間の選択指標データを用いて、合成画像に導入する視認性がより高い領域を選択する(S104)。
次に、本実施の形態の効果について説明する。
本実施の形態の画像合成システムは、画像毎に、画像内での視認性の高さを定義した画像内選択指標を有することで、入力された波長帯域に対する感度特性が異なる複数の画像から視認性が他の画像に対して他の画像との関係でより高い領域を選択する構成を有する。さらに、本実施の形態の画像合成システムは、 画像間(任意領域間)での画像特徴の類似性の高さを定義した画像間選択指標有することで、選択された視認性が高い領域が滑らかに合成されるため、画像全体として違和感のない画像が生成できる。
このため、白とびや黒潰れなどの飽和した領域以外であっても、他の画像に視認性がより高い同等領域があれば置換されることになる。結果、全体として視認性に優れた合成画像を得られる。
可視光画像は、背景の照明の影響により、人の顔の視認性が良いところも悪いところもある。また、可視光画像は、衣服の領域の視認性が良く、衣服のパタンも視認できる。また、照明具部分でよい視認性が得られていない。
このため、領域選択部130にて選択された結果(領域選択結果)は、図5(c)に描写されているように、顔部分や衣服部分、照明具部分でそれぞれ異なる画像から各々領域が採択される。
画像合成部140は、領域選択結果と入力画像を参照して、結果的に、波長帯域に対する感度特性が良好な領域で且つ連続性がある領域部分が一体的に切り出された合成画像(図5(d))を合成する。
この結果、顔部分、衣類部分、照明具部分などの個々の領域を含む全体として高い視認性を持つ画像が得られる。また、両画像間での位置補正や色合いの補正も行われる。
近紫外光画像(a)には、花びらの根元部分に人間が肉眼で視認できない綺麗な模様が描写されている。
可視光画像(b)には、肉眼で視認できる輪郭や色合いが描写されている。
近赤外光画像(c)には、花の中心部分(雄蕊や雌蕊)や花びらの輪郭が可視光画像よりも はっきりと描写されている。
この3枚の入力画像を受け付け、選択指標算出部120にて、各々の画像の選択指標データが、他の画像に比べてより良く視認できる領域が高く算出される。
このため、領域選択部130にて選択された結果(領域選択結果)は、図5(d)に描写されているように、それぞれ異なる画像から各々領域が視認性とその連続性が反映されて採択される。図5(d)のハッチ領域は近紫外光画像領域であり、白領域は可視光画像領域、黒領域は近赤外光画像領域である。
画像合成部140は、領域選択結果と入力画像を参照して、結果的に、波長帯域に対する感度特性が良好な領域で且つ連続性がある領域部分が一体的に切り出された合成画像(図6(e))を合成する。
この結果、全体として花の形状や模様などの高い視認性を持つ画像が得られる。また、両画像間での位置補正や色合いの補正も行われる。
なお、本発明の変形例として、図7のように、画像入力部101、前処理部110、選択指標算出部120、領域選択部130、画像合成部140、異常領域検出部150、画像出力部102からなる構成で、処理をおこなってもよい。
なお、画像入力部101、画像出力部102、前処理部110、領域選択部130、画像合成部140に関しては、前述の記載と同様であるため、説明は省略する。
なお、画素毎の選択指標dp(Xp)は、下記式(15)に一例を示すように、異常領域値Qp(Xp)を変数として有する関数で表せばよい。下記式(15)は、式(9)で表されるgp(Xp)と異常領域値Qp(Xp)の和の関数として表される。また、例えば、選択指標dp(Xp)は、gp(Xp)とQp(Xp)の線形結合や乗算として表してもよい。
異常領域検出部150は、入力画像と合成画像との相関を、基準画像のみでなく、多くの入力画像について取ことが望ましい。また、画像種別毎に相関結果の値に重みを与えてもよい。合成画像と基準画像のみとの相関を取る場合、異常領域検出部150は、合成画像と基準画像が類似さえしていれば、異常領域と見做さないように動作する。このため、異常領域検出部150による処理を加えることにより、合成画像は、基準画像に類似度が高い画像になる。一方、合成画像と基準画像以外の入力画像(群)について相関を取る場合、異常領域検出部150は、合成画像と相関を取った全ての画像(群)に基づいた異常領域を検出するように動作する。このため、異常領域検出部150による処理により、最終的な合成画像は、どれか一つの入力画像に過度に類似することなく、全体として良好な視認性を有する画像になる。。
一方、合成画像と可視画像の正規化相関φvis 及び 合成画像と非可視光画像の正規化相互相関φinvis の和がφth以上であった際に、Qp(Xp)はゼロ以上の値となる。このため、選択指標算出部120は、指標値を算定する上で、異常領域の影響を受けた値を算定する。この結果、領域選択部130は、異常領域が存在しない基準画像がより選択されやすくなる。
なお、以上では、Qp(Xp)が、φinvisとφvisの単純な和である場合について説明したが、本発明はこれに限定されない。例えば、Qp(Xp)はφinvisとφvisの線形結合な関数であってもよいし、或いは、Qp(Xp)とφinvisのφvisの関係(関数形)を機械学習によって算出してもよい。
また、異常領域検出部150による選択指標算出部120へのフィードバックは、適度な回数を繰り返すことでより高い視認性を有する画像を得られる。フィードバック回数は、予め定めた回数でもよいし、合成画像の変化量がある程度収束したところで停止するようにしてもよい。
[付記1]
性質の異なる複数の画像から、視認性がより高い領域を選択するための指標データを、各々の画像の画像内指標値で数値化して取得する選択指標算出部と、
前記複数の画像から取得した前記指標データを参照して、前記複数の画像から、合成画像を生成するために使用する視認性がより高い領域を、優先画像とその領域範囲を一体的に導出処理して選択する領域選択部と、
前記領域選択部にて選択された視認性がより高い領域を組み合わせて合成画像を生成する画像合成部と
を含むことを特徴とする画像合成システム。
前記選択指標算出部は、前記性質の異なる複数の画像として波長帯域に対する感度特性が異なる複数の画像を受け付けて、該複数の画像の各々の波長帯域を基準に視認性がより高い領域を、各々の画像の画像内指標値と画像間指標値で数値化して取得し、
前記領域選択部は、各々の画像の前記指標データを参照して、各画像から他の画像に対して視認性がより高い領域を導出して、前記優先画像を選択する
ことを特徴とする上記付記に記載の画像合成システム。
前記選択指標算出部は、波長帯域に対する感度特性が異なる複数の画像から視認性が高い領域を選択するための前記指標データとして、画像毎の視認性の高さを表す画像内選択指標データと、画像間の見えの連続性の大きさを表す画像間選択指標データとを画像毎に取得することを特徴とする上記付記に記載の画像合成システム。
前記選択指標算出部は、複数の画像から視認性が高い領域を選択するための前記指標データとして、前記複数の画像各々の画素毎に特徴ベクトルを算出し、機械学習により得られた識別器を用いて、各画素の特徴ベクトルから、画素毎に視認性が高い領域であるか否かの大きさを示す指標値を取得することを特徴とする上記付記に記載の画像合成システム。
前記選択指標算出部及び前記領域選択部は、前記複数の画像である周波数成分が異なる複数の階層を有する画像を、階層毎に各々の処理を並列的に実施し、
前記画像合成部は、各階層における前記領域選択部にて選択された視認性がより高い領域を組み合わせて、前記合成画像を生成する
ことを特徴とする上記付記に記載の画像合成システム。
前記選択指標算出部は、前記複数の画像から前記指標データを取得する前に、前記複数の画像について、視認性を定める基準画像もしくは 前記複数の画像の何れかの画像に対する正規化処理を実施することを特徴とする上記付記に記載の画像合成システム。
前記選択指標算出部は、前記複数の画像から前記指標データを取得する前に、前記複数の画像について、画角を定める基準画像もしくは 前記複数の画像の何れかの画像に対する位置合わせ処理を実施することを特徴とする上記付記に記載の画像合成システム。
波長帯域に対する感度特性が異なる複数の画像を取得する画像取得部を更に有し、
前記選択指標算出部は、前記指標データとして、前記複数の画像に含まれる画像間にそれぞれ含まれる任意領域間での画素レベルの特徴に基づく類似性の高低を表した指標値を数値化して取得し、
前記領域選択部は、前記選択指標算出部にて画像毎に画素レベルの特徴を含めて算出された前記指標データを参照して、優先画像とその領域範囲を、画素毎の指標値と 画素間の指標値と を変数に有したエネルギー関数で算定することで、領域選択処理を画素毎に行う
ことを特徴とする上記付記に記載の画像合成システム。
前記選択指標算出部は、
前記画像間選択指標データとして、
画素間の連結性を示す関数として、前記複数の画像毎に、隣接画素との画素値が近い領域ほど、画像間選択指標を大きくなる関数
を用いて取得する
ことを特徴とする上記付記に記載の画像合成システム。
前記選択指標算出部は、
前記画像間選択指標データとして、
画素間の輝度値の勾配を示す関数として、前記複数の画像の輝度勾配が類似している部分で画像間選択指標が小さくなる関数
を用いて取得する
ことを特徴とする上記付記に記載の画像合成システム。
前記選択指標算出部は、
前記画像間選択指標データを、
画素間の連結性を示す関数として、前記複数の画像毎に、隣接画素との画素値が近い領域ほど、画像間選択指標を大きくなる関数と、
画素間の輝度値の勾配を示す関数として、前記複数の画像の輝度勾配が類似している部分で画像間選択指標が小さくなる関数と
を、組み合わせた関数を用いて取得する
ことを特徴とする上記付記に記載の画像合成システム。
前記選択指標算出部は、コントラストが大きいほど大きな値を持つ指標を前記画像内選択指標データとして取得することを特徴とする上記付記に記載の画像合成システム。
前記画像合成部は、可視光領域のセンサから取得された画像の色成分の連続性と 色成分の出現頻度とに基づいて、合成する画像に含まれた非可視光領域の色成分を可視光領域の色成分に補正した後に、合成画像を生成することを特徴とする上記付記に記載の画像合成システム。
前記画像合成部で合成された前記合成画像と前記複数の画像に含まれる基準画像との相関に基づいて前記合成画像が有する前記基準画像に対する異常領域の指標値を求める異常領域検出部を更に有し、
前記選択指標算出部は、前記異常領域の指標値を変数として有する関数で前記指標データを取得する
ことを特徴とする上記付記に記載の画像合成システム。
前記画像合成部で合成された前記合成画像と前記複数の画像との相関に基づいて前記合成画像が有する前記複数の画像に対する異常領域の指標値を求める異常領域検出部を有し、
前記選択指標算出部は、前記異常領域の指標値を変数として有する関数で前記指標データを取得する
ことを特徴とする上記付記に記載の画像合成システム。
性質の異なる複数の画像を取得し、
前記複数の画像から視認性がより高い領域を選択するための指標データを、各々の画像の画像内指標値で数値化し、
前記複数の画像から取得した前記指標データを参照して、前記複数の画像から、合成画像を生成するために使用する視認性がより高い領域を、優先画像とその領域範囲を一体的に導出処理して選択し、
選択された視認性がより高い領域を組み合わせて合成画像を生成する
ことを特徴とする情報処理システムによる画像合成方法。
前記情報処理システムは、
前記性質の異なる複数の画像として波長帯域に対する感度特性が異なる複数の画像を受け付けて、該複数の画像の各々の波長帯域を基準に視認性がより高い領域を、各々の画像の画像内指標値と画像間指標値で数値化して取得し、
各々の画像の前記指標データを参照して、各画像から他の画像に対して視認性がより高い領域を導出して、前記優先画像を選択する
ことを特徴とする上記付記に記載の画像合成方法。
前記情報処理システムは、波長帯域に対する感度特性が異なる複数の画像から視認性が高い領域を選択するための前記指標データとして、画像毎の視認性の高さを表す画像内選択指標データと、画像間の見えの連続性の大きさを表す画像間選択指標データとを画像毎に取得することを特徴とする上記付記に記載の画像合成方法。
前記情報処理システムは、複数の画像から視認性が高い領域を選択するための前記指標データとして、前記複数の画像各々の画素毎に特徴ベクトルを算出し、機械学習により得られた識別器を用いて、各画素の特徴ベクトルから、画素毎に視認性が高い領域であるか否かの大きさを示す指標値を取得することを特徴とする上記付記に記載の画像合成方法。
前記情報処理システムは、
前記複数の画像である周波数成分が異なる複数の階層を有する画像を、階層毎に各々の処理を並列的に実施し、
各階層で選択された視認性がより高い領域を組み合わせて、前記合成画像を生成する
ことを特徴とする上記付記に記載の画像合成方法。
前記情報処理システムは、前記複数の画像から前記指標データを取得する前に、前記複数の画像について、視認性を定める基準画像もしくは 前記複数の画像の何れかの画像に対する正規化処理を実施することを特徴とする上記付記に記載の画像合成方法。
前記情報処理システムは、前記複数の画像から前記指標データを取得する前に、前記複数の画像について、画角を定める基準画像もしくは 前記複数の画像の何れかの画像に対する位置合わせ処理を実施することを特徴とする上記付記に記載の画像合成方法。
前記情報処理システムは、
波長帯域に対する感度特性が異なる複数の画像を生成し、
前記指標データとして、前記複数の画像に含まれる画像間にそれぞれ含まれる任意領域間での画素レベルの特徴に基づく類似性の高低を表した指標値を数値化して取得し、
前記選択指標算出部にて画像毎に画素レベルの特徴を含めて算出された前記指標データを参照して、優先画像とその領域範囲を、画素毎の指標値と 画素間の指標値と を変数に有したエネルギー関数で算定することで、領域選択処理を画素毎に行う
ことを特徴とする上記付記に記載の画像合成方法。
前記情報処理システムは、
前記画像間選択指標データとして、
画素間の連結性を示す関数として、前記複数の画像毎に、隣接画素との画素値が近い領域ほど、画像間選択指標を大きくなる関数
を用いて取得する
ことを特徴とする上記付記に記載の画像合成方法。
前記情報処理システムは、
前記画像間選択指標データとして、
画素間の輝度値の勾配を示す関数として、前記複数の画像の輝度勾配が類似している部分で画像間選択指標が小さくなる関数
を用いて取得する
ことを特徴とする上記付記に記載の画像合成方法。
前記情報処理システムは、
前記画像間選択指標データを、
画素間の連結性を示す関数として、前記複数の画像毎に、隣接画素との画素値が近い領域ほど、画像間選択指標を大きくなる関数と、
画素間の輝度値の勾配を示す関数として、前記複数の画像の輝度勾配が類似している部分で画像間選択指標が小さくなる関数と
を、組み合わせた関数を用いて取得する
ことを特徴とする上記付記に記載の画像合成方法。
前記情報処理システムは、コントラストが大きいほど大きな値を持つ指標を前記画像内選択指標データとして取得することを特徴とする上記付記に記載の画像合成方法。
前記情報処理システムは、可視光領域のセンサから取得された画像の色成分の連続性と 色成分の出現頻度とに基づいて、合成する画像に含まれた非可視光領域の色成分を可視光領域の色成分に補正した後に、合成画像を生成することを特徴とする上記付記に記載の画像合成方法。
前記合成画像と前記複数の画像に含まれる基準画像との相関に基づいて前記合成画像が有する前記基準画像に対する異常領域の指標値を求める工程を有し、
前記異常領域の指標値を変数として有する関数で前記指標データを取得する
ことを特徴とする上記付記に記載の画像合成方法。
前記合成画像と前記複数の画像との相関に基づいて前記合成画像が有する前記複数の画像に対する異常領域の指標値を求める工程を有し、
前記異常領域の指標値を変数として有する関数で前記指標データを取得する
ことを特徴とする上記付記に記載の画像合成方法。
情報処理システムのプロセッサを、
性質の異なる複数の画像から、視認性がより高い領域を選択するための指標データを、各々の画像の画像内指標値で数値化して取得する選択指標算出部と、
前記複数の画像から取得した前記指標データを参照して、前記複数の画像から、合成画像を生成するために使用する視認性がより高い領域を、優先画像とその領域範囲を一体的に導出処理して選択する領域選択部と、
前記領域選択部にて選択された視認性がより高い領域を組み合わせて合成画像を生成する画像合成部
として動作させることを特徴とする画像合成プログラム。
前記選択指標算出部に、前記性質の異なる複数の画像として波長帯域に対する感度特性が異なる複数の画像を受け付けて、該複数の画像の各々の波長帯域を基準に視認性がより高い領域を、各々の画像の画像内指標値と画像間指標値で数値化して取得させ、
前記領域選択部に、各々の画像の前記指標データを参照して、各画像から他の画像に対して視認性がより高い領域を導出して、前記優先画像を選択させる
ことを特徴とする上記付記に記載の画像合成プログラム。
前記選択指標算出部に、波長帯域に対する感度特性が異なる複数の画像から視認性が高い領域を選択するための前記指標データとして、画像毎の視認性の高さを表す画像内選択指標データと、画像間の見えの連続性の大きさを表す画像間選択指標データとを画像毎に取得させることを特徴とする上記付記に記載の画像合成プログラム。
前記選択指標算出部に、複数の画像から視認性が高い領域を選択するための前記指標データとして、前記複数の画像各々の画素毎に特徴ベクトルを算出し、機械学習により得られた識別器を用いて、各画素の特徴ベクトルから、画素毎に視認性が高い領域であるか否かの大きさを示す指標値を取得させることを特徴とする上記付記に記載の画像合成プログラム。
前記選択指標算出部及び前記領域選択部に、前記複数の画像である周波数成分が異なる複数の階層を有する画像を、階層毎に各々の処理を並列的に実施させ、
前記画像合成部に、各階層における前記領域選択部にて選択された視認性がより高い領域を組み合わせて、前記合成画像を生成させる
ことを特徴とする上記付記に記載の画像合成プログラム。
前記選択指標算出部に、前記複数の画像から前記指標データを取得する前に、前記複数の画像について、視認性を定める基準画像もしくは 前記複数の画像の何れかの画像に対する正規化処理を実施させることを特徴とする上記付記に記載の画像合成プログラム。
前記選択指標算出部に、前記複数の画像から前記指標データを取得する前に、前記複数の画像について、画角を定める基準画像もしくは 前記複数の画像の何れかの画像に対する位置合わせ処理を実施させることを特徴とする上記付記に記載の画像合成プログラム。
前記情報処理システムを、波長帯域に対する感度特性が異なる複数の画像を取得する画像取得部として更に動作させ、
前記選択指標算出部に、前記指標データとして、前記複数の画像に含まれる画像間にそれぞれ含まれる任意領域間での画素レベルの特徴に基づく類似性の高低を表した指標値を数値化して取得させ、
前記領域選択部に、前記選択指標算出部にて画像毎に画素レベルの特徴を含めて算出された前記指標データを参照して、優先画像とその領域範囲を、画素毎の指標値と 画素間の指標値と を変数に有したエネルギー関数で算定することで、領域選択処理を画素毎に行わせる
ことを特徴とする上記付記に記載の画像合成プログラム。
前記選択指標算出部に、
前記画像間選択指標データを、
画素間の連結性を示す関数として、前記複数の画像毎に、隣接画素との画素値が近い領域ほど、画像間選択指標を大きくなる関数
で取得させる
ことを特徴とする上記付記に記載の画像合成プログラム。
前記選択指標算出部に、
前記画像間選択指標データを、
画素間の輝度値の勾配を示す関数として、前記複数の画像の輝度勾配が類似している部分で画像間選択指標が小さくなる関数
で取得させる
ことを特徴とする上記付記に記載の画像合成プログラム。
前記選択指標算出部に、
前記画像間選択指標データを、
画素間の連結性を示す関数として、前記複数の画像毎に、隣接画素との画素値が近い領域ほど、画像間選択指標を大きくなる関数と、
画素間の輝度値の勾配を示す関数として、前記複数の画像の輝度勾配が類似している部分で画像間選択指標が小さくなる関数と
を、組み合わせた関数で取得させる
ことを特徴とする上記付記に記載の画像合成プログラム。
前記選択指標算出部に、コントラストが大きいほど大きな値を持つ指標を前記画像内選択指標データとして取得させることを特徴とする上記付記に記載の画像合成プログラム。
前記画像合成部に、可視光領域のセンサから取得された画像の色成分の連続性と 色成分の出現頻度とに基づいて、合成する画像に含まれた非可視光領域の色成分を可視光領域の色成分に補正した後に、合成画像を生成させることを特徴とする上記付記に記載の画像合成プログラム。
前記プロセッサを、
前記画像合成部で合成された前記合成画像と前記複数の画像に含まれる基準画像との相関に基づいて前記合成画像が有する前記基準画像に対する異常領域の指標値を求める異常領域検出部として動作させ、
前記選択指標算出部に、前記異常領域の指標値を変数として有する関数で前記指標データを取得させる
ことを特徴とする上記付記に記載の画像合成プログラム。
前記プロセッサを、
前記画像合成部で合成された前記合成画像と前記複数の画像との相関に基づいて前記合成画像が有する前記複数の画像に対する異常領域の指標値を求める異常領域検出部として動作させ、
前記選択指標算出部に、前記異常領域の指標値を変数として有する関数で前記指標データを取得させる
ことを特徴とする上記付記に記載の画像合成プログラム。
上記付記に記載の画像合成プログラムを非一時的に記録したコンピュータ読み取り可能な記録媒体。
10 選択指標算出部(選択指標算出手段)
20 領域選択部(領域選択手段)
30 画像合成部(画像合成手段)
100 コンピュータ(中央処理装置;プロセッサ;データ処理装置;画像合成システム)
101 画像入力部
102 画像出力部
110 前処理部(前処理手段)
120 選択指標算出部(選択指標算出手段)
130 領域選択部(領域選択手段)
140 画像合成部(画像合成手段)
150 異常領域検出部(異常領域検出手段)
Claims (10)
- 性質の異なる複数の画像から、視認性がより高い領域を選択するための指標データを、各々の画像の画像内指標値で数値化して取得する選択指標算出部と、
前記複数の画像から取得した前記指標データを参照して、前記複数の画像から、合成画像を生成するために使用する視認性がより高い領域を、優先画像とその領域範囲を一体的に導出処理して選択する領域選択部と、
前記領域選択部にて選択された視認性がより高い領域を組み合わせて合成画像を生成する画像合成部と
を含むことを特徴とする画像合成システム。 - 前記選択指標算出部は、前記性質の異なる複数の画像として波長帯域に対する感度特性が異なる複数の画像を受け付けて、該複数の画像の各々の波長帯域を基準に視認性がより高い領域を、各々の画像の画像内指標値と画像間指標値で数値化して取得し、
前記領域選択部は、各々の画像の前記指標データを参照して、各画像から他の画像に対して視認性がより高い領域を導出して、前記優先画像を選択する
ことを特徴とする請求項1に記載の画像合成システム。 - 前記選択指標算出部は、波長帯域に対する感度特性が異なる複数の画像から視認性が高い領域を選択するための前記指標データとして、画像毎の視認性の高さを表す画像内選択指標データと、画像間の見えの連続性の大きさを表す画像間選択指標データとを画像毎に取得することを特徴とする請求項1又は2に記載の画像合成システム。
- 前記選択指標算出部は、前記複数の画像から前記指標データを取得する前に、前記複数の画像について、視認性を定める基準画像もしくは 前記複数の画像の何れかの画像に対する正規化処理を実施することを特徴とする請求項1ないし3の何れか一項に記載の画像合成システム。
- 前記選択指標算出部は、前記複数の画像から前記指標データを取得する前に、前記複数の画像について、画角を定める基準画像もしくは 前記複数の画像の何れかの画像に対する位置合わせ処理を実施することを特徴とする請求項1ないし4の何れか一項に記載の画像合成システム。
- 波長帯域に対する感度特性が異なる複数の画像を取得する画像取得部を更に有し、
前記選択指標算出部は、前記指標データとして、前記複数の画像に含まれる画像間にそれぞれ含まれる任意領域間での画素レベルの特徴に基づく類似性の高低を表した指標値を数値化して取得し、
前記領域選択部は、前記選択指標算出部にて画像毎に画素レベルの特徴を含めて算出された前記指標データを参照して、優先画像とその領域範囲を、画素毎の指標値と 画素間の指標値と を変数に有したエネルギー関数で算定することで、領域選択処理を画素毎に行う
ことを特徴とする請求項1ないし5の何れか一項に記載の画像合成システム。 - 前記選択指標算出部は、
前記画像間選択指標データを、
画素間の連結性を示す関数として、前記複数の画像毎に、隣接画素との画素値が近い領域ほど、画像間選択指標を大きくなる関数と、
画素間の輝度値の勾配を示す関数として、前記複数の画像の輝度勾配が類似している部分で画像間選択指標が小さくなる関数と
を、組み合わせた関数を用いて取得する
ことを特徴とする請求項1ないし6の何れか一項に記載の画像合成システム。 - 前記選択指標算出部は、コントラストが大きいほど大きな値を持つ指標を前記画像内選択指標データとして取得することを特徴とする請求項1ないし6の何れか一項に記載の画像合成システム。
- 性質の異なる複数の画像を取得し、
前記複数の画像から視認性がより高い領域を選択するための指標データを、各々の画像の画像内指標値で数値化し、
前記複数の画像から取得した前記指標データを参照して、前記複数の画像から、合成画像を生成するために使用する視認性がより高い領域を、優先画像とその領域範囲を一体的に導出処理して選択し、
選択された視認性がより高い領域を組み合わせて合成画像を生成する
ことを特徴とする情報処理システムによる画像合成方法。 - 情報処理システムを、
性質の異なる複数の画像から、視認性がより高い領域を選択するための指標データを、各々の画像の画像内指標値で数値化して取得する選択指標算出手段と、
前記複数の画像から取得した前記指標データを参照して、前記複数の画像から、合成画像を生成するために使用する視認性がより高い領域を、優先画像とその領域範囲を一体的に導出処理して選択する領域選択手段と、
前記領域選択手段にて選択された視認性がより高い領域を組み合わせて合成画像を生成する画像合成手段
として動作させることを特徴とする画像合成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015004081A JP6497579B2 (ja) | 2014-07-25 | 2015-01-13 | 画像合成システム、画像合成方法、画像合成プログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014151506 | 2014-07-25 | ||
JP2014151506 | 2014-07-25 | ||
JP2015004081A JP6497579B2 (ja) | 2014-07-25 | 2015-01-13 | 画像合成システム、画像合成方法、画像合成プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016032289A true JP2016032289A (ja) | 2016-03-07 |
JP6497579B2 JP6497579B2 (ja) | 2019-04-10 |
Family
ID=55442412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015004081A Active JP6497579B2 (ja) | 2014-07-25 | 2015-01-13 | 画像合成システム、画像合成方法、画像合成プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6497579B2 (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018050154A (ja) * | 2016-09-21 | 2018-03-29 | 三菱電機株式会社 | 画像合成装置および画像合成方法 |
WO2019012647A1 (ja) * | 2017-07-13 | 2019-01-17 | 日本電気株式会社 | 画像処理装置、画像処理方法およびプログラム記憶媒体 |
WO2019026923A1 (ja) * | 2017-08-03 | 2019-02-07 | オリンパス株式会社 | 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置 |
WO2019044608A1 (ja) * | 2017-08-29 | 2019-03-07 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
CN110750689A (zh) * | 2019-10-30 | 2020-02-04 | 北京大学 | 一种多图融合方法 |
US10719927B2 (en) | 2017-01-04 | 2020-07-21 | Samsung Electronics Co., Ltd. | Multiframe image processing using semantic saliency |
CN113822819A (zh) * | 2021-10-15 | 2021-12-21 | Oppo广东移动通信有限公司 | Hdr场景检测方法与装置、终端及可读存储介质 |
CN115550570A (zh) * | 2022-01-10 | 2022-12-30 | 荣耀终端有限公司 | 图像处理方法与电子设备 |
CN116403057A (zh) * | 2023-06-09 | 2023-07-07 | 山东瑞盈智能科技有限公司 | 一种基于多源图像融合的输电线路巡检方法及系统 |
KR102574103B1 (ko) * | 2023-04-04 | 2023-09-04 | (주)팬옵틱스 | THz 스캔 이미지를 이용한 인공지능 학습모델 기반의 은닉물 탐지 장치 및 시스템 |
JP7455611B2 (ja) | 2019-03-14 | 2024-03-26 | キヤノン株式会社 | 処理システム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006157342A (ja) * | 2004-11-29 | 2006-06-15 | Matsushita Electric Ind Co Ltd | カメラモジュール |
JP2009177250A (ja) * | 2008-01-21 | 2009-08-06 | Fujitsu Ten Ltd | 車載用画像認識装置、車両状況判定装置および車載用画像認識方法 |
WO2009150882A1 (ja) * | 2008-06-10 | 2009-12-17 | 国立大学法人東京工業大学 | 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置 |
JP2010166363A (ja) * | 2009-01-16 | 2010-07-29 | Toyota Central R&D Labs Inc | 擬似濃淡画像生成装置及びプログラム |
-
2015
- 2015-01-13 JP JP2015004081A patent/JP6497579B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006157342A (ja) * | 2004-11-29 | 2006-06-15 | Matsushita Electric Ind Co Ltd | カメラモジュール |
JP2009177250A (ja) * | 2008-01-21 | 2009-08-06 | Fujitsu Ten Ltd | 車載用画像認識装置、車両状況判定装置および車載用画像認識方法 |
WO2009150882A1 (ja) * | 2008-06-10 | 2009-12-17 | 国立大学法人東京工業大学 | 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置 |
JP2010166363A (ja) * | 2009-01-16 | 2010-07-29 | Toyota Central R&D Labs Inc | 擬似濃淡画像生成装置及びプログラム |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018050154A (ja) * | 2016-09-21 | 2018-03-29 | 三菱電機株式会社 | 画像合成装置および画像合成方法 |
US10719927B2 (en) | 2017-01-04 | 2020-07-21 | Samsung Electronics Co., Ltd. | Multiframe image processing using semantic saliency |
WO2019012647A1 (ja) * | 2017-07-13 | 2019-01-17 | 日本電気株式会社 | 画像処理装置、画像処理方法およびプログラム記憶媒体 |
JPWO2019012647A1 (ja) * | 2017-07-13 | 2020-04-23 | 日本電気株式会社 | 画像処理装置、画像処理方法およびコンピュータプログラム |
TWI721288B (zh) * | 2017-07-13 | 2021-03-11 | 日商日本電氣股份有限公司 | 影像處理裝置、影像處理方法及程式記錄媒體 |
US11055877B2 (en) | 2017-07-13 | 2021-07-06 | Nec Corporation | Image processing device, image processing method, and program storage medium |
WO2019026923A1 (ja) * | 2017-08-03 | 2019-02-07 | オリンパス株式会社 | 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置 |
WO2019044608A1 (ja) * | 2017-08-29 | 2019-03-07 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
JPWO2019044608A1 (ja) * | 2017-08-29 | 2020-07-16 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
US11055834B2 (en) | 2017-08-29 | 2021-07-06 | Nec Corporation | Information processing device, information processing method, and recording medium for processing synthesized images |
JP7455611B2 (ja) | 2019-03-14 | 2024-03-26 | キヤノン株式会社 | 処理システム |
CN110750689A (zh) * | 2019-10-30 | 2020-02-04 | 北京大学 | 一种多图融合方法 |
CN113822819B (zh) * | 2021-10-15 | 2023-10-27 | Oppo广东移动通信有限公司 | Hdr场景检测方法与装置、终端及可读存储介质 |
CN113822819A (zh) * | 2021-10-15 | 2021-12-21 | Oppo广东移动通信有限公司 | Hdr场景检测方法与装置、终端及可读存储介质 |
CN115550570A (zh) * | 2022-01-10 | 2022-12-30 | 荣耀终端有限公司 | 图像处理方法与电子设备 |
CN115550570B (zh) * | 2022-01-10 | 2023-09-01 | 荣耀终端有限公司 | 图像处理方法与电子设备 |
KR102574103B1 (ko) * | 2023-04-04 | 2023-09-04 | (주)팬옵틱스 | THz 스캔 이미지를 이용한 인공지능 학습모델 기반의 은닉물 탐지 장치 및 시스템 |
CN116403057A (zh) * | 2023-06-09 | 2023-07-07 | 山东瑞盈智能科技有限公司 | 一种基于多源图像融合的输电线路巡检方法及系统 |
CN116403057B (zh) * | 2023-06-09 | 2023-08-18 | 山东瑞盈智能科技有限公司 | 一种基于多源图像融合的输电线路巡检方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
JP6497579B2 (ja) | 2019-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6497579B2 (ja) | 画像合成システム、画像合成方法、画像合成プログラム | |
Dey | Uneven illumination correction of digital images: A survey of the state-of-the-art | |
CN108197546B (zh) | 人脸识别中光照处理方法、装置、计算机设备及存储介质 | |
US10929978B2 (en) | Image processing apparatus, training apparatus, image processing method, training method, and storage medium | |
JP2017005389A (ja) | 画像認識装置、画像認識方法及びプログラム | |
WO2020223963A1 (en) | Computer-implemented method of detecting foreign object on background object in image, apparatus for detecting foreign object on background object in image, and computer-program product | |
IL256202A (en) | A method for enhancing an ir or scam image based on video analysis information | |
Ghazal et al. | Automated framework for accurate segmentation of leaf images for plant health assessment | |
Mahmoudabadi et al. | Efficient terrestrial laser scan segmentation exploiting data structure | |
CN112740263A (zh) | 图像处理装置、图像处理方法和程序 | |
JP7350208B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
Dümbgen et al. | Near-infrared fusion for photorealistic image dehazing | |
Tuominen et al. | Cloud detection and movement estimation based on sky camera images using neural networks and the Lucas-Kanade method | |
Azevedo et al. | Shadow detection using object area-based and morphological filtering for very high-resolution satellite imagery of urban areas | |
Verma et al. | Development of LR-PCA based fusion approach to detect the changes in mango fruit crop by using landsat 8 OLI images | |
Zhu et al. | Shadow removal based on YCbCr color space | |
JP4285640B2 (ja) | オブジェクト識別方法および装置ならびにプログラム | |
JP2009123234A (ja) | オブジェクト識別方法および装置ならびにプログラム | |
Shihabudeen et al. | Deep learning L2 norm fusion for infrared & visible images | |
JP7092616B2 (ja) | 物体検出装置、物体検出方法、及び物体検出プログラム | |
Ma et al. | Deep attention network for melanoma detection improved by color constancy | |
Katukam et al. | Image comparison methods & tools: a review | |
JP2018160024A (ja) | 画像処理装置、画像処理方法及びプログラム | |
Lee et al. | Sensors i: Color imaging and basics of image processing | |
Sheng et al. | Dark channel prior-based altitude extraction method for a single mountain remote sensing image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20151224 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20171205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6497579 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |