JP7445109B2 - 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法 - Google Patents

画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法 Download PDF

Info

Publication number
JP7445109B2
JP7445109B2 JP2019139448A JP2019139448A JP7445109B2 JP 7445109 B2 JP7445109 B2 JP 7445109B2 JP 2019139448 A JP2019139448 A JP 2019139448A JP 2019139448 A JP2019139448 A JP 2019139448A JP 7445109 B2 JP7445109 B2 JP 7445109B2
Authority
JP
Japan
Prior art keywords
image
area
unit
region
generate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019139448A
Other languages
English (en)
Other versions
JP2021022263A (ja
Inventor
隆宏 吉岡
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019139448A priority Critical patent/JP7445109B2/ja
Publication of JP2021022263A publication Critical patent/JP2021022263A/ja
Application granted granted Critical
Publication of JP7445109B2 publication Critical patent/JP7445109B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法に関する。
近年の世界的な人口増加に伴い、持続可能な食糧源として養殖魚が注目されている。養殖業において、ICT(Information and Communications Technology)の活用が広がっており、カメラで海中を観察することが試みられている。
カメラで撮影された映像は、養殖生簀内の様子の観察、魚体同士のリアルタイムな比較観察、ソフトウェアによる魚体長計測、ソフトウェアによる魚体数計測、寄生虫観測等に活用される。
画像処理に関して、入力画像の一部を切り出して所望の切り出し画像を得る画像処理装置が知られている(例えば、特許文献1を参照)。生体における網膜や皮質と同等の役割をモデル化したレティネックス処理も知られている(例えば、特許文献2及び非特許文献1を参照)。敵対的生成ネットワークを用いた画像変換も知られている(例えば、非特許文献2を参照)。
特開2010-81181号公報 特開2005-4506号公報
Zia-ur Rahman et al.,"A Multiscale Retinex for Color Rendition and Dynamic Range Compression", PROCEEDINGS VOLUME 2847, Applications of Digital Image Processing XIX, SPIE'S 1996 INTERNATIONAL SYMPOSIUM ON OPTICAL SCIENCE, ENGINEERING, AND INSTRUMENTATION, August 1996 Isola et al.,"Image-to-Image Translation with Conditional Adversarial Networks", Proceedings of The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1125-1134, 2017
海中を撮影した映像に写っている不鮮明な魚体の視認性を向上させる処理は、処理量が多いため時間がかかる。
なお、かかる問題は、海中の映像を用いて魚体を観察する場合に限らず、3次元空間の画像を用いて様々な物体を観察する場合において生ずるものである。
1つの側面において、本発明は、画像に写っている物体の視認性を向上させる処理を高速化することを目的とする。
1つの案では、画像処理プログラムは、以下の処理をコンピュータに実行させる。
(1)コンピュータは、第1画像を縮小して縮小画像を生成する。
(2)コンピュータは、縮小画像のコントラストを強調又は色調を補正して第2画像を生成する。
(3)コンピュータは、第2画像内で物体が写っている第1領域を特定する。
(4)コンピュータは、第1画像から第1領域に対応する第2領域を抽出する。
(5)コンピュータは、第2領域のコントラストを強調又は色調を補正して領域画像を生成する。
1つの側面によれば、画像に写っている物体の視認性を向上させる処理を高速化することができる。
レティネックス処理を示す図である。 画像処理装置の機能的構成図である。 画像処理のフローチャートである。 画像処理装置の具体例を示す機能的構成図である。 比較例における画像処理を示す図である。 第1の画像処理を示す図である。 第2の画像処理を示す図である。 画像処理の具体例を示すフローチャートである。 画像処理システムの機能的構成図である。 情報処理装置のハードウェア構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
特許文献2及び非特許文献1に開示されたレティネックス処理は、人間の視覚特性を反映した画像補正処理である。レティネックス処理によれば、画像のダイナミックレンジを調整してコントラストを強調するか、又は色調を補正することで、視認性を向上させることができる。
海中を撮影した映像は時系列の画像を含み、各時刻の画像は、フレームと呼ばれることがある。映像に含まれるフレームとして高解像度画像を用いた場合、1フレーム当たりの画素数が多くなる。このため、各フレームにレティネックス処理を適用すると、処理時間が長くなり、フレームレートを保つことが困難になる。
また、観察対象の魚体がカメラから遠い位置に存在したり、魚影が小さくて低コントラストであったりする場合、画像全体にレティネックス処理を適用すると、魚影を認識できる程度に改善されたとしても、視認性向上の効果は低い。
図1は、海中を撮影した画像に対するレティネックス処理の例を示している。カメラで撮影された画像101には、様々な魚体が写っている。魚体は、画像に写っている物体の一例である。
画像101全体に対してレティネックス処理を適用することで、視認性が向上した画像102が得られる。これにより、画像102の領域111内に魚影が写っていることが確認できるが、視認性向上の効果は限定的である。
図2は、実施形態の画像処理装置の機能的構成例を示している。図2の画像処理装置201は、記憶部211、特定部212、及び生成部213を含む。記憶部211は、第1画像を記憶する。特定部212及び生成部213は、第1画像に対する画像処理を行う。
図3は、図2の画像処理装置201が行う画像処理の例を示すフローチャートである。まず、特定部212は、第1画像を縮小して縮小画像を生成し(ステップ301)、縮小画像のコントラストを強調又は色調を補正して第2画像を生成し(ステップ302)、第2画像内で物体が写っている第1領域を特定する(ステップ303)。次に、生成部213は、第1画像から第1領域に対応する第2領域を抽出し(ステップ304)、第2領域のコントラストを強調又は色調を補正して領域画像を生成する(ステップ305)。
図2の画像処理装置201によれば、画像に写っている物体の視認性を向上させる処理を高速化することができる。
図4は、図2の画像処理装置201の具体例を示している。図4の画像処理装置401は、記憶部411、画像取得部412、縮小部413、画像強調部414、領域特定部415、領域抽出部416、領域強調部417、補正部418、拡大部419、合成部420、及び出力部421を含む。
記憶部411は、図2の記憶部211に対応し、縮小部413、画像強調部414、及び領域特定部415は特定部212に対応し、領域抽出部416及び領域強調部417は生成部213に対応する。
例えば、画像処理装置401は、情報処理装置(コンピュータ)であり、3次元空間の映像を用いて様々な物体を観察する作業において使用される。例えば、処理対象の映像が海中を撮影した映像である場合、その映像を用いて、養殖生簀内の様子の観察、魚体同士のリアルタイムな比較観察、ソフトウェアによる魚体長計測、ソフトウェアによる魚体数計測、寄生虫観測等が行われる。
処理対象の映像は、航空機又は人工衛星から撮影された地表の映像であってもよく、工場、オフィスビル、街頭等に設置された監視カメラの映像であってもよく、車両等の移動体に搭載されたカメラの映像であってもよい。画像に写っている物体は、建造物、車両、人間、動物等であってもよい。
撮像装置402は、例えば、CCD(Charged-Coupled Device)、CMOS(Complementary Metal-Oxide-Semiconductor)等の撮像素子を有するカメラであり、処理対象の映像を撮影する。撮影された映像は、複数の時刻それぞれにおける画像を含む。処理対象の映像が海中を撮影した映像である場合、撮像装置402は、海中に設置されていてもよい。
画像取得部412は、撮像装置402から、映像に含まれる各時刻の画像431を取得して、記憶部411に格納する。画像431は、第1画像の一例である。画像431は、高解像度画像であってもよい。
縮小部413は、画像431を縮小して縮小画像432を生成し、記憶部411に格納する。例えば、縮小部413は、画素補間法を用いて画像431を縮小する。画素補間法としては、ニアレストネイバー法、バイリニア法、バイキュービック法等を用いることができる。ニアレストネイバー法を用いることで、高速な画像サイズ変換が実現される。
画像強調部414は、縮小画像432のコントラストを強調するか、又は色調を補正することで、強調画像433を生成し、記憶部411に格納する。強調画像433は、第2画像の一例である。
例えば、画像強調部414は、シングルスケールレティネックス、マルチスケールレティネックス等のレティネックス処理を用いて、縮小画像432のコントラストを強調又は色調を補正する。これにより、撮像装置402の特性を反映した縮小画像432が、人間により視認される画像に近い強調画像433に変換され、視認性が向上する。
画像強調部414は、ヒストグラム平坦化法、深層学習を用いた画質変換等の画像補正処理を用いて、縮小画像432のコントラストを強調又は色調を補正してもよい。例えば、画像強調部414は、非特許文献2の技術を用いて、深層学習を用いた画質変換を行うことができる。
領域特定部415は、強調画像433内で物体が写っている物体領域を特定し、領域抽出部416は、画像431から、物体領域に対応する対象領域を抽出する。物体領域は、第1領域の一例であり、対象領域は、第2領域の一例である。領域強調部417は、対象領域のコントラストを強調するか、又は色調を補正することで、領域画像434を生成し、記憶部411に格納する。例えば、領域強調部417は、レティネックス処理、ヒストグラム平坦化法、深層学習を用いた画質変換等を用いて、対象領域の画像のコントラストを強調又は色調を補正する。
補正部418は、領域画像434の色情報を物体領域の色情報に近づける色補正を行って、補正画像435を生成し、記憶部411に格納する。拡大部419は、強調画像433を拡大して拡大画像436を生成し、記憶部411に格納する。例えば、拡大部419は、画素補間法を用いて強調画像433を拡大する。拡大画像436の大きさは、画像431の大きさと同じであってもよい。
合成部420は、拡大画像436と補正画像435とを合成して合成画像437を生成し、記憶部411に格納する。合成部420は、拡大画像436内において、画像431内の対象領域に対応する部分領域を特定し、特定した部分領域の画像を補正画像435に置き換えることで、合成画像437を生成する。
出力部421は、合成画像437を出力する。例えば、出力部421が表示装置である場合、出力部421は、合成画像437を画面上に表示する。映像に含まれる各時刻の画像431から合成画像437を生成することで、時系列の合成画像437を含む合成映像が表示される。
図5は、比較例における画像処理の例を示している。この例では、海中を撮影した映像に含まれる画像501にレティネックス処理を適用することで、画像502が生成される。画像501では視認することが困難な魚体が、画像502では、点線が示すように、辛うじて視認できるようになっている。
そこで、画像501から、画像502の点線が示す魚体を含む領域を抽出して、レティネックス処理を適用することで、画像503が生成される。そして、画像502と画像503とを合成することで、合成画像504が生成される。これにより、画像502の点線が示す魚体の視認性が、画像502よりも向上する。
しかしながら、画像501全体と、画像501の一部の領域の画像とでは、色の分布が異なるため、それぞれの画像に対するレティネックス処理の結果において、その領域内の魚体の色が一致しない。このため、画像502と画像503とをそのまま合成すると、合成画像504に、色崩れによる違和感が生じる。また、図5の画像処理では、画像501全体にレティネックス処理を適用しているため、処理時間が長くなり、フレームレートを維持した高速な視認性向上処理は実現されない。
図6は、画像処理装置401が行う第1の画像処理の例を示している。縮小部413は、海中を撮影した映像に含まれる画像601を縮小して、縮小画像602を生成し、画像強調部414は、縮小画像602にレティネックス処理を適用することで、強調画像603を生成する。
縮小画像602の視認性を向上させた強調画像603を生成することで、画像に写っている魚体の認識が容易になる。また、縮小画像602の画素数は画像601の画素数よりも少ないため、レティネックス処理の処理量が削減され、処理が高速化される。しかし、物体領域611内に小さく写っている魚体は、認識することができたとしても、コントラストが低いままであり、視認性向上の効果は低い。
そこで、領域特定部415は、強調画像603に対するテンプレートマッチング及びエッジ検出処理を行うことで、物体領域611を特定し、領域抽出部416は、画像601から、物体領域611に対応する対象領域621の画像622を抽出する。
領域強調部417は、対象領域621の画像622にレティネックス処理を適用することで、不図示の領域画像を生成する。対象領域621に限定してレティネックス処理を適用することで、物体領域611よりもコントラストが高い領域画像が得られる。画像622の画素数は画像601の画素数よりも少ないため、レティネックス処理の処理量が削減され、処理が高速化される。また、画像622は元の画像601の一部であり、物体領域611よりも画素数が多いため、元の解像度が保持される。
このように、元の画像601を縮小した縮小画像602と、元の画像601の一部の領域の画像622とに対して、レティネックス処理を適用することで、画像601に対する視認性向上処理を高速化することができる。
補正部418は、物体領域611の色情報を取得して、領域画像の色情報を物体領域611の色情報に近づける色補正を行うことで、補正画像623を生成する。これにより、縮小画像602全体のレティネックス処理により得られたバランスの取れた色情報が、補正画像623に反映され、色補償付き視認性向上処理が実現される。したがって、図5に示した合成画像504のような違和感が生じることがなく、画像622に写っている魚体の視認性がさらに向上する。
拡大部419は、強調画像603を拡大して拡大画像を生成する。合成部420は、拡大画像内において、対象領域621に対応する部分領域631を特定し、部分領域631の画像を補正画像623に置き換えることで、合成画像604を生成する。
これにより、強調画像603内において、大きく写っている魚体を含む領域612及び領域613は単純に拡大され、小さく写っている魚体を含む領域611は、補正画像623に置き換えられる。拡大画像の一部を補正画像623に置き換えることで、フレームレートを維持した高速な視認性向上処理が実現され、画像601全体の視認性を向上させることができる。
画像601の代わりに合成画像604を用いることで、養殖生簀内の様子のリアルタイムな観察、魚体同士の目視による比較、ソフトウェアによる魚体長計測等を行うことが容易になる。
図7は、画像処理装置401が行う第2の画像処理の例を示している。縮小部413は、映像に含まれる画像701を縮小して、縮小画像702を生成し、画像強調部414は、縮小画像702にレティネックス処理を適用することで、強調画像703を生成する。
領域特定部415は、強調画像703内で、画像701に写っている物体を示すテンプレート画像を用いてテンプレートマッチングを行い、閾値以上の一致度を有する領域を特定する。また、領域特定部415は、強調画像703に対するエッジ検出処理を行って、強調画像703からエッジを検出する。そして、領域特定部415は、テンプレートマッチングにより特定された領域のうち、エッジ強度が所定値よりも小さい領域を、物体領域711として特定する。
テンプレートマッチングの一致度に対する閾値は、0.7~0.9の範囲の実数であってもよい。強調画像703の面積に対するテンプレート画像の面積の比率Rは、0<R<1の範囲の実数である。フレームレートを維持した高速な処理を実現するためには、R≦1/4であることが好ましい。
領域抽出部416は、画像701から、物体領域711に対応する対象領域712の画像を抽出し、領域強調部417及び補正部418は、対象領域712の画像に対する色補償付き視認性向上処理731を行う。色補償付き視認性向上処理731において、領域強調部417は、対象領域712の画像にレティネックス処理を適用することで、領域画像を生成する。
補正部418は、領域画像の各画素の色情報C1に対するHSV分解732を行うことで、色情報C1をHSV色空間における色相H(Hue)、彩度S(Saturation)、及び明度V(Value)に変換する。また、補正部418は、物体領域711の色情報C0を取得し、色情報C0に対するHSV分解733を行うことで、色情報C0をHSV色空間における色相H、彩度S、及び明度Vに変換する。色情報C1及び色情報C0は、RGB色空間におけるR、G、及びBの値であってもよい。
次に、補正部418は、色情報C1の色相H、彩度S、及び明度Vに対する色補正734を行い、補正後の色相H、彩度S、及び明度Vの合成735を行うことで、補正画像の各画素の色情報C2を生成する。例えば、補正部418は、色情報C1の色相Hを色情報C0の色相Hに近づける演算を行うことで、色情報C2の色相Hを求め、色情報C1の彩度S及び明度Vを、それぞれ、色情報C2の彩度S及び明度Vとして用いる。補正部418は、色情報C0の色相Hを色情報C2の色相Hとして用いてもよい。
拡大部419は、強調画像703を拡大して拡大画像704を生成する。合成部420は、拡大画像704内において、対象領域712に対応する部分領域713の画像を、補正画像に置き換えることで、合成画像705を生成する。
色情報C1の色相Hを色情報C0の色相Hに近づけることで、物体領域711の色あい(赤、オレンジ色、黄色、緑、青、紫等)が補正画像に反映され、合成画像705における色崩れが低減される。
図8は、図4の画像処理装置401が行う画像処理の具体例を示すフローチャートである。まず、画像取得部412は、画像処理を終了するか否かを判定する(ステップ801)。例えば、画像取得部412は、ユーザから終了指示を受け付けた場合、画像処理を終了すると判定し、終了指示を受け付けていない場合、画像処理を終了しないと判定する。
画像処理を終了しないと判定された場合(ステップ801,NO)、画像取得部412は、撮像装置402から、映像に含まれる画像431を取得し(ステップ802)、縮小部413は、画像431を縮小して縮小画像432を生成する(ステップ803)。
次に、画像強調部414は、縮小画像432のコントラストを強調又は色調を補正して強調画像433を生成する(ステップ804)。そして、領域特定部415は、強調画像433から物体を検出するために、強調画像433に対するテンプレートマッチング及びエッジ検出処理を行う(ステップ805)。
次に、領域特定部415は、テンプレートマッチングにより物体が検出されたか否かをチェックし(ステップ806)、物体が検出された場合(ステップ806,YES)、検出された物体のエッジ強度を所定値と比較する(ステップ809)。エッジ強度が所定値よりも小さい場合(ステップ809,YES)、領域特定部415は、その物体が写っている領域を物体領域として特定する(ステップ810)。
強調画像433内の物体が写っている領域のうち、エッジ強度が所定値よりも小さい領域を特定することで、不鮮明な物体が写っている領域のみを対象として、色補償付き視認性向上処理を行うことが可能になる。これにより、鮮明な物体が写っている領域に対する色補償付き視認性向上処理が省略されるため、処理量が削減される。
次に、補正部418は、物体領域の色情報を取得し(ステップ811)、領域抽出部416は、画像431から、物体領域に対応する対象領域を抽出する(ステップ812)。そして、領域強調部417は、対象領域のコントラストを強調又は色調を補正して領域画像434を生成し、補正部418は、領域画像434の色情報を物体領域の色情報に近づける色補正を行って、補正画像435を生成する(ステップ813)。
次に、拡大部419は、強調画像433を拡大して拡大画像436を生成する(ステップ807)。次に、合成部420は、拡大画像436と補正画像435とを合成して合成画像437を生成し、出力部421は、合成画像437を出力する(ステップ808)。そして、画像処理装置401は、次の時刻の画像431について、ステップ801以降の処理を繰り返す。
物体が検出されない場合(ステップ806,NO)、又はエッジ強度が所定値以上である場合(ステップ809,NO)、画像処理装置401は、ステップ807以降の処理を行う。この場合、補正画像435は生成されず、拡大画像436がそのまま合成画像437として出力される。
画像処理を終了すると判定された場合(ステップ801,YES)、画像処理装置401は、画像処理を終了する。
なお、領域画像434の色情報と物体領域の色情報とが近似している場合は、必ずしも領域画像434の色補正を行う必要はない。色補正を行わない場合、画像処理装置401は、ステップ811の処理を省略し、ステップ813において補正画像435を生成しない。そして、ステップ808において、合成部420は、拡大画像436と領域画像434とを合成して合成画像437を生成する。
図9は、図4の画像処理装置401と同様の画像処理を行う画像処理システムの機能的構成例を示している。図9の画像処理システムは、撮像装置402、記憶部411、画像取得部412、縮小部413、画像強調部414、領域特定部415、領域抽出部416、領域強調部417、補正部418、拡大部419、合成部420、及び出力部421を含む。
図9に示された複数の構成要素は、複数の情報処理装置に分散して実装される。これらの構成要素はそれぞれ異なる情報処理装置に含まれていてもよく、いずれか2つ以上の構成要素が1台の情報処理装置に含まれていてもよい。各構成要素が行う動作は、画像処理装置401の場合と同様である。
図2及び図4の画像処理装置の構成は一例に過ぎず、画像処理装置の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、図4の画像処理装置401において、画像431が事前に記憶部411に格納されている場合は、画像取得部412を省略することができる。領域画像434の色補正を行わない場合は、補正部418を省略することができる。
図9の画像処理システムの構成は一例に過ぎず、画像処理システムの用途又は条件に応じて一部の構成要素を省略又は変更してもよい。
図3及び図8のフローチャートは一例に過ぎず、画像処理装置の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図8の画像処理において、画像431が事前に記憶部411に格納されている場合は、ステップ802の処理を省略することができる。ステップ805において、領域特定部415は、強調画像703に対するエッジ検出処理を省略することもできる。この場合、ステップ809の処理も省略される。
図1及び図5~図7の画像は一例に過ぎず、処理対象の画像は、撮影対象の物体に応じて変化する。図7に示した色補償付き視認性向上処理731は一例に過ぎず、画像処理装置401の構成又は条件に応じて別の補正処理を用いてもよい。例えば、補正部418は、色情報C1の色相Hだけでなく、彩度S及び明度Vを変更することも可能である。補正部418は、HSV色空間以外の色空間における演算により、領域画像の色補正を行ってもよい。
図10は、図2及び図4の画像処理装置として用いられる情報処理装置のハードウェア構成例を示している。図10の情報処理装置は、CPU(Central Processing Unit)1001、メモリ1002、入力装置1003、出力装置1004、補助記憶装置1005、媒体駆動装置1006、及びネットワーク接続装置1007を含む。これらの構成要素はハードウェアであり、バス1008により互いに接続されている。
メモリ1002は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを格納する。メモリ1002は、図2の記憶部211又は図4の記憶部411として用いることができる。
CPU1001(プロセッサ)は、例えば、メモリ1002を利用してプログラムを実行することにより、図2の特定部212及び生成部213として動作する。
CPU1001は、メモリ1002を利用してプログラムを実行することにより、図4の画像取得部412、縮小部413、画像強調部414、領域特定部415、領域抽出部416、及び領域強調部417としても動作する。CPU1001は、メモリ1002を利用してプログラムを実行することにより、補正部418、拡大部419、及び合成部420としても動作する。
入力装置1003は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置1004は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。処理結果は、合成画像437であってもよい。出力装置1004は、図4の出力部421として用いることができる。
補助記憶装置1005は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1005は、ハードディスクドライブ又はフラッシュメモリであってもよい。情報処理装置は、補助記憶装置1005にプログラム及びデータを格納しておき、それらをメモリ1002にロードして使用することができる。補助記憶装置1005は、図2の記憶部211又は図4の記憶部411として用いることができる。
媒体駆動装置1006は、可搬型記録媒体1009を駆動し、その記録内容にアクセスする。可搬型記録媒体1009は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1009は、CD-ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体1009にプログラム及びデータを格納しておき、それらをメモリ1002にロードして使用することができる。
このように、画像処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ1002、補助記憶装置1005、又は可搬型記録媒体1009のような、物理的な(非一時的な)記録媒体である。
ネットワーク接続装置1007は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1007を介して受信し、それらをメモリ1002にロードして使用することができる。ネットワーク接続装置1007は、図4の出力部421として用いることができる。
なお、情報処理装置が図10のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、オペレータ又はユーザからの指示又は情報を入力する必要がない場合は、入力装置1003を省略してもよい。可搬型記録媒体1009又は通信ネットワークを使用しない場合は、媒体駆動装置1006又はネットワーク接続装置1007を省略してもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図1乃至図10を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
第1画像を縮小して縮小画像を生成し、
前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、
前記第2画像内で物体が写っている第1領域を特定し、
前記第1画像から前記第1領域に対応する第2領域を抽出し、
前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する、
処理をコンピュータに実行させるための画像処理プログラム。
(付記2)
前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成し、
前記第2画像を拡大して拡大画像を生成し、
前記拡大画像と前記補正画像とを合成して合成画像を生成し、
前記合成画像を出力する、
処理を前記コンピュータにさらに実行させることを特徴とする付記1記載の画像処理プログラム。
(付記3)
前記色補正は、前記領域画像の色相を前記第1領域の色相に近づける処理であることを特徴とする付記2記載の画像処理プログラム。
(付記4)
前記画像処理プログラムは、前記第2画像からエッジを検出する処理を、前記コンピュータにさらに実行させ、
前記第1領域は、前記第2画像内においてエッジ強度が所定値よりも小さい領域であることを特徴とする付記1乃至3のいずれか1項に記載の画像処理プログラム。
(付記5)
前記コンピュータは、レティネックス処理により、前記縮小画像及び前記第2領域のコントラストを強調又は色調を補正することを特徴とする付記1乃至4のいずれか1項に記載の画像処理プログラム。
(付記6)
第1画像を記憶する記憶部と、
前記第1画像を縮小して縮小画像を生成し、前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、前記第2画像内で物体が写っている第1領域を特定する特定部と、
前記第1画像から前記第1領域に対応する第2領域を抽出し、前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する生成部と、
を備えることを特徴とする画像処理装置。
(付記7)
前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成する補正部と、
前記第2画像を拡大して拡大画像を生成する拡大部と、
前記拡大画像と前記補正画像とを合成して合成画像を生成する合成部と、
前記合成画像を出力する出力部と、
をさらに備えることを特徴とする付記6記載の画像処理装置。
(付記8)
前記色補正は、前記領域画像の色相を前記第1領域の色相に近づける処理であることを特徴とする付記7記載の画像処理装置。
(付記9)
前記特定部は、前記第2画像からエッジを検出し、
前記第1領域は、前記第2画像内においてエッジ強度が所定値よりも小さい領域であることを特徴とする付記6乃至8のいずれか1項に記載の画像処理装置。
(付記10)
前記特定部は、レティネックス処理により、前記縮小画像のコントラストを強調又は色調を補正し、前記生成部は、前記レティネックス処理により、前記第2領域のコントラストを強調又は色調を補正することを特徴とする付記6乃至9のいずれか1項に記載の画像処理装置。
(付記11)
第1画像を記憶する記憶部と、
前記第1画像を縮小して縮小画像を生成し、前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、前記第2画像内で物体が写っている第1領域を特定する特定部と、
前記第1画像から前記第1領域に対応する第2領域を抽出し、前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する生成部と、
を備えることを特徴とする画像処理システム。
(付記12)
前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成する補正部と、
前記第2画像を拡大して拡大画像を生成する拡大部と、
前記拡大画像と前記補正画像とを合成して合成画像を生成する合成部と、
前記合成画像を出力する出力部と、
をさらに備えることを特徴とする付記11記載の画像処理システム。
(付記13)
コンピュータによって実行される画像処理方法であって、
前記コンピュータが、
第1画像を縮小して縮小画像を生成し、
前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、
前記第2画像内で物体が写っている第1領域を特定し、
前記第1画像から前記第1領域に対応する第2領域を抽出し、
前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する、
ことを特徴とする画像処理方法。
(付記14)
前記コンピュータは、
前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成し、
前記第2画像を拡大して拡大画像を生成し、
前記拡大画像と前記補正画像とを合成して合成画像を生成し、
前記合成画像を出力する、
ことを特徴とする付記13記載の画像処理方法。
101、102、431、501~503、601、622、701 画像
111、612、613 領域
201、401 画像処理装置
211、411 記憶部
212 特定部
213 生成部
402 撮像装置
412 画像取得部
413 縮小部
414 画像強調部
415 領域特定部
416 領域抽出部
417 領域強調部
418 補正部
419 拡大部
420 合成部
421 出力部
432、602、702 縮小画像
433、603、703 強調画像
434 領域画像
435、623 補正画像
436、704 拡大画像
437、504、604、705 合成画像
611、711 物体領域
621、712 対象領域
631、713 部分領域
731 色補償付き視認性向上処理
732、733 HSV分解
734 色補正
735 合成
1001 CPU
1002 メモリ
1003 入力装置
1004 出力装置
1005 補助記憶装置
1006 媒体駆動装置
1007 ネットワーク接続装置
1008 バス
1009 可搬型記録媒体

Claims (6)

  1. 第1画像を縮小して縮小画像を生成し、
    前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、
    前記第2画像内で物体が写っている第1領域を特定し、
    前記第1画像から前記第1領域に対応する第2領域を抽出し、
    前記第2領域のコントラストを強調又は色調を補正して領域画像を生成し、
    前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成し、
    前記第2画像を拡大して拡大画像を生成し、
    前記拡大画像と前記補正画像とを合成して合成画像を生成し、
    前記合成画像を出力する
    処理をコンピュータに実行させるための画像処理プログラム
  2. 前記色補正は、前記領域画像の色相を前記第1領域の色相に近づける処理であることを特徴とする請求項記載の画像処理プログラム。
  3. 前記画像処理プログラムは、前記第2画像からエッジを検出する処理を、前記コンピュータにさらに実行させ、
    前記第1領域は、前記第2画像内においてエッジ強度が所定値よりも小さい領域であることを特徴とする請求項1又は2記載の画像処理プログラム。
  4. 第1画像を記憶する記憶部と、
    前記第1画像を縮小して縮小画像を生成し、前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、前記第2画像内で物体が写っている第1領域を特定する特定部と、
    前記第1画像から前記第1領域に対応する第2領域を抽出し、前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する生成部と、
    前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成する補正部と、
    前記第2画像を拡大して拡大画像を生成する拡大部と、
    前記拡大画像と前記補正画像とを合成して合成画像を生成する合成部と、
    前記合成画像を出力する出力部と、
    を備えることを特徴とする画像処理装置。
  5. 第1画像を記憶する記憶部と、
    前記第1画像を縮小して縮小画像を生成し、前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、前記第2画像内で物体が写っている第1領域を特定する特定部と、
    前記第1画像から前記第1領域に対応する第2領域を抽出し、前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する生成部と、
    前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成する補正部と、
    前記第2画像を拡大して拡大画像を生成する拡大部と、
    前記拡大画像と前記補正画像とを合成して合成画像を生成する合成部と、
    前記合成画像を出力する出力部と、
    を備えることを特徴とする画像処理システム。
  6. コンピュータによって実行される画像処理方法であって、
    前記コンピュータが、
    第1画像を縮小して縮小画像を生成し、
    前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、
    前記第2画像内で物体が写っている第1領域を特定し、
    前記第1画像から前記第1領域に対応する第2領域を抽出し、
    前記第2領域のコントラストを強調又は色調を補正して領域画像を生成し、
    前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成し、
    前記第2画像を拡大して拡大画像を生成し、
    前記拡大画像と前記補正画像とを合成して合成画像を生成し、
    前記合成画像を出力する
    ことを特徴とする画像処理方法。
JP2019139448A 2019-07-30 2019-07-30 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法 Active JP7445109B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019139448A JP7445109B2 (ja) 2019-07-30 2019-07-30 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019139448A JP7445109B2 (ja) 2019-07-30 2019-07-30 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2021022263A JP2021022263A (ja) 2021-02-18
JP7445109B2 true JP7445109B2 (ja) 2024-03-07

Family

ID=74573288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019139448A Active JP7445109B2 (ja) 2019-07-30 2019-07-30 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法

Country Status (1)

Country Link
JP (1) JP7445109B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011619A (ja) 2004-06-23 2006-01-12 Noritsu Koki Co Ltd 写真画像処理方法及びその装置
JP2007272878A (ja) 2006-03-07 2007-10-18 Brother Ind Ltd 画像処理プログラムおよび画像処理装置
JP2008078802A (ja) 2006-09-19 2008-04-03 Fujifilm Corp 撮影装置および撮影方法
JP2008108024A (ja) 2006-10-25 2008-05-08 Matsushita Electric Ind Co Ltd 画像処理装置および撮像装置
JP2010186268A (ja) 2009-02-10 2010-08-26 Seiko Epson Corp 画像処理装置、プリンター、画像処理方法および画像処理プログラム
JP2015226227A (ja) 2014-05-28 2015-12-14 富士ゼロックス株式会社 画像処理装置及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011619A (ja) 2004-06-23 2006-01-12 Noritsu Koki Co Ltd 写真画像処理方法及びその装置
JP2007272878A (ja) 2006-03-07 2007-10-18 Brother Ind Ltd 画像処理プログラムおよび画像処理装置
JP2008078802A (ja) 2006-09-19 2008-04-03 Fujifilm Corp 撮影装置および撮影方法
JP2008108024A (ja) 2006-10-25 2008-05-08 Matsushita Electric Ind Co Ltd 画像処理装置および撮像装置
JP2010186268A (ja) 2009-02-10 2010-08-26 Seiko Epson Corp 画像処理装置、プリンター、画像処理方法および画像処理プログラム
JP2015226227A (ja) 2014-05-28 2015-12-14 富士ゼロックス株式会社 画像処理装置及びプログラム

Also Published As

Publication number Publication date
JP2021022263A (ja) 2021-02-18

Similar Documents

Publication Publication Date Title
EP3477931B1 (en) Image processing method and device, readable storage medium and electronic device
US10198624B2 (en) Segmentation-guided real-time facial performance capture
JP5555706B2 (ja) 高解像度映像獲得装置およびその方法
JP2020129276A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6635799B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6609505B2 (ja) 画像合成装置及びプログラム
KR20150145725A (ko) Ldr 비디오 시퀀스의 동적 범위 확장을 위한 방법 및 장치
KR20190030870A (ko) 가상 크로마키 배경을 이용하여 영상을 합성하는 장치, 방법 및 컴퓨터 프로그램
WO2021225472A2 (en) Joint objects image signal processing in temporal domain
Anantrasirichai et al. Contextual colorization and denoising for low-light ultra high resolution sequences
CN115294055A (zh) 图像处理方法、装置、电子设备和可读存储介质
JP5286215B2 (ja) 輪郭抽出装置、輪郭抽出方法、および輪郭抽出プログラム
JP7445109B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法
Bengtsson et al. Regularized optimization for joint super-resolution and high dynamic range image reconstruction in a perceptually uniform domain
JP5892592B2 (ja) 超解像画像処理装置及び超解像画像処理用コードブック作成装置
KR102599675B1 (ko) 기계학습을 이용한 고해상도 영상의 처리 방법 및 장치
Li et al. Contrast enhancement algorithm for outdoor infrared images based on local gradient-grayscale statistical feature
KR102389284B1 (ko) 인공지능 기반 이미지 인페인팅 방법 및 디바이스
JP2005182232A (ja) 輝度補正装置および輝度補正方法
KR20140138046A (ko) 픽처를 처리하기 위한 방법 및 디바이스
Baraiya et al. An introduction of image fusion techniques
Tang et al. BMISP: Bidirectional mapping of image signal processing pipeline
CN112861883A (zh) 一种图像显著性区域检测方法及装置
CN111062862A (zh) 基于颜色的数据增强方法和系统及计算机设备和存储介质
JP7329964B2 (ja) 画像処理装置および画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231019

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20231019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240205

R150 Certificate of patent or registration of utility model

Ref document number: 7445109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150