JP2021022263A - Image processing program, image processing device, image processing system, and image processing method - Google Patents
Image processing program, image processing device, image processing system, and image processing method Download PDFInfo
- Publication number
- JP2021022263A JP2021022263A JP2019139448A JP2019139448A JP2021022263A JP 2021022263 A JP2021022263 A JP 2021022263A JP 2019139448 A JP2019139448 A JP 2019139448A JP 2019139448 A JP2019139448 A JP 2019139448A JP 2021022263 A JP2021022263 A JP 2021022263A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- generate
- image processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 105
- 238000003672 processing method Methods 0.000 title claims description 7
- 239000000284 extract Substances 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 46
- 238000012937 correction Methods 0.000 claims description 38
- 230000008569 process Effects 0.000 claims description 36
- 239000002131 composite material Substances 0.000 claims description 28
- 241000251468 Actinopterygii Species 0.000 description 26
- 230000010365 information processing Effects 0.000 description 10
- 230000009467 reduction Effects 0.000 description 10
- 238000000605 extraction Methods 0.000 description 8
- 230000006872 improvement Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 238000009360 aquaculture Methods 0.000 description 4
- 244000144974 aquaculture Species 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003702 image correction Methods 0.000 description 2
- 244000045947 parasite Species 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法に関する。 The present invention relates to an image processing program, an image processing apparatus, an image processing system, and an image processing method.
近年の世界的な人口増加に伴い、持続可能な食糧源として養殖魚が注目されている。養殖業において、ICT(Information and Communications Technology)の活用が広がっており、カメラで海中を観察することが試みられている。 With the recent increase in the global population, farmed fish are attracting attention as a sustainable food source. In the aquaculture industry, the use of ICT (Information and Communications Technology) is spreading, and attempts are being made to observe the sea with a camera.
カメラで撮影された映像は、養殖生簀内の様子の観察、魚体同士のリアルタイムな比較観察、ソフトウェアによる魚体長計測、ソフトウェアによる魚体数計測、寄生虫観測等に活用される。 The images taken by the camera are used for observing the inside of the aquaculture cage, real-time comparative observation of fish bodies, fish length measurement by software, fish number measurement by software, parasite observation, etc.
画像処理に関して、入力画像の一部を切り出して所望の切り出し画像を得る画像処理装置が知られている(例えば、特許文献1を参照)。生体における網膜や皮質と同等の役割をモデル化したレティネックス処理も知られている(例えば、特許文献2及び非特許文献1を参照)。敵対的生成ネットワークを用いた画像変換も知られている(例えば、非特許文献2を参照)。 Regarding image processing, an image processing apparatus is known that cuts out a part of an input image to obtain a desired cut-out image (see, for example, Patent Document 1). Retinex treatments that model the role of the retina and cortex in the living body are also known (see, for example, Patent Document 2 and Non-Patent Document 1). Image conversion using a hostile generation network is also known (see, for example, Non-Patent Document 2).
海中を撮影した映像に写っている不鮮明な魚体の視認性を向上させる処理は、処理量が多いため時間がかかる。 The process of improving the visibility of the unclear fish in the image taken underwater takes time due to the large amount of processing.
なお、かかる問題は、海中の映像を用いて魚体を観察する場合に限らず、3次元空間の画像を用いて様々な物体を観察する場合において生ずるものである。 It should be noted that such a problem occurs not only when observing a fish body using an underwater image but also when observing various objects using an image in a three-dimensional space.
1つの側面において、本発明は、画像に写っている物体の視認性を向上させる処理を高速化することを目的とする。 In one aspect, it is an object of the present invention to speed up the process of improving the visibility of an object in an image.
1つの案では、画像処理プログラムは、以下の処理をコンピュータに実行させる。
(1)コンピュータは、第1画像を縮小して縮小画像を生成する。
(2)コンピュータは、縮小画像のコントラストを強調又は色調を補正して第2画像を生成する。
(3)コンピュータは、第2画像内で物体が写っている第1領域を特定する。
(4)コンピュータは、第1画像から第1領域に対応する第2領域を抽出する。
(5)コンピュータは、第2領域のコントラストを強調又は色調を補正して領域画像を生成する。
In one proposal, the image processing program causes the computer to perform the following processing.
(1) The computer reduces the first image to generate a reduced image.
(2) The computer generates the second image by enhancing the contrast of the reduced image or correcting the color tone.
(3) The computer identifies the first region in which the object appears in the second image.
(4) The computer extracts a second region corresponding to the first region from the first image.
(5) The computer generates a region image by emphasizing the contrast of the second region or correcting the color tone.
1つの側面によれば、画像に写っている物体の視認性を向上させる処理を高速化することができる。 According to one aspect, it is possible to speed up the process of improving the visibility of the object in the image.
以下、図面を参照しながら、実施形態を詳細に説明する。
特許文献2及び非特許文献1に開示されたレティネックス処理は、人間の視覚特性を反映した画像補正処理である。レティネックス処理によれば、画像のダイナミックレンジを調整してコントラストを強調するか、又は色調を補正することで、視認性を向上させることができる。
Hereinafter, embodiments will be described in detail with reference to the drawings.
The Retinex process disclosed in Patent Document 2 and Non-Patent Document 1 is an image correction process that reflects human visual characteristics. According to the Retinex process, the visibility can be improved by adjusting the dynamic range of the image to enhance the contrast or correcting the color tone.
海中を撮影した映像は時系列の画像を含み、各時刻の画像は、フレームと呼ばれることがある。映像に含まれるフレームとして高解像度画像を用いた場合、1フレーム当たりの画素数が多くなる。このため、各フレームにレティネックス処理を適用すると、処理時間が長くなり、フレームレートを保つことが困難になる。 Images taken underwater include time-series images, and the images at each time are sometimes called frames. When a high-resolution image is used as a frame included in the video, the number of pixels per frame increases. Therefore, when the Retinex processing is applied to each frame, the processing time becomes long and it becomes difficult to maintain the frame rate.
また、観察対象の魚体がカメラから遠い位置に存在したり、魚影が小さくて低コントラストであったりする場合、画像全体にレティネックス処理を適用すると、魚影を認識できる程度に改善されたとしても、視認性向上の効果は低い。 Also, if the fish to be observed is located far from the camera, or if the fish shadow is small and has low contrast, applying Retinex processing to the entire image improved the fish shadow to the extent that it can be recognized. However, the effect of improving visibility is low.
図1は、海中を撮影した画像に対するレティネックス処理の例を示している。カメラで撮影された画像101には、様々な魚体が写っている。魚体は、画像に写っている物体の一例である。
FIG. 1 shows an example of retinex processing on an image taken underwater. The
画像101全体に対してレティネックス処理を適用することで、視認性が向上した画像102が得られる。これにより、画像102の領域111内に魚影が写っていることが確認できるが、視認性向上の効果は限定的である。
By applying the Retinex process to the
図2は、実施形態の画像処理装置の機能的構成例を示している。図2の画像処理装置201は、記憶部211、特定部212、及び生成部213を含む。記憶部211は、第1画像を記憶する。特定部212及び生成部213は、第1画像に対する画像処理を行う。
FIG. 2 shows an example of a functional configuration of the image processing apparatus of the embodiment. The
図3は、図2の画像処理装置201が行う画像処理の例を示すフローチャートである。まず、特定部212は、第1画像を縮小して縮小画像を生成し(ステップ301)、縮小画像のコントラストを強調又は色調を補正して第2画像を生成し(ステップ302)、第2画像内で物体が写っている第1領域を特定する(ステップ303)。次に、生成部213は、第1画像から第1領域に対応する第2領域を抽出し(ステップ304)、第2領域のコントラストを強調又は色調を補正して領域画像を生成する(ステップ305)。
FIG. 3 is a flowchart showing an example of image processing performed by the
図2の画像処理装置201によれば、画像に写っている物体の視認性を向上させる処理を高速化することができる。
According to the
図4は、図2の画像処理装置201の具体例を示している。図4の画像処理装置401は、記憶部411、画像取得部412、縮小部413、画像強調部414、領域特定部415、領域抽出部416、領域強調部417、補正部418、拡大部419、合成部420、及び出力部421を含む。
FIG. 4 shows a specific example of the
記憶部411は、図2の記憶部211に対応し、縮小部413、画像強調部414、及び領域特定部415は特定部212に対応し、領域抽出部416及び領域強調部417は生成部213に対応する。
The
例えば、画像処理装置401は、情報処理装置(コンピュータ)であり、3次元空間の映像を用いて様々な物体を観察する作業において使用される。例えば、処理対象の映像が海中を撮影した映像である場合、その映像を用いて、養殖生簀内の様子の観察、魚体同士のリアルタイムな比較観察、ソフトウェアによる魚体長計測、ソフトウェアによる魚体数計測、寄生虫観測等が行われる。
For example, the
処理対象の映像は、航空機又は人工衛星から撮影された地表の映像であってもよく、工場、オフィスビル、街頭等に設置された監視カメラの映像であってもよく、車両等の移動体に搭載されたカメラの映像であってもよい。画像に写っている物体は、建造物、車両、人間、動物等であってもよい。 The image to be processed may be an image of the ground surface taken from an aircraft or an artificial satellite, an image of a surveillance camera installed in a factory, an office building, a street, or the like, and may be an image of a moving object such as a vehicle. It may be an image of the mounted camera. The object shown in the image may be a building, a vehicle, a human being, an animal, or the like.
撮像装置402は、例えば、CCD(Charged-Coupled Device)、CMOS(Complementary Metal-Oxide-Semiconductor)等の撮像素子を有するカメラであり、処理対象の映像を撮影する。撮影された映像は、複数の時刻それぞれにおける画像を含む。処理対象の映像が海中を撮影した映像である場合、撮像装置402は、海中に設置されていてもよい。
The
画像取得部412は、撮像装置402から、映像に含まれる各時刻の画像431を取得して、記憶部411に格納する。画像431は、第1画像の一例である。画像431は、高解像度画像であってもよい。
The
縮小部413は、画像431を縮小して縮小画像432を生成し、記憶部411に格納する。例えば、縮小部413は、画素補間法を用いて画像431を縮小する。画素補間法としては、ニアレストネイバー法、バイリニア法、バイキュービック法等を用いることができる。ニアレストネイバー法を用いることで、高速な画像サイズ変換が実現される。
The
画像強調部414は、縮小画像432のコントラストを強調するか、又は色調を補正することで、強調画像433を生成し、記憶部411に格納する。強調画像433は、第2画像の一例である。
The
例えば、画像強調部414は、シングルスケールレティネックス、マルチスケールレティネックス等のレティネックス処理を用いて、縮小画像432のコントラストを強調又は色調を補正する。これにより、撮像装置402の特性を反映した縮小画像432が、人間により視認される画像に近い強調画像433に変換され、視認性が向上する。
For example, the
画像強調部414は、ヒストグラム平坦化法、深層学習を用いた画質変換等の画像補正処理を用いて、縮小画像432のコントラストを強調又は色調を補正してもよい。例えば、画像強調部414は、非特許文献2の技術を用いて、深層学習を用いた画質変換を行うことができる。
The
領域特定部415は、強調画像433内で物体が写っている物体領域を特定し、領域抽出部416は、画像431から、物体領域に対応する対象領域を抽出する。物体領域は、第1領域の一例であり、対象領域は、第2領域の一例である。領域強調部417は、対象領域のコントラストを強調するか、又は色調を補正することで、領域画像434を生成し、記憶部411に格納する。例えば、領域強調部417は、レティネックス処理、ヒストグラム平坦化法、深層学習を用いた画質変換等を用いて、対象領域の画像のコントラストを強調又は色調を補正する。
The
補正部418は、領域画像434の色情報を物体領域の色情報に近づける色補正を行って、補正画像435を生成し、記憶部411に格納する。拡大部419は、強調画像433を拡大して拡大画像436を生成し、記憶部411に格納する。例えば、拡大部419は、画素補間法を用いて強調画像433を拡大する。拡大画像436の大きさは、画像431の大きさと同じであってもよい。
The
合成部420は、拡大画像436と補正画像435とを合成して合成画像437を生成し、記憶部411に格納する。合成部420は、拡大画像436内において、画像431内の対象領域に対応する部分領域を特定し、特定した部分領域の画像を補正画像435に置き換えることで、合成画像437を生成する。
The
出力部421は、合成画像437を出力する。例えば、出力部421が表示装置である場合、出力部421は、合成画像437を画面上に表示する。映像に含まれる各時刻の画像431から合成画像437を生成することで、時系列の合成画像437を含む合成映像が表示される。
The
図5は、比較例における画像処理の例を示している。この例では、海中を撮影した映像に含まれる画像501にレティネックス処理を適用することで、画像502が生成される。画像501では視認することが困難な魚体が、画像502では、点線が示すように、辛うじて視認できるようになっている。
FIG. 5 shows an example of image processing in the comparative example. In this example, the
そこで、画像501から、画像502の点線が示す魚体を含む領域を抽出して、レティネックス処理を適用することで、画像503が生成される。そして、画像502と画像503とを合成することで、合成画像504が生成される。これにより、画像502の点線が示す魚体の視認性が、画像502よりも向上する。
Therefore, the
しかしながら、画像501全体と、画像501の一部の領域の画像とでは、色の分布が異なるため、それぞれの画像に対するレティネックス処理の結果において、その領域内の魚体の色が一致しない。このため、画像502と画像503とをそのまま合成すると、合成画像504に、色崩れによる違和感が生じる。また、図5の画像処理では、画像501全体にレティネックス処理を適用しているため、処理時間が長くなり、フレームレートを維持した高速な視認性向上処理は実現されない。
However, since the color distribution is different between the entire image 501 and the image of a part of the image 501, the colors of the fish in the region do not match in the result of the Retinex processing for each image. Therefore, if the
図6は、画像処理装置401が行う第1の画像処理の例を示している。縮小部413は、海中を撮影した映像に含まれる画像601を縮小して、縮小画像602を生成し、画像強調部414は、縮小画像602にレティネックス処理を適用することで、強調画像603を生成する。
FIG. 6 shows an example of the first image processing performed by the
縮小画像602の視認性を向上させた強調画像603を生成することで、画像に写っている魚体の認識が容易になる。また、縮小画像602の画素数は画像601の画素数よりも少ないため、レティネックス処理の処理量が削減され、処理が高速化される。しかし、物体領域611内に小さく写っている魚体は、認識することができたとしても、コントラストが低いままであり、視認性向上の効果は低い。
By generating the emphasized
そこで、領域特定部415は、強調画像603に対するテンプレートマッチング及びエッジ検出処理を行うことで、物体領域611を特定し、領域抽出部416は、画像601から、物体領域611に対応する対象領域621の画像622を抽出する。
Therefore, the
領域強調部417は、対象領域621の画像622にレティネックス処理を適用することで、不図示の領域画像を生成する。対象領域621に限定してレティネックス処理を適用することで、物体領域611よりもコントラストが高い領域画像が得られる。画像622の画素数は画像601の画素数よりも少ないため、レティネックス処理の処理量が削減され、処理が高速化される。また、画像622は元の画像601の一部であり、物体領域611よりも画素数が多いため、元の解像度が保持される。
The
このように、元の画像601を縮小した縮小画像602と、元の画像601の一部の領域の画像622とに対して、レティネックス処理を適用することで、画像601に対する視認性向上処理を高速化することができる。
In this way, by applying the Retinex process to the reduced
補正部418は、物体領域611の色情報を取得して、領域画像の色情報を物体領域611の色情報に近づける色補正を行うことで、補正画像623を生成する。これにより、縮小画像602全体のレティネックス処理により得られたバランスの取れた色情報が、補正画像623に反映され、色補償付き視認性向上処理が実現される。したがって、図5に示した合成画像504のような違和感が生じることがなく、画像622に写っている魚体の視認性がさらに向上する。
The
拡大部419は、強調画像603を拡大して拡大画像を生成する。合成部420は、拡大画像内において、対象領域621に対応する部分領域631を特定し、部分領域631の画像を補正画像623に置き換えることで、合成画像604を生成する。
The
これにより、強調画像603内において、大きく写っている魚体を含む領域612及び領域613は単純に拡大され、小さく写っている魚体を含む領域611は、補正画像623に置き換えられる。拡大画像の一部を補正画像623に置き換えることで、フレームレートを維持した高速な視認性向上処理が実現され、画像601全体の視認性を向上させることができる。
As a result, in the
画像601の代わりに合成画像604を用いることで、養殖生簀内の様子のリアルタイムな観察、魚体同士の目視による比較、ソフトウェアによる魚体長計測等を行うことが容易になる。
By using the
図7は、画像処理装置401が行う第2の画像処理の例を示している。縮小部413は、映像に含まれる画像701を縮小して、縮小画像702を生成し、画像強調部414は、縮小画像702にレティネックス処理を適用することで、強調画像703を生成する。
FIG. 7 shows an example of the second image processing performed by the
領域特定部415は、強調画像703内で、画像701に写っている物体を示すテンプレート画像を用いてテンプレートマッチングを行い、閾値以上の一致度を有する領域を特定する。また、領域特定部415は、強調画像703に対するエッジ検出処理を行って、強調画像703からエッジを検出する。そして、領域特定部415は、テンプレートマッチングにより特定された領域のうち、エッジ強度が所定値よりも小さい領域を、物体領域711として特定する。
The
テンプレートマッチングの一致度に対する閾値は、0.7〜0.9の範囲の実数であってもよい。強調画像703の面積に対するテンプレート画像の面積の比率Rは、0<R<1の範囲の実数である。フレームレートを維持した高速な処理を実現するためには、R≦1/4であることが好ましい。
The threshold for the degree of matching of template matching may be a real number in the range of 0.7 to 0.9. The ratio R of the area of the template image to the area of the emphasized
領域抽出部416は、画像701から、物体領域711に対応する対象領域712の画像を抽出し、領域強調部417及び補正部418は、対象領域712の画像に対する色補償付き視認性向上処理731を行う。色補償付き視認性向上処理731において、領域強調部417は、対象領域712の画像にレティネックス処理を適用することで、領域画像を生成する。
The
補正部418は、領域画像の各画素の色情報C1に対するHSV分解732を行うことで、色情報C1をHSV色空間における色相H(Hue)、彩度S(Saturation)、及び明度V(Value)に変換する。また、補正部418は、物体領域711の色情報C0を取得し、色情報C0に対するHSV分解733を行うことで、色情報C0をHSV色空間における色相H、彩度S、及び明度Vに変換する。色情報C1及び色情報C0は、RGB色空間におけるR、G、及びBの値であってもよい。
The
次に、補正部418は、色情報C1の色相H、彩度S、及び明度Vに対する色補正734を行い、補正後の色相H、彩度S、及び明度Vの合成735を行うことで、補正画像の各画素の色情報C2を生成する。例えば、補正部418は、色情報C1の色相Hを色情報C0の色相Hに近づける演算を行うことで、色情報C2の色相Hを求め、色情報C1の彩度S及び明度Vを、それぞれ、色情報C2の彩度S及び明度Vとして用いる。補正部418は、色情報C0の色相Hを色情報C2の色相Hとして用いてもよい。
Next, the
拡大部419は、強調画像703を拡大して拡大画像704を生成する。合成部420は、拡大画像704内において、対象領域712に対応する部分領域713の画像を、補正画像に置き換えることで、合成画像705を生成する。
The
色情報C1の色相Hを色情報C0の色相Hに近づけることで、物体領域711の色あい(赤、オレンジ色、黄色、緑、青、紫等)が補正画像に反映され、合成画像705における色崩れが低減される。
By bringing the hue H of the color information C1 closer to the hue H of the color information C0, the hue (red, orange, yellow, green, blue, purple, etc.) of the
図8は、図4の画像処理装置401が行う画像処理の具体例を示すフローチャートである。まず、画像取得部412は、画像処理を終了するか否かを判定する(ステップ801)。例えば、画像取得部412は、ユーザから終了指示を受け付けた場合、画像処理を終了すると判定し、終了指示を受け付けていない場合、画像処理を終了しないと判定する。
FIG. 8 is a flowchart showing a specific example of image processing performed by the
画像処理を終了しないと判定された場合(ステップ801,NO)、画像取得部412は、撮像装置402から、映像に含まれる画像431を取得し(ステップ802)、縮小部413は、画像431を縮小して縮小画像432を生成する(ステップ803)。
When it is determined that the image processing is not completed (
次に、画像強調部414は、縮小画像432のコントラストを強調又は色調を補正して強調画像433を生成する(ステップ804)。そして、領域特定部415は、強調画像433から物体を検出するために、強調画像433に対するテンプレートマッチング及びエッジ検出処理を行う(ステップ805)。
Next, the
次に、領域特定部415は、テンプレートマッチングにより物体が検出されたか否かをチェックし(ステップ806)、物体が検出された場合(ステップ806,YES)、検出された物体のエッジ強度を所定値と比較する(ステップ809)。エッジ強度が所定値よりも小さい場合(ステップ809,YES)、領域特定部415は、その物体が写っている領域を物体領域として特定する(ステップ810)。
Next, the
強調画像433内の物体が写っている領域のうち、エッジ強度が所定値よりも小さい領域を特定することで、不鮮明な物体が写っている領域のみを対象として、色補償付き視認性向上処理を行うことが可能になる。これにより、鮮明な物体が写っている領域に対する色補償付き視認性向上処理が省略されるため、処理量が削減される。
By identifying the area in the emphasized
次に、補正部418は、物体領域の色情報を取得し(ステップ811)、領域抽出部416は、画像431から、物体領域に対応する対象領域を抽出する(ステップ812)。そして、領域強調部417は、対象領域のコントラストを強調又は色調を補正して領域画像434を生成し、補正部418は、領域画像434の色情報を物体領域の色情報に近づける色補正を行って、補正画像435を生成する(ステップ813)。
Next, the
次に、拡大部419は、強調画像433を拡大して拡大画像436を生成する(ステップ807)。次に、合成部420は、拡大画像436と補正画像435とを合成して合成画像437を生成し、出力部421は、合成画像437を出力する(ステップ808)。そして、画像処理装置401は、次の時刻の画像431について、ステップ801以降の処理を繰り返す。
Next, the
物体が検出されない場合(ステップ806,NO)、又はエッジ強度が所定値以上である場合(ステップ809,NO)、画像処理装置401は、ステップ807以降の処理を行う。この場合、補正画像435は生成されず、拡大画像436がそのまま合成画像437として出力される。
When the object is not detected (
画像処理を終了すると判定された場合(ステップ801,YES)、画像処理装置401は、画像処理を終了する。
When it is determined that the image processing is finished (
なお、領域画像434の色情報と物体領域の色情報とが近似している場合は、必ずしも領域画像434の色補正を行う必要はない。色補正を行わない場合、画像処理装置401は、ステップ811の処理を省略し、ステップ813において補正画像435を生成しない。そして、ステップ808において、合成部420は、拡大画像436と領域画像434とを合成して合成画像437を生成する。
When the color information of the
図9は、図4の画像処理装置401と同様の画像処理を行う画像処理システムの機能的構成例を示している。図9の画像処理システムは、撮像装置402、記憶部411、画像取得部412、縮小部413、画像強調部414、領域特定部415、領域抽出部416、領域強調部417、補正部418、拡大部419、合成部420、及び出力部421を含む。
FIG. 9 shows a functional configuration example of an image processing system that performs image processing similar to that of the
図9に示された複数の構成要素は、複数の情報処理装置に分散して実装される。これらの構成要素はそれぞれ異なる情報処理装置に含まれていてもよく、いずれか2つ以上の構成要素が1台の情報処理装置に含まれていてもよい。各構成要素が行う動作は、画像処理装置401の場合と同様である。
The plurality of components shown in FIG. 9 are distributed and implemented in a plurality of information processing devices. Each of these components may be included in different information processing devices, and any two or more components may be included in one information processing device. The operation performed by each component is the same as in the case of the
図2及び図4の画像処理装置の構成は一例に過ぎず、画像処理装置の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、図4の画像処理装置401において、画像431が事前に記憶部411に格納されている場合は、画像取得部412を省略することができる。領域画像434の色補正を行わない場合は、補正部418を省略することができる。
The configurations of the image processing devices of FIGS. 2 and 4 are merely examples, and some components may be omitted or changed depending on the use or conditions of the image processing device. For example, in the
図9の画像処理システムの構成は一例に過ぎず、画像処理システムの用途又は条件に応じて一部の構成要素を省略又は変更してもよい。 The configuration of the image processing system of FIG. 9 is only an example, and some components may be omitted or changed depending on the use or conditions of the image processing system.
図3及び図8のフローチャートは一例に過ぎず、画像処理装置の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図8の画像処理において、画像431が事前に記憶部411に格納されている場合は、ステップ802の処理を省略することができる。ステップ805において、領域特定部415は、強調画像703に対するエッジ検出処理を省略することもできる。この場合、ステップ809の処理も省略される。
The flowcharts of FIGS. 3 and 8 are merely examples, and some processes may be omitted or changed depending on the configuration or conditions of the image processing device. For example, in the image processing of FIG. 8, when the
図1及び図5〜図7の画像は一例に過ぎず、処理対象の画像は、撮影対象の物体に応じて変化する。図7に示した色補償付き視認性向上処理731は一例に過ぎず、画像処理装置401の構成又は条件に応じて別の補正処理を用いてもよい。例えば、補正部418は、色情報C1の色相Hだけでなく、彩度S及び明度Vを変更することも可能である。補正部418は、HSV色空間以外の色空間における演算により、領域画像の色補正を行ってもよい。
The images of FIGS. 1 and 5 to 7 are merely examples, and the image to be processed changes according to the object to be photographed. The visibility improving process 731 with color compensation shown in FIG. 7 is only an example, and another correction process may be used depending on the configuration or conditions of the
図10は、図2及び図4の画像処理装置として用いられる情報処理装置のハードウェア構成例を示している。図10の情報処理装置は、CPU(Central Processing Unit)1001、メモリ1002、入力装置1003、出力装置1004、補助記憶装置1005、媒体駆動装置1006、及びネットワーク接続装置1007を含む。これらの構成要素はハードウェアであり、バス1008により互いに接続されている。
FIG. 10 shows a hardware configuration example of an information processing device used as the image processing device of FIGS. 2 and 4. The information processing device of FIG. 10 includes a CPU (Central Processing Unit) 1001, a
メモリ1002は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを格納する。メモリ1002は、図2の記憶部211又は図4の記憶部411として用いることができる。
The
CPU1001(プロセッサ)は、例えば、メモリ1002を利用してプログラムを実行することにより、図2の特定部212及び生成部213として動作する。
The CPU 1001 (processor) operates as the
CPU1001は、メモリ1002を利用してプログラムを実行することにより、図4の画像取得部412、縮小部413、画像強調部414、領域特定部415、領域抽出部416、及び領域強調部417としても動作する。CPU1001は、メモリ1002を利用してプログラムを実行することにより、補正部418、拡大部419、及び合成部420としても動作する。
The
入力装置1003は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置1004は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。処理結果は、合成画像437であってもよい。出力装置1004は、図4の出力部421として用いることができる。
The
補助記憶装置1005は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1005は、ハードディスクドライブ又はフラッシュメモリであってもよい。情報処理装置は、補助記憶装置1005にプログラム及びデータを格納しておき、それらをメモリ1002にロードして使用することができる。補助記憶装置1005は、図2の記憶部211又は図4の記憶部411として用いることができる。
The
媒体駆動装置1006は、可搬型記録媒体1009を駆動し、その記録内容にアクセスする。可搬型記録媒体1009は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1009は、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体1009にプログラム及びデータを格納しておき、それらをメモリ1002にロードして使用することができる。
The
このように、画像処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ1002、補助記憶装置1005、又は可搬型記録媒体1009のような、物理的な(非一時的な)記録媒体である。
As described above, the computer-readable recording medium that stores the programs and data used for image processing is a physical (non-temporary) recording medium such as a
ネットワーク接続装置1007は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1007を介して受信し、それらをメモリ1002にロードして使用することができる。ネットワーク接続装置1007は、図4の出力部421として用いることができる。
The
なお、情報処理装置が図10のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、オペレータ又はユーザからの指示又は情報を入力する必要がない場合は、入力装置1003を省略してもよい。可搬型記録媒体1009又は通信ネットワークを使用しない場合は、媒体駆動装置1006又はネットワーク接続装置1007を省略してもよい。
It is not necessary for the information processing apparatus to include all the components of FIG. 10, and some components may be omitted depending on the application or conditions. For example, the
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。 Having described in detail the embodiments of the disclosure and its advantages, those skilled in the art will be able to make various changes, additions and omissions without departing from the scope of the invention as expressly stated in the claims. Let's do it.
図1乃至図10を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
第1画像を縮小して縮小画像を生成し、
前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、
前記第2画像内で物体が写っている第1領域を特定し、
前記第1画像から前記第1領域に対応する第2領域を抽出し、
前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する、
処理をコンピュータに実行させるための画像処理プログラム。
(付記2)
前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成し、
前記第2画像を拡大して拡大画像を生成し、
前記拡大画像と前記補正画像とを合成して合成画像を生成し、
前記合成画像を出力する、
処理を前記コンピュータにさらに実行させることを特徴とする付記1記載の画像処理プログラム。
(付記3)
前記色補正は、前記領域画像の色相を前記第1領域の色相に近づける処理であることを特徴とする付記2記載の画像処理プログラム。
(付記4)
前記画像処理プログラムは、前記第2画像からエッジを検出する処理を、前記コンピュータにさらに実行させ、
前記第1領域は、前記第2画像内においてエッジ強度が所定値よりも小さい領域であることを特徴とする付記1乃至3のいずれか1項に記載の画像処理プログラム。
(付記5)
前記コンピュータは、レティネックス処理により、前記縮小画像及び前記第2領域のコントラストを強調又は色調を補正することを特徴とする付記1乃至4のいずれか1項に記載の画像処理プログラム。
(付記6)
第1画像を記憶する記憶部と、
前記第1画像を縮小して縮小画像を生成し、前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、前記第2画像内で物体が写っている第1領域を特定する特定部と、
前記第1画像から前記第1領域に対応する第2領域を抽出し、前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する生成部と、
を備えることを特徴とする画像処理装置。
(付記7)
前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成する補正部と、
前記第2画像を拡大して拡大画像を生成する拡大部と、
前記拡大画像と前記補正画像とを合成して合成画像を生成する合成部と、
前記合成画像を出力する出力部と、
をさらに備えることを特徴とする付記6記載の画像処理装置。
(付記8)
前記色補正は、前記領域画像の色相を前記第1領域の色相に近づける処理であることを特徴とする付記7記載の画像処理装置。
(付記9)
前記特定部は、前記第2画像からエッジを検出し、
前記第1領域は、前記第2画像内においてエッジ強度が所定値よりも小さい領域であることを特徴とする付記6乃至8のいずれか1項に記載の画像処理装置。
(付記10)
前記特定部は、レティネックス処理により、前記縮小画像のコントラストを強調又は色調を補正し、前記生成部は、前記レティネックス処理により、前記第2領域のコントラストを強調又は色調を補正することを特徴とする付記6乃至9のいずれか1項に記載の画像処理装置。
(付記11)
第1画像を記憶する記憶部と、
前記第1画像を縮小して縮小画像を生成し、前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、前記第2画像内で物体が写っている第1領域を特定する特定部と、
前記第1画像から前記第1領域に対応する第2領域を抽出し、前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する生成部と、
を備えることを特徴とする画像処理システム。
(付記12)
前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成する補正部と、
前記第2画像を拡大して拡大画像を生成する拡大部と、
前記拡大画像と前記補正画像とを合成して合成画像を生成する合成部と、
前記合成画像を出力する出力部と、
をさらに備えることを特徴とする付記11記載の画像処理システム。
(付記13)
コンピュータによって実行される画像処理方法であって、
前記コンピュータが、
第1画像を縮小して縮小画像を生成し、
前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、
前記第2画像内で物体が写っている第1領域を特定し、
前記第1画像から前記第1領域に対応する第2領域を抽出し、
前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する、
ことを特徴とする画像処理方法。
(付記14)
前記コンピュータは、
前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成し、
前記第2画像を拡大して拡大画像を生成し、
前記拡大画像と前記補正画像とを合成して合成画像を生成し、
前記合成画像を出力する、
ことを特徴とする付記13記載の画像処理方法。
The following additional notes will be further disclosed with respect to the embodiments described with reference to FIGS. 1 to 10.
(Appendix 1)
Reduce the first image to generate a reduced image,
The contrast of the reduced image is emphasized or the color tone is corrected to generate a second image.
In the second image, the first region in which the object appears is specified, and
A second region corresponding to the first region is extracted from the first image, and the second region is extracted.
A region image is generated by emphasizing the contrast of the second region or correcting the color tone.
An image processing program that allows a computer to perform processing.
(Appendix 2)
Color correction is performed to bring the color information of the region image closer to the color information of the first region, and a corrected image is generated.
The second image is enlarged to generate an enlarged image,
The enlarged image and the corrected image are combined to generate a composite image.
Output the composite image,
The image processing program according to Appendix 1, wherein the computer further executes the processing.
(Appendix 3)
The image processing program according to Appendix 2, wherein the color correction is a process of bringing the hue of the region image closer to the hue of the first region.
(Appendix 4)
The image processing program causes the computer to further execute a process of detecting an edge from the second image.
The image processing program according to any one of Supplementary note 1 to 3, wherein the first region is a region in which the edge strength is smaller than a predetermined value in the second image.
(Appendix 5)
The image processing program according to any one of Supplementary note 1 to 4, wherein the computer enhances the contrast of the reduced image and the second region or corrects the color tone by retinex processing.
(Appendix 6)
A storage unit that stores the first image and
The first image is reduced to generate a reduced image, the contrast of the reduced image is emphasized or the color tone is corrected to generate a second image, and a first region in which an object is captured is specified in the second image. With a specific part to do
A generation unit that extracts a second region corresponding to the first region from the first image, emphasizes the contrast of the second region, or corrects the color tone to generate a region image.
An image processing device characterized by comprising.
(Appendix 7)
A correction unit that generates a corrected image by performing color correction that brings the color information of the region image closer to the color information of the first region.
An enlargement unit that enlarges the second image to generate an enlarged image, and
A compositing unit that synthesizes the enlarged image and the corrected image to generate a composite image,
An output unit that outputs the composite image and
The image processing apparatus according to Appendix 6, further comprising.
(Appendix 8)
The image processing apparatus according to Appendix 7, wherein the color correction is a process of bringing the hue of the region image closer to the hue of the first region.
(Appendix 9)
The specific part detects an edge from the second image and
The image processing apparatus according to any one of Supplementary note 6 to 8, wherein the first region is a region in which the edge strength is smaller than a predetermined value in the second image.
(Appendix 10)
The specific unit is characterized in that the contrast of the reduced image is emphasized or the color tone is corrected by the Retinex process, and the generation unit is characterized in that the contrast of the second region is emphasized or the color tone is corrected by the Retinex process. The image processing apparatus according to any one of Supplementary note 6 to 9.
(Appendix 11)
A storage unit that stores the first image and
The first image is reduced to generate a reduced image, the contrast of the reduced image is emphasized or the color tone is corrected to generate a second image, and a first region in which an object is captured is specified in the second image. With a specific part to do
A generation unit that extracts a second region corresponding to the first region from the first image, emphasizes the contrast of the second region, or corrects the color tone to generate a region image.
An image processing system characterized by being equipped with.
(Appendix 12)
A correction unit that generates a corrected image by performing color correction that brings the color information of the region image closer to the color information of the first region.
An enlargement unit that enlarges the second image to generate an enlarged image, and
A compositing unit that synthesizes the enlarged image and the corrected image to generate a composite image,
An output unit that outputs the composite image and
The image processing system according to Appendix 11, further comprising.
(Appendix 13)
An image processing method performed by a computer
The computer
Reduce the first image to generate a reduced image,
The contrast of the reduced image is emphasized or the color tone is corrected to generate a second image.
In the second image, the first region in which the object appears is specified, and
A second region corresponding to the first region is extracted from the first image, and the second region is extracted.
A region image is generated by emphasizing the contrast of the second region or correcting the color tone.
An image processing method characterized by that.
(Appendix 14)
The computer
Color correction is performed to bring the color information of the region image closer to the color information of the first region, and a corrected image is generated.
The second image is enlarged to generate an enlarged image,
The enlarged image and the corrected image are combined to generate a composite image.
Output the composite image,
The image processing method according to Appendix 13, characterized in that.
101、102、431、501〜503、601、622、701 画像
111、612、613 領域
201、401 画像処理装置
211、411 記憶部
212 特定部
213 生成部
402 撮像装置
412 画像取得部
413 縮小部
414 画像強調部
415 領域特定部
416 領域抽出部
417 領域強調部
418 補正部
419 拡大部
420 合成部
421 出力部
432、602、702 縮小画像
433、603、703 強調画像
434 領域画像
435、623 補正画像
436、704 拡大画像
437、504、604、705 合成画像
611、711 物体領域
621、712 対象領域
631、713 部分領域
731 色補償付き視認性向上処理
732、733 HSV分解
734 色補正
735 合成
1001 CPU
1002 メモリ
1003 入力装置
1004 出力装置
1005 補助記憶装置
1006 媒体駆動装置
1007 ネットワーク接続装置
1008 バス
1009 可搬型記録媒体
101, 102, 431, 501-503, 601, 622, 701
1002
Claims (7)
前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、
前記第2画像内で物体が写っている第1領域を特定し、
前記第1画像から前記第1領域に対応する第2領域を抽出し、
前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する、
処理をコンピュータに実行させるための画像処理プログラム。 Reduce the first image to generate a reduced image,
The contrast of the reduced image is emphasized or the color tone is corrected to generate a second image.
In the second image, the first region in which the object appears is specified, and
A second region corresponding to the first region is extracted from the first image, and the second region is extracted.
A region image is generated by emphasizing the contrast of the second region or correcting the color tone.
An image processing program that allows a computer to perform processing.
前記第2画像を拡大して拡大画像を生成し、
前記拡大画像と前記補正画像とを合成して合成画像を生成し、
前記合成画像を出力する、
処理を前記コンピュータにさらに実行させることを特徴とする請求項1記載の画像処理プログラム。 Color correction is performed to bring the color information of the region image closer to the color information of the first region, and a corrected image is generated.
The second image is enlarged to generate an enlarged image,
The enlarged image and the corrected image are combined to generate a composite image.
Output the composite image,
The image processing program according to claim 1, wherein the computer further executes the processing.
前記第1領域は、前記第2画像内においてエッジ強度が所定値よりも小さい領域であることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理プログラム。 The image processing program causes the computer to further execute a process of detecting an edge from the second image.
The image processing program according to any one of claims 1 to 3, wherein the first region is a region in which the edge strength is smaller than a predetermined value in the second image.
前記第1画像を縮小して縮小画像を生成し、前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、前記第2画像内で物体が写っている第1領域を特定する特定部と、
前記第1画像から前記第1領域に対応する第2領域を抽出し、前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する生成部と、
を備えることを特徴とする画像処理装置。 A storage unit that stores the first image and
The first image is reduced to generate a reduced image, the contrast of the reduced image is emphasized or the color tone is corrected to generate a second image, and a first region in which an object is captured is specified in the second image. With a specific part to do
A generation unit that extracts a second region corresponding to the first region from the first image, emphasizes the contrast of the second region, or corrects the color tone to generate a region image.
An image processing device characterized by comprising.
前記第1画像を縮小して縮小画像を生成し、前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、前記第2画像内で物体が写っている第1領域を特定する特定部と、
前記第1画像から前記第1領域に対応する第2領域を抽出し、前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する生成部と、
を備えることを特徴とする画像処理システム。 A storage unit that stores the first image and
The first image is reduced to generate a reduced image, the contrast of the reduced image is emphasized or the color tone is corrected to generate a second image, and a first region in which an object is captured is specified in the second image. With a specific part to do
A generation unit that extracts a second region corresponding to the first region from the first image, emphasizes the contrast of the second region, or corrects the color tone to generate a region image.
An image processing system characterized by being equipped with.
前記コンピュータが、
第1画像を縮小して縮小画像を生成し、
前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、
前記第2画像内で物体が写っている第1領域を特定し、
前記第1画像から前記第1領域に対応する第2領域を抽出し、
前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する、
ことを特徴とする画像処理方法。
An image processing method performed by a computer
The computer
Reduce the first image to generate a reduced image,
The contrast of the reduced image is emphasized or the color tone is corrected to generate a second image.
In the second image, the first region in which the object appears is specified, and
A second region corresponding to the first region is extracted from the first image, and the second region is extracted.
A region image is generated by emphasizing the contrast of the second region or correcting the color tone.
An image processing method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019139448A JP7445109B2 (en) | 2019-07-30 | 2019-07-30 | Image processing program, image processing device, image processing system, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019139448A JP7445109B2 (en) | 2019-07-30 | 2019-07-30 | Image processing program, image processing device, image processing system, and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021022263A true JP2021022263A (en) | 2021-02-18 |
JP7445109B2 JP7445109B2 (en) | 2024-03-07 |
Family
ID=74573288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019139448A Active JP7445109B2 (en) | 2019-07-30 | 2019-07-30 | Image processing program, image processing device, image processing system, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7445109B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006011619A (en) * | 2004-06-23 | 2006-01-12 | Noritsu Koki Co Ltd | Photographic image processing method and its device |
JP2008078802A (en) * | 2006-09-19 | 2008-04-03 | Fujifilm Corp | Photographing device and photographing method |
JP2008108024A (en) * | 2006-10-25 | 2008-05-08 | Matsushita Electric Ind Co Ltd | Image processor and imaging device |
JP2010186268A (en) * | 2009-02-10 | 2010-08-26 | Seiko Epson Corp | Image processor, printer, image processing method and image processing program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4687667B2 (en) | 2006-03-07 | 2011-05-25 | ブラザー工業株式会社 | Image processing program and image processing apparatus |
JP6303816B2 (en) | 2014-05-28 | 2018-04-04 | 富士ゼロックス株式会社 | Image processing apparatus and program |
-
2019
- 2019-07-30 JP JP2019139448A patent/JP7445109B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006011619A (en) * | 2004-06-23 | 2006-01-12 | Noritsu Koki Co Ltd | Photographic image processing method and its device |
JP2008078802A (en) * | 2006-09-19 | 2008-04-03 | Fujifilm Corp | Photographing device and photographing method |
JP2008108024A (en) * | 2006-10-25 | 2008-05-08 | Matsushita Electric Ind Co Ltd | Image processor and imaging device |
JP2010186268A (en) * | 2009-02-10 | 2010-08-26 | Seiko Epson Corp | Image processor, printer, image processing method and image processing program |
Also Published As
Publication number | Publication date |
---|---|
JP7445109B2 (en) | 2024-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3477931B1 (en) | Image processing method and device, readable storage medium and electronic device | |
KR102574141B1 (en) | Image display method and device | |
US10853925B2 (en) | Methods, systems, and media for image processing | |
EP3327668B1 (en) | Image-processing device and method for foreground mask correction for object segmentation | |
JP6609505B2 (en) | Image composition apparatus and program | |
TWI767985B (en) | Method and apparatus for processing an image property map | |
JP2020129276A (en) | Image processing device, image processing method, and program | |
CN107993209B (en) | Image processing method, image processing device, computer-readable storage medium and electronic equipment | |
JP2017130060A (en) | Image processing device, image processing method, and program | |
KR101624801B1 (en) | Matting method for extracting object of foreground and apparatus for performing the matting method | |
CN110557584A (en) | image processing method and device, and computer readable storage medium | |
Lee et al. | Color image enhancement using histogram equalization method without changing hue and saturation | |
JP2018025878A (en) | Image processor, image processing method and program | |
Anantrasirichai et al. | Contextual colorization and denoising for low-light ultra high resolution sequences | |
JP2020061080A (en) | Image processing device, imaging device, and image processing method | |
JP5286215B2 (en) | Outline extracting apparatus, outline extracting method, and outline extracting program | |
JP2021043874A (en) | Image processing apparatus, image processing method, and program | |
CN113808054A (en) | Method for repairing optic disc region of fundus image and related product | |
JP7445109B2 (en) | Image processing program, image processing device, image processing system, and image processing method | |
KR20200071866A (en) | Method and apparatus for machine-learning based processing of high-resolution image | |
KR102389284B1 (en) | Method and device for image inpainting based on artificial intelligence | |
JP2005182232A (en) | Luminance correcting device and method | |
JP2023003764A (en) | Image processing apparatus, image processing method, and program | |
CN111062862A (en) | Color-based data enhancement method and system, computer device and storage medium | |
JP2021005798A (en) | Imaging apparatus, control method of imaging apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220407 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231019 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20231019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7445109 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |