JP2021022263A - Image processing program, image processing device, image processing system, and image processing method - Google Patents

Image processing program, image processing device, image processing system, and image processing method Download PDF

Info

Publication number
JP2021022263A
JP2021022263A JP2019139448A JP2019139448A JP2021022263A JP 2021022263 A JP2021022263 A JP 2021022263A JP 2019139448 A JP2019139448 A JP 2019139448A JP 2019139448 A JP2019139448 A JP 2019139448A JP 2021022263 A JP2021022263 A JP 2021022263A
Authority
JP
Japan
Prior art keywords
image
region
generate
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019139448A
Other languages
Japanese (ja)
Other versions
JP7445109B2 (en
Inventor
隆宏 吉岡
Takahiro Yoshioka
隆宏 吉岡
中山 收文
Osafumi Nakayama
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019139448A priority Critical patent/JP7445109B2/en
Publication of JP2021022263A publication Critical patent/JP2021022263A/en
Application granted granted Critical
Publication of JP7445109B2 publication Critical patent/JP7445109B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To increase the speed of the processing of improving the visibility of an object in an image.SOLUTION: A computer reduces a first image to generate a reduced image, the contrast of the reduced image is emphasized or the color tone is corrected to generate a second image and identifies a first area in the second image where the object appears. Then, the computer extracts a second area corresponding to the first area from the first image, and emphasizes the contrast or corrects the color tone of the second area to generate the area image.SELECTED DRAWING: Figure 6

Description

本発明は、画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法に関する。 The present invention relates to an image processing program, an image processing apparatus, an image processing system, and an image processing method.

近年の世界的な人口増加に伴い、持続可能な食糧源として養殖魚が注目されている。養殖業において、ICT(Information and Communications Technology)の活用が広がっており、カメラで海中を観察することが試みられている。 With the recent increase in the global population, farmed fish are attracting attention as a sustainable food source. In the aquaculture industry, the use of ICT (Information and Communications Technology) is spreading, and attempts are being made to observe the sea with a camera.

カメラで撮影された映像は、養殖生簀内の様子の観察、魚体同士のリアルタイムな比較観察、ソフトウェアによる魚体長計測、ソフトウェアによる魚体数計測、寄生虫観測等に活用される。 The images taken by the camera are used for observing the inside of the aquaculture cage, real-time comparative observation of fish bodies, fish length measurement by software, fish number measurement by software, parasite observation, etc.

画像処理に関して、入力画像の一部を切り出して所望の切り出し画像を得る画像処理装置が知られている(例えば、特許文献1を参照)。生体における網膜や皮質と同等の役割をモデル化したレティネックス処理も知られている(例えば、特許文献2及び非特許文献1を参照)。敵対的生成ネットワークを用いた画像変換も知られている(例えば、非特許文献2を参照)。 Regarding image processing, an image processing apparatus is known that cuts out a part of an input image to obtain a desired cut-out image (see, for example, Patent Document 1). Retinex treatments that model the role of the retina and cortex in the living body are also known (see, for example, Patent Document 2 and Non-Patent Document 1). Image conversion using a hostile generation network is also known (see, for example, Non-Patent Document 2).

特開2010−81181号公報Japanese Unexamined Patent Publication No. 2010-81181 特開2005−4506号公報Japanese Unexamined Patent Publication No. 2005-4506

Zia-ur Rahman et al.,“A Multiscale Retinex for Color Rendition and Dynamic Range Compression”, PROCEEDINGS VOLUME 2847, Applications of Digital Image Processing XIX, SPIE'S 1996 INTERNATIONAL SYMPOSIUM ON OPTICAL SCIENCE, ENGINEERING, AND INSTRUMENTATION, August 1996Zia-ur Rahman et al., “A Multiscale Retinex for Color Rendition and Dynamic Range Compression”, PROCEEDINGS VOLUME 2847, Applications of Digital Image Processing XIX, SPIE'S 1996 INTERNATIONAL SYMPOSIUM ON OPTICAL SCIENCE, ENGINEERING, AND INSTRUMENTATION, August 1996 Isola et al.,“Image-to-Image Translation with Conditional Adversarial Networks”, Proceedings of The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1125-1134, 2017Isola et al., “Image-to-Image Translation with Conditional Adversarial Networks”, Proceedings of The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1125-1134, 2017

海中を撮影した映像に写っている不鮮明な魚体の視認性を向上させる処理は、処理量が多いため時間がかかる。 The process of improving the visibility of the unclear fish in the image taken underwater takes time due to the large amount of processing.

なお、かかる問題は、海中の映像を用いて魚体を観察する場合に限らず、3次元空間の画像を用いて様々な物体を観察する場合において生ずるものである。 It should be noted that such a problem occurs not only when observing a fish body using an underwater image but also when observing various objects using an image in a three-dimensional space.

1つの側面において、本発明は、画像に写っている物体の視認性を向上させる処理を高速化することを目的とする。 In one aspect, it is an object of the present invention to speed up the process of improving the visibility of an object in an image.

1つの案では、画像処理プログラムは、以下の処理をコンピュータに実行させる。
(1)コンピュータは、第1画像を縮小して縮小画像を生成する。
(2)コンピュータは、縮小画像のコントラストを強調又は色調を補正して第2画像を生成する。
(3)コンピュータは、第2画像内で物体が写っている第1領域を特定する。
(4)コンピュータは、第1画像から第1領域に対応する第2領域を抽出する。
(5)コンピュータは、第2領域のコントラストを強調又は色調を補正して領域画像を生成する。
In one proposal, the image processing program causes the computer to perform the following processing.
(1) The computer reduces the first image to generate a reduced image.
(2) The computer generates the second image by enhancing the contrast of the reduced image or correcting the color tone.
(3) The computer identifies the first region in which the object appears in the second image.
(4) The computer extracts a second region corresponding to the first region from the first image.
(5) The computer generates a region image by emphasizing the contrast of the second region or correcting the color tone.

1つの側面によれば、画像に写っている物体の視認性を向上させる処理を高速化することができる。 According to one aspect, it is possible to speed up the process of improving the visibility of the object in the image.

レティネックス処理を示す図である。It is a figure which shows the Retinex processing. 画像処理装置の機能的構成図である。It is a functional block diagram of an image processing apparatus. 画像処理のフローチャートである。It is a flowchart of image processing. 画像処理装置の具体例を示す機能的構成図である。It is a functional block diagram which shows the specific example of an image processing apparatus. 比較例における画像処理を示す図である。It is a figure which shows the image processing in the comparative example. 第1の画像処理を示す図である。It is a figure which shows the 1st image processing. 第2の画像処理を示す図である。It is a figure which shows the 2nd image processing. 画像処理の具体例を示すフローチャートである。It is a flowchart which shows the specific example of image processing. 画像処理システムの機能的構成図である。It is a functional block diagram of an image processing system. 情報処理装置のハードウェア構成図である。It is a hardware block diagram of an information processing apparatus.

以下、図面を参照しながら、実施形態を詳細に説明する。
特許文献2及び非特許文献1に開示されたレティネックス処理は、人間の視覚特性を反映した画像補正処理である。レティネックス処理によれば、画像のダイナミックレンジを調整してコントラストを強調するか、又は色調を補正することで、視認性を向上させることができる。
Hereinafter, embodiments will be described in detail with reference to the drawings.
The Retinex process disclosed in Patent Document 2 and Non-Patent Document 1 is an image correction process that reflects human visual characteristics. According to the Retinex process, the visibility can be improved by adjusting the dynamic range of the image to enhance the contrast or correcting the color tone.

海中を撮影した映像は時系列の画像を含み、各時刻の画像は、フレームと呼ばれることがある。映像に含まれるフレームとして高解像度画像を用いた場合、1フレーム当たりの画素数が多くなる。このため、各フレームにレティネックス処理を適用すると、処理時間が長くなり、フレームレートを保つことが困難になる。 Images taken underwater include time-series images, and the images at each time are sometimes called frames. When a high-resolution image is used as a frame included in the video, the number of pixels per frame increases. Therefore, when the Retinex processing is applied to each frame, the processing time becomes long and it becomes difficult to maintain the frame rate.

また、観察対象の魚体がカメラから遠い位置に存在したり、魚影が小さくて低コントラストであったりする場合、画像全体にレティネックス処理を適用すると、魚影を認識できる程度に改善されたとしても、視認性向上の効果は低い。 Also, if the fish to be observed is located far from the camera, or if the fish shadow is small and has low contrast, applying Retinex processing to the entire image improved the fish shadow to the extent that it can be recognized. However, the effect of improving visibility is low.

図1は、海中を撮影した画像に対するレティネックス処理の例を示している。カメラで撮影された画像101には、様々な魚体が写っている。魚体は、画像に写っている物体の一例である。 FIG. 1 shows an example of retinex processing on an image taken underwater. The image 101 taken by the camera shows various fish bodies. The fish body is an example of an object shown in the image.

画像101全体に対してレティネックス処理を適用することで、視認性が向上した画像102が得られる。これにより、画像102の領域111内に魚影が写っていることが確認できるが、視認性向上の効果は限定的である。 By applying the Retinex process to the entire image 101, the image 102 with improved visibility can be obtained. As a result, it can be confirmed that the fish shadow is reflected in the area 111 of the image 102, but the effect of improving the visibility is limited.

図2は、実施形態の画像処理装置の機能的構成例を示している。図2の画像処理装置201は、記憶部211、特定部212、及び生成部213を含む。記憶部211は、第1画像を記憶する。特定部212及び生成部213は、第1画像に対する画像処理を行う。 FIG. 2 shows an example of a functional configuration of the image processing apparatus of the embodiment. The image processing device 201 of FIG. 2 includes a storage unit 211, a specific unit 212, and a generation unit 213. The storage unit 211 stores the first image. The specific unit 212 and the generation unit 213 perform image processing on the first image.

図3は、図2の画像処理装置201が行う画像処理の例を示すフローチャートである。まず、特定部212は、第1画像を縮小して縮小画像を生成し(ステップ301)、縮小画像のコントラストを強調又は色調を補正して第2画像を生成し(ステップ302)、第2画像内で物体が写っている第1領域を特定する(ステップ303)。次に、生成部213は、第1画像から第1領域に対応する第2領域を抽出し(ステップ304)、第2領域のコントラストを強調又は色調を補正して領域画像を生成する(ステップ305)。 FIG. 3 is a flowchart showing an example of image processing performed by the image processing device 201 of FIG. First, the specific unit 212 reduces the first image to generate a reduced image (step 301), emphasizes the contrast of the reduced image or corrects the color tone to generate a second image (step 302), and generates the second image. The first region in which the object is captured is specified (step 303). Next, the generation unit 213 extracts the second region corresponding to the first region from the first image (step 304), emphasizes the contrast of the second region or corrects the color tone to generate the region image (step 305). ).

図2の画像処理装置201によれば、画像に写っている物体の視認性を向上させる処理を高速化することができる。 According to the image processing device 201 of FIG. 2, it is possible to speed up the process of improving the visibility of the object in the image.

図4は、図2の画像処理装置201の具体例を示している。図4の画像処理装置401は、記憶部411、画像取得部412、縮小部413、画像強調部414、領域特定部415、領域抽出部416、領域強調部417、補正部418、拡大部419、合成部420、及び出力部421を含む。 FIG. 4 shows a specific example of the image processing device 201 of FIG. The image processing device 401 of FIG. 4 includes a storage unit 411, an image acquisition unit 412, a reduction unit 413, an image enhancement unit 414, an area identification unit 415, an area extraction unit 416, an area enhancement unit 417, a correction unit 418, and an enlargement unit 419. It includes a synthesis unit 420 and an output unit 421.

記憶部411は、図2の記憶部211に対応し、縮小部413、画像強調部414、及び領域特定部415は特定部212に対応し、領域抽出部416及び領域強調部417は生成部213に対応する。 The storage unit 411 corresponds to the storage unit 211 of FIG. 2, the reduction unit 413, the image enhancement unit 414, and the area identification unit 415 correspond to the specific unit 212, and the area extraction unit 416 and the area enhancement unit 417 correspond to the generation unit 213. Corresponds to.

例えば、画像処理装置401は、情報処理装置(コンピュータ)であり、3次元空間の映像を用いて様々な物体を観察する作業において使用される。例えば、処理対象の映像が海中を撮影した映像である場合、その映像を用いて、養殖生簀内の様子の観察、魚体同士のリアルタイムな比較観察、ソフトウェアによる魚体長計測、ソフトウェアによる魚体数計測、寄生虫観測等が行われる。 For example, the image processing device 401 is an information processing device (computer), and is used in the work of observing various objects using images in a three-dimensional space. For example, if the image to be processed is an image taken in the sea, the image can be used to observe the inside of the aquaculture cage, real-time comparative observation of fish bodies, fish length measurement by software, and fish number measurement by software. Parasite observations are carried out.

処理対象の映像は、航空機又は人工衛星から撮影された地表の映像であってもよく、工場、オフィスビル、街頭等に設置された監視カメラの映像であってもよく、車両等の移動体に搭載されたカメラの映像であってもよい。画像に写っている物体は、建造物、車両、人間、動物等であってもよい。 The image to be processed may be an image of the ground surface taken from an aircraft or an artificial satellite, an image of a surveillance camera installed in a factory, an office building, a street, or the like, and may be an image of a moving object such as a vehicle. It may be an image of the mounted camera. The object shown in the image may be a building, a vehicle, a human being, an animal, or the like.

撮像装置402は、例えば、CCD(Charged-Coupled Device)、CMOS(Complementary Metal-Oxide-Semiconductor)等の撮像素子を有するカメラであり、処理対象の映像を撮影する。撮影された映像は、複数の時刻それぞれにおける画像を含む。処理対象の映像が海中を撮影した映像である場合、撮像装置402は、海中に設置されていてもよい。 The image pickup device 402 is a camera having an image pickup element such as a CCD (Charged-Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor), and captures an image to be processed. The captured image includes images at each of a plurality of times. When the image to be processed is an image taken in the sea, the image pickup apparatus 402 may be installed in the sea.

画像取得部412は、撮像装置402から、映像に含まれる各時刻の画像431を取得して、記憶部411に格納する。画像431は、第1画像の一例である。画像431は、高解像度画像であってもよい。 The image acquisition unit 412 acquires an image 431 at each time included in the image from the image pickup apparatus 402 and stores it in the storage unit 411. Image 431 is an example of the first image. The image 431 may be a high resolution image.

縮小部413は、画像431を縮小して縮小画像432を生成し、記憶部411に格納する。例えば、縮小部413は、画素補間法を用いて画像431を縮小する。画素補間法としては、ニアレストネイバー法、バイリニア法、バイキュービック法等を用いることができる。ニアレストネイバー法を用いることで、高速な画像サイズ変換が実現される。 The reduction unit 413 reduces the image 431 to generate a reduced image 432 and stores it in the storage unit 411. For example, the reduction unit 413 reduces the image 431 by using the pixel interpolation method. As the pixel interpolation method, the nearest neighbor method, the bilinear method, the bicubic method and the like can be used. High-speed image size conversion is realized by using the nearest neighbor method.

画像強調部414は、縮小画像432のコントラストを強調するか、又は色調を補正することで、強調画像433を生成し、記憶部411に格納する。強調画像433は、第2画像の一例である。 The image enhancement unit 414 generates an enhanced image 433 by enhancing the contrast of the reduced image 432 or correcting the color tone, and stores it in the storage unit 411. The emphasized image 433 is an example of the second image.

例えば、画像強調部414は、シングルスケールレティネックス、マルチスケールレティネックス等のレティネックス処理を用いて、縮小画像432のコントラストを強調又は色調を補正する。これにより、撮像装置402の特性を反映した縮小画像432が、人間により視認される画像に近い強調画像433に変換され、視認性が向上する。 For example, the image enhancement unit 414 enhances the contrast of the reduced image 432 or corrects the color tone by using a retinex process such as a single scale retinex or a multi-scale retinex. As a result, the reduced image 432 that reflects the characteristics of the image pickup apparatus 402 is converted into an emphasized image 433 that is close to the image visually recognized by humans, and the visibility is improved.

画像強調部414は、ヒストグラム平坦化法、深層学習を用いた画質変換等の画像補正処理を用いて、縮小画像432のコントラストを強調又は色調を補正してもよい。例えば、画像強調部414は、非特許文献2の技術を用いて、深層学習を用いた画質変換を行うことができる。 The image enhancement unit 414 may enhance the contrast or correct the color tone of the reduced image 432 by using an image correction process such as a histogram flattening method or an image quality conversion using deep learning. For example, the image enhancement unit 414 can perform image quality conversion using deep learning by using the technique of Non-Patent Document 2.

領域特定部415は、強調画像433内で物体が写っている物体領域を特定し、領域抽出部416は、画像431から、物体領域に対応する対象領域を抽出する。物体領域は、第1領域の一例であり、対象領域は、第2領域の一例である。領域強調部417は、対象領域のコントラストを強調するか、又は色調を補正することで、領域画像434を生成し、記憶部411に格納する。例えば、領域強調部417は、レティネックス処理、ヒストグラム平坦化法、深層学習を用いた画質変換等を用いて、対象領域の画像のコントラストを強調又は色調を補正する。 The area specifying unit 415 identifies the object area in which the object is shown in the emphasized image 433, and the area extracting unit 416 extracts the target area corresponding to the object area from the image 431. The object region is an example of the first region, and the target region is an example of the second region. The area enhancement unit 417 generates an area image 434 by enhancing the contrast of the target area or correcting the color tone, and stores it in the storage unit 411. For example, the area enhancement unit 417 enhances the contrast or corrects the color tone of the image in the target area by using the Retinex process, the histogram flattening method, the image quality conversion using deep learning, and the like.

補正部418は、領域画像434の色情報を物体領域の色情報に近づける色補正を行って、補正画像435を生成し、記憶部411に格納する。拡大部419は、強調画像433を拡大して拡大画像436を生成し、記憶部411に格納する。例えば、拡大部419は、画素補間法を用いて強調画像433を拡大する。拡大画像436の大きさは、画像431の大きさと同じであってもよい。 The correction unit 418 performs color correction that brings the color information of the area image 434 closer to the color information of the object area, generates the correction image 435, and stores it in the storage unit 411. The enlargement unit 419 enlarges the emphasized image 433 to generate an enlarged image 436 and stores it in the storage unit 411. For example, the enlargement unit 419 enlarges the emphasized image 433 by using the pixel interpolation method. The size of the enlarged image 436 may be the same as the size of the image 431.

合成部420は、拡大画像436と補正画像435とを合成して合成画像437を生成し、記憶部411に格納する。合成部420は、拡大画像436内において、画像431内の対象領域に対応する部分領域を特定し、特定した部分領域の画像を補正画像435に置き換えることで、合成画像437を生成する。 The compositing unit 420 combines the enlarged image 436 and the corrected image 435 to generate a composite image 437 and stores it in the storage unit 411. The compositing unit 420 specifies a partial region corresponding to the target region in the image 431 in the enlarged image 436, and replaces the image of the specified partial region with the corrected image 435 to generate the composite image 437.

出力部421は、合成画像437を出力する。例えば、出力部421が表示装置である場合、出力部421は、合成画像437を画面上に表示する。映像に含まれる各時刻の画像431から合成画像437を生成することで、時系列の合成画像437を含む合成映像が表示される。 The output unit 421 outputs a composite image 437. For example, when the output unit 421 is a display device, the output unit 421 displays the composite image 437 on the screen. By generating the composite image 437 from the image 431 at each time included in the video, the composite video including the time-series composite image 437 is displayed.

図5は、比較例における画像処理の例を示している。この例では、海中を撮影した映像に含まれる画像501にレティネックス処理を適用することで、画像502が生成される。画像501では視認することが困難な魚体が、画像502では、点線が示すように、辛うじて視認できるようになっている。 FIG. 5 shows an example of image processing in the comparative example. In this example, the image 502 is generated by applying the Retinex process to the image 501 included in the image taken in the sea. The fish body, which is difficult to see in the image 501, is barely visible in the image 502, as shown by the dotted line.

そこで、画像501から、画像502の点線が示す魚体を含む領域を抽出して、レティネックス処理を適用することで、画像503が生成される。そして、画像502と画像503とを合成することで、合成画像504が生成される。これにより、画像502の点線が示す魚体の視認性が、画像502よりも向上する。 Therefore, the image 503 is generated by extracting the region including the fish body indicated by the dotted line of the image 502 from the image 501 and applying the Retinex treatment. Then, by synthesizing the image 502 and the image 503, the composite image 504 is generated. As a result, the visibility of the fish body indicated by the dotted line in the image 502 is improved as compared with the image 502.

しかしながら、画像501全体と、画像501の一部の領域の画像とでは、色の分布が異なるため、それぞれの画像に対するレティネックス処理の結果において、その領域内の魚体の色が一致しない。このため、画像502と画像503とをそのまま合成すると、合成画像504に、色崩れによる違和感が生じる。また、図5の画像処理では、画像501全体にレティネックス処理を適用しているため、処理時間が長くなり、フレームレートを維持した高速な視認性向上処理は実現されない。 However, since the color distribution is different between the entire image 501 and the image of a part of the image 501, the colors of the fish in the region do not match in the result of the Retinex processing for each image. Therefore, if the image 502 and the image 503 are combined as they are, the combined image 504 will have a sense of discomfort due to color loss. Further, in the image processing of FIG. 5, since the Retinex processing is applied to the entire image 501, the processing time becomes long, and the high-speed visibility improvement processing that maintains the frame rate cannot be realized.

図6は、画像処理装置401が行う第1の画像処理の例を示している。縮小部413は、海中を撮影した映像に含まれる画像601を縮小して、縮小画像602を生成し、画像強調部414は、縮小画像602にレティネックス処理を適用することで、強調画像603を生成する。 FIG. 6 shows an example of the first image processing performed by the image processing device 401. The reduction unit 413 reduces the image 601 included in the image captured in the sea to generate the reduced image 602, and the image enhancement unit 414 applies the Retinex process to the reduced image 602 to obtain the enhanced image 603. Generate.

縮小画像602の視認性を向上させた強調画像603を生成することで、画像に写っている魚体の認識が容易になる。また、縮小画像602の画素数は画像601の画素数よりも少ないため、レティネックス処理の処理量が削減され、処理が高速化される。しかし、物体領域611内に小さく写っている魚体は、認識することができたとしても、コントラストが低いままであり、視認性向上の効果は低い。 By generating the emphasized image 603 with improved visibility of the reduced image 602, it becomes easy to recognize the fish body shown in the image. Further, since the number of pixels of the reduced image 602 is smaller than the number of pixels of the image 601, the processing amount of the retinex processing is reduced and the processing speed is increased. However, even if the fish body that appears small in the object area 611 can be recognized, the contrast remains low, and the effect of improving the visibility is low.

そこで、領域特定部415は、強調画像603に対するテンプレートマッチング及びエッジ検出処理を行うことで、物体領域611を特定し、領域抽出部416は、画像601から、物体領域611に対応する対象領域621の画像622を抽出する。 Therefore, the area identification unit 415 identifies the object area 611 by performing template matching and edge detection processing on the emphasized image 603, and the area extraction unit 416 from the image 601 to the target area 621 corresponding to the object area 611. Image 622 is extracted.

領域強調部417は、対象領域621の画像622にレティネックス処理を適用することで、不図示の領域画像を生成する。対象領域621に限定してレティネックス処理を適用することで、物体領域611よりもコントラストが高い領域画像が得られる。画像622の画素数は画像601の画素数よりも少ないため、レティネックス処理の処理量が削減され、処理が高速化される。また、画像622は元の画像601の一部であり、物体領域611よりも画素数が多いため、元の解像度が保持される。 The area enhancement unit 417 generates a region image (not shown) by applying the Retinex process to the image 622 of the target region 621. By applying the Retinex process only to the target region 621, a region image having a higher contrast than the object region 611 can be obtained. Since the number of pixels of the image 622 is smaller than the number of pixels of the image 601, the processing amount of the Retinex processing is reduced and the processing speed is increased. Further, since the image 622 is a part of the original image 601 and has a larger number of pixels than the object area 611, the original resolution is maintained.

このように、元の画像601を縮小した縮小画像602と、元の画像601の一部の領域の画像622とに対して、レティネックス処理を適用することで、画像601に対する視認性向上処理を高速化することができる。 In this way, by applying the Retinex process to the reduced image 602 obtained by reducing the original image 601 and the image 622 in a part of the original image 601 to improve the visibility of the image 601. It can be speeded up.

補正部418は、物体領域611の色情報を取得して、領域画像の色情報を物体領域611の色情報に近づける色補正を行うことで、補正画像623を生成する。これにより、縮小画像602全体のレティネックス処理により得られたバランスの取れた色情報が、補正画像623に反映され、色補償付き視認性向上処理が実現される。したがって、図5に示した合成画像504のような違和感が生じることがなく、画像622に写っている魚体の視認性がさらに向上する。 The correction unit 418 acquires the color information of the object region 611 and performs color correction to bring the color information of the region image closer to the color information of the object region 611 to generate the corrected image 623. As a result, the balanced color information obtained by the retinex processing of the entire reduced image 602 is reflected in the corrected image 623, and the visibility improvement processing with color compensation is realized. Therefore, the discomfort as in the composite image 504 shown in FIG. 5 does not occur, and the visibility of the fish body shown in the image 622 is further improved.

拡大部419は、強調画像603を拡大して拡大画像を生成する。合成部420は、拡大画像内において、対象領域621に対応する部分領域631を特定し、部分領域631の画像を補正画像623に置き換えることで、合成画像604を生成する。 The enlargement unit 419 enlarges the emphasized image 603 to generate an enlarged image. The compositing unit 420 identifies the subregion 631 corresponding to the target region 621 in the enlarged image and replaces the image of the subregion 631 with the corrected image 623 to generate the compositing image 604.

これにより、強調画像603内において、大きく写っている魚体を含む領域612及び領域613は単純に拡大され、小さく写っている魚体を含む領域611は、補正画像623に置き換えられる。拡大画像の一部を補正画像623に置き換えることで、フレームレートを維持した高速な視認性向上処理が実現され、画像601全体の視認性を向上させることができる。 As a result, in the weighted image 603, the region 612 and the region 613 including the large fish body are simply enlarged, and the region 611 including the small fish body is replaced with the corrected image 623. By replacing a part of the enlarged image with the corrected image 623, a high-speed visibility improvement process that maintains the frame rate can be realized, and the visibility of the entire image 601 can be improved.

画像601の代わりに合成画像604を用いることで、養殖生簀内の様子のリアルタイムな観察、魚体同士の目視による比較、ソフトウェアによる魚体長計測等を行うことが容易になる。 By using the composite image 604 instead of the image 601, it becomes easy to observe the state inside the aquaculture cage in real time, visually compare the fish bodies, and measure the fish body length by software.

図7は、画像処理装置401が行う第2の画像処理の例を示している。縮小部413は、映像に含まれる画像701を縮小して、縮小画像702を生成し、画像強調部414は、縮小画像702にレティネックス処理を適用することで、強調画像703を生成する。 FIG. 7 shows an example of the second image processing performed by the image processing device 401. The reduction unit 413 reduces the image 701 included in the video to generate the reduced image 702, and the image enhancement unit 414 generates the enhanced image 703 by applying the Retinex process to the reduced image 702.

領域特定部415は、強調画像703内で、画像701に写っている物体を示すテンプレート画像を用いてテンプレートマッチングを行い、閾値以上の一致度を有する領域を特定する。また、領域特定部415は、強調画像703に対するエッジ検出処理を行って、強調画像703からエッジを検出する。そして、領域特定部415は、テンプレートマッチングにより特定された領域のうち、エッジ強度が所定値よりも小さい領域を、物体領域711として特定する。 The region specifying unit 415 performs template matching using a template image showing an object shown in the image 701 in the emphasized image 703, and identifies a region having a degree of coincidence equal to or higher than a threshold value. In addition, the area specifying unit 415 performs edge detection processing on the emphasized image 703 to detect an edge from the emphasized image 703. Then, the area specifying unit 415 specifies a region having an edge strength smaller than a predetermined value as an object region 711 among the regions specified by template matching.

テンプレートマッチングの一致度に対する閾値は、0.7〜0.9の範囲の実数であってもよい。強調画像703の面積に対するテンプレート画像の面積の比率Rは、0<R<1の範囲の実数である。フレームレートを維持した高速な処理を実現するためには、R≦1/4であることが好ましい。 The threshold for the degree of matching of template matching may be a real number in the range of 0.7 to 0.9. The ratio R of the area of the template image to the area of the emphasized image 703 is a real number in the range of 0 <R <1. In order to realize high-speed processing while maintaining the frame rate, it is preferable that R ≦ 1/4.

領域抽出部416は、画像701から、物体領域711に対応する対象領域712の画像を抽出し、領域強調部417及び補正部418は、対象領域712の画像に対する色補償付き視認性向上処理731を行う。色補償付き視認性向上処理731において、領域強調部417は、対象領域712の画像にレティネックス処理を適用することで、領域画像を生成する。 The area extraction unit 416 extracts an image of the target area 712 corresponding to the object area 711 from the image 701, and the area enhancement unit 417 and the correction unit 418 perform color-compensated visibility improvement processing 731 for the image of the target area 712. Do. In the color-compensated visibility improvement process 731, the area enhancement unit 417 generates an area image by applying the Retinex process to the image of the target area 712.

補正部418は、領域画像の各画素の色情報C1に対するHSV分解732を行うことで、色情報C1をHSV色空間における色相H(Hue)、彩度S(Saturation)、及び明度V(Value)に変換する。また、補正部418は、物体領域711の色情報C0を取得し、色情報C0に対するHSV分解733を行うことで、色情報C0をHSV色空間における色相H、彩度S、及び明度Vに変換する。色情報C1及び色情報C0は、RGB色空間におけるR、G、及びBの値であってもよい。 The correction unit 418 performs HSV decomposition 732 for the color information C1 of each pixel of the region image to obtain the color information C1 into hue H (Hue), saturation S (Saturation), and lightness V (Value) in the HSV color space. Convert to. Further, the correction unit 418 acquires the color information C0 of the object region 711 and performs HSV decomposition 733 on the color information C0 to convert the color information C0 into hue H, saturation S, and brightness V in the HSV color space. To do. The color information C1 and the color information C0 may be the values of R, G, and B in the RGB color space.

次に、補正部418は、色情報C1の色相H、彩度S、及び明度Vに対する色補正734を行い、補正後の色相H、彩度S、及び明度Vの合成735を行うことで、補正画像の各画素の色情報C2を生成する。例えば、補正部418は、色情報C1の色相Hを色情報C0の色相Hに近づける演算を行うことで、色情報C2の色相Hを求め、色情報C1の彩度S及び明度Vを、それぞれ、色情報C2の彩度S及び明度Vとして用いる。補正部418は、色情報C0の色相Hを色情報C2の色相Hとして用いてもよい。 Next, the correction unit 418 performs color correction 734 for the hue H, saturation S, and lightness V of the color information C1, and performs synthesis 735 of the corrected hue H, saturation S, and lightness V. The color information C2 of each pixel of the corrected image is generated. For example, the correction unit 418 obtains the hue H of the color information C2 by performing an operation to bring the hue H of the color information C1 closer to the hue H of the color information C0, and obtains the hue S and the brightness V of the color information C1, respectively. , Used as the saturation S and the lightness V of the color information C2. The correction unit 418 may use the hue H of the color information C0 as the hue H of the color information C2.

拡大部419は、強調画像703を拡大して拡大画像704を生成する。合成部420は、拡大画像704内において、対象領域712に対応する部分領域713の画像を、補正画像に置き換えることで、合成画像705を生成する。 The enlargement unit 419 enlarges the emphasized image 703 to generate the magnified image 704. The compositing unit 420 generates the compositing image 705 by replacing the image of the partial region 713 corresponding to the target region 712 in the enlarged image 704 with the corrected image.

色情報C1の色相Hを色情報C0の色相Hに近づけることで、物体領域711の色あい(赤、オレンジ色、黄色、緑、青、紫等)が補正画像に反映され、合成画像705における色崩れが低減される。 By bringing the hue H of the color information C1 closer to the hue H of the color information C0, the hue (red, orange, yellow, green, blue, purple, etc.) of the object region 711 is reflected in the corrected image, and the color in the composite image 705 is reflected. Collapse is reduced.

図8は、図4の画像処理装置401が行う画像処理の具体例を示すフローチャートである。まず、画像取得部412は、画像処理を終了するか否かを判定する(ステップ801)。例えば、画像取得部412は、ユーザから終了指示を受け付けた場合、画像処理を終了すると判定し、終了指示を受け付けていない場合、画像処理を終了しないと判定する。 FIG. 8 is a flowchart showing a specific example of image processing performed by the image processing apparatus 401 of FIG. First, the image acquisition unit 412 determines whether or not to end the image processing (step 801). For example, the image acquisition unit 412 determines that the image processing is finished when the end instruction is received from the user, and determines that the image processing is not finished when the end instruction is not received.

画像処理を終了しないと判定された場合(ステップ801,NO)、画像取得部412は、撮像装置402から、映像に含まれる画像431を取得し(ステップ802)、縮小部413は、画像431を縮小して縮小画像432を生成する(ステップ803)。 When it is determined that the image processing is not completed (steps 801 and NO), the image acquisition unit 412 acquires the image 431 included in the image from the image pickup apparatus 402 (step 802), and the reduction unit 413 obtains the image 431. It is reduced to generate a reduced image 432 (step 803).

次に、画像強調部414は、縮小画像432のコントラストを強調又は色調を補正して強調画像433を生成する(ステップ804)。そして、領域特定部415は、強調画像433から物体を検出するために、強調画像433に対するテンプレートマッチング及びエッジ検出処理を行う(ステップ805)。 Next, the image enhancement unit 414 enhances the contrast of the reduced image 432 or corrects the color tone to generate the enhanced image 433 (step 804). Then, the area specifying unit 415 performs template matching and edge detection processing on the emphasized image 433 in order to detect an object from the emphasized image 433 (step 805).

次に、領域特定部415は、テンプレートマッチングにより物体が検出されたか否かをチェックし(ステップ806)、物体が検出された場合(ステップ806,YES)、検出された物体のエッジ強度を所定値と比較する(ステップ809)。エッジ強度が所定値よりも小さい場合(ステップ809,YES)、領域特定部415は、その物体が写っている領域を物体領域として特定する(ステップ810)。 Next, the area identification unit 415 checks whether or not an object is detected by template matching (step 806), and if an object is detected (step 806, YES), sets the edge strength of the detected object to a predetermined value. Compare with (step 809). When the edge strength is smaller than the predetermined value (step 809, YES), the area specifying unit 415 specifies the area in which the object is reflected as the object area (step 810).

強調画像433内の物体が写っている領域のうち、エッジ強度が所定値よりも小さい領域を特定することで、不鮮明な物体が写っている領域のみを対象として、色補償付き視認性向上処理を行うことが可能になる。これにより、鮮明な物体が写っている領域に対する色補償付き視認性向上処理が省略されるため、処理量が削減される。 By identifying the area in the emphasized image 433 where the object is shown and the edge strength is smaller than the predetermined value, the visibility improvement process with color compensation is performed only for the area where the unclear object is shown. It will be possible to do. As a result, the visibility improvement process with color compensation for the area where a clear object is captured is omitted, so that the amount of processing is reduced.

次に、補正部418は、物体領域の色情報を取得し(ステップ811)、領域抽出部416は、画像431から、物体領域に対応する対象領域を抽出する(ステップ812)。そして、領域強調部417は、対象領域のコントラストを強調又は色調を補正して領域画像434を生成し、補正部418は、領域画像434の色情報を物体領域の色情報に近づける色補正を行って、補正画像435を生成する(ステップ813)。 Next, the correction unit 418 acquires the color information of the object region (step 811), and the region extraction unit 416 extracts the target region corresponding to the object region from the image 431 (step 812). Then, the area enhancement unit 417 enhances the contrast of the target area or corrects the color tone to generate the area image 434, and the correction unit 418 performs color correction to bring the color information of the area image 434 closer to the color information of the object area. To generate a corrected image 435 (step 813).

次に、拡大部419は、強調画像433を拡大して拡大画像436を生成する(ステップ807)。次に、合成部420は、拡大画像436と補正画像435とを合成して合成画像437を生成し、出力部421は、合成画像437を出力する(ステップ808)。そして、画像処理装置401は、次の時刻の画像431について、ステップ801以降の処理を繰り返す。 Next, the enlargement unit 419 enlarges the emphasized image 433 to generate an enlarged image 436 (step 807). Next, the compositing unit 420 combines the enlarged image 436 and the corrected image 435 to generate the composite image 437, and the output unit 421 outputs the composite image 437 (step 808). Then, the image processing device 401 repeats the processing after step 801 for the image 431 at the next time.

物体が検出されない場合(ステップ806,NO)、又はエッジ強度が所定値以上である場合(ステップ809,NO)、画像処理装置401は、ステップ807以降の処理を行う。この場合、補正画像435は生成されず、拡大画像436がそのまま合成画像437として出力される。 When the object is not detected (step 806, NO), or when the edge strength is equal to or higher than a predetermined value (step 809, NO), the image processing apparatus 401 performs the processes after step 807. In this case, the corrected image 435 is not generated, and the enlarged image 436 is output as it is as the composite image 437.

画像処理を終了すると判定された場合(ステップ801,YES)、画像処理装置401は、画像処理を終了する。 When it is determined that the image processing is finished (steps 801 and YES), the image processing apparatus 401 ends the image processing.

なお、領域画像434の色情報と物体領域の色情報とが近似している場合は、必ずしも領域画像434の色補正を行う必要はない。色補正を行わない場合、画像処理装置401は、ステップ811の処理を省略し、ステップ813において補正画像435を生成しない。そして、ステップ808において、合成部420は、拡大画像436と領域画像434とを合成して合成画像437を生成する。 When the color information of the area image 434 and the color information of the object area are close to each other, it is not always necessary to perform the color correction of the area image 434. When the color correction is not performed, the image processing device 401 omits the process of step 811 and does not generate the corrected image 435 in step 813. Then, in step 808, the compositing unit 420 synthesizes the enlarged image 436 and the region image 434 to generate the composite image 437.

図9は、図4の画像処理装置401と同様の画像処理を行う画像処理システムの機能的構成例を示している。図9の画像処理システムは、撮像装置402、記憶部411、画像取得部412、縮小部413、画像強調部414、領域特定部415、領域抽出部416、領域強調部417、補正部418、拡大部419、合成部420、及び出力部421を含む。 FIG. 9 shows a functional configuration example of an image processing system that performs image processing similar to that of the image processing device 401 of FIG. The image processing system of FIG. 9 includes an image pickup device 402, a storage unit 411, an image acquisition unit 412, a reduction unit 413, an image enhancement unit 414, an area identification unit 415, an area extraction unit 416, an area enhancement unit 417, a correction unit 418, and an enlargement. A unit 419, a synthesis unit 420, and an output unit 421 are included.

図9に示された複数の構成要素は、複数の情報処理装置に分散して実装される。これらの構成要素はそれぞれ異なる情報処理装置に含まれていてもよく、いずれか2つ以上の構成要素が1台の情報処理装置に含まれていてもよい。各構成要素が行う動作は、画像処理装置401の場合と同様である。 The plurality of components shown in FIG. 9 are distributed and implemented in a plurality of information processing devices. Each of these components may be included in different information processing devices, and any two or more components may be included in one information processing device. The operation performed by each component is the same as in the case of the image processing device 401.

図2及び図4の画像処理装置の構成は一例に過ぎず、画像処理装置の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、図4の画像処理装置401において、画像431が事前に記憶部411に格納されている場合は、画像取得部412を省略することができる。領域画像434の色補正を行わない場合は、補正部418を省略することができる。 The configurations of the image processing devices of FIGS. 2 and 4 are merely examples, and some components may be omitted or changed depending on the use or conditions of the image processing device. For example, in the image processing device 401 of FIG. 4, when the image 431 is stored in the storage unit 411 in advance, the image acquisition unit 412 can be omitted. When the color correction of the area image 434 is not performed, the correction unit 418 can be omitted.

図9の画像処理システムの構成は一例に過ぎず、画像処理システムの用途又は条件に応じて一部の構成要素を省略又は変更してもよい。 The configuration of the image processing system of FIG. 9 is only an example, and some components may be omitted or changed depending on the use or conditions of the image processing system.

図3及び図8のフローチャートは一例に過ぎず、画像処理装置の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図8の画像処理において、画像431が事前に記憶部411に格納されている場合は、ステップ802の処理を省略することができる。ステップ805において、領域特定部415は、強調画像703に対するエッジ検出処理を省略することもできる。この場合、ステップ809の処理も省略される。 The flowcharts of FIGS. 3 and 8 are merely examples, and some processes may be omitted or changed depending on the configuration or conditions of the image processing device. For example, in the image processing of FIG. 8, when the image 431 is stored in the storage unit 411 in advance, the processing of step 802 can be omitted. In step 805, the area identification unit 415 may omit the edge detection process for the emphasized image 703. In this case, the process of step 809 is also omitted.

図1及び図5〜図7の画像は一例に過ぎず、処理対象の画像は、撮影対象の物体に応じて変化する。図7に示した色補償付き視認性向上処理731は一例に過ぎず、画像処理装置401の構成又は条件に応じて別の補正処理を用いてもよい。例えば、補正部418は、色情報C1の色相Hだけでなく、彩度S及び明度Vを変更することも可能である。補正部418は、HSV色空間以外の色空間における演算により、領域画像の色補正を行ってもよい。 The images of FIGS. 1 and 5 to 7 are merely examples, and the image to be processed changes according to the object to be photographed. The visibility improving process 731 with color compensation shown in FIG. 7 is only an example, and another correction process may be used depending on the configuration or conditions of the image processing device 401. For example, the correction unit 418 can change not only the hue H of the color information C1 but also the saturation S and the lightness V. The correction unit 418 may perform color correction of the region image by calculation in a color space other than the HSV color space.

図10は、図2及び図4の画像処理装置として用いられる情報処理装置のハードウェア構成例を示している。図10の情報処理装置は、CPU(Central Processing Unit)1001、メモリ1002、入力装置1003、出力装置1004、補助記憶装置1005、媒体駆動装置1006、及びネットワーク接続装置1007を含む。これらの構成要素はハードウェアであり、バス1008により互いに接続されている。 FIG. 10 shows a hardware configuration example of an information processing device used as the image processing device of FIGS. 2 and 4. The information processing device of FIG. 10 includes a CPU (Central Processing Unit) 1001, a memory 1002, an input device 1003, an output device 1004, an auxiliary storage device 1005, a medium drive device 1006, and a network connection device 1007. These components are hardware and are connected to each other by bus 1008.

メモリ1002は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを格納する。メモリ1002は、図2の記憶部211又は図4の記憶部411として用いることができる。 The memory 1002 is, for example, a semiconductor memory such as a ROM (Read Only Memory), a RAM (Random Access Memory), or a flash memory, and stores a program and data used for processing. The memory 1002 can be used as the storage unit 211 of FIG. 2 or the storage unit 411 of FIG.

CPU1001(プロセッサ)は、例えば、メモリ1002を利用してプログラムを実行することにより、図2の特定部212及び生成部213として動作する。 The CPU 1001 (processor) operates as the specific unit 212 and the generation unit 213 of FIG. 2 by executing a program using, for example, the memory 1002.

CPU1001は、メモリ1002を利用してプログラムを実行することにより、図4の画像取得部412、縮小部413、画像強調部414、領域特定部415、領域抽出部416、及び領域強調部417としても動作する。CPU1001は、メモリ1002を利用してプログラムを実行することにより、補正部418、拡大部419、及び合成部420としても動作する。 The CPU 1001 can also be used as the image acquisition unit 412, the reduction unit 413, the image enhancement unit 414, the area identification unit 415, the area extraction unit 416, and the area enhancement unit 417 in FIG. 4 by executing the program using the memory 1002. Operate. The CPU 1001 also operates as a correction unit 418, an enlargement unit 419, and a synthesis unit 420 by executing a program using the memory 1002.

入力装置1003は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置1004は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。処理結果は、合成画像437であってもよい。出力装置1004は、図4の出力部421として用いることができる。 The input device 1003 is, for example, a keyboard, a pointing device, or the like, and is used for inputting an instruction or information from an operator or a user. The output device 1004 is, for example, a display device, a printer, a speaker, or the like, and is used for inquiring or instructing an operator or a user and outputting a processing result. The processing result may be a composite image 437. The output device 1004 can be used as the output unit 421 of FIG.

補助記憶装置1005は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1005は、ハードディスクドライブ又はフラッシュメモリであってもよい。情報処理装置は、補助記憶装置1005にプログラム及びデータを格納しておき、それらをメモリ1002にロードして使用することができる。補助記憶装置1005は、図2の記憶部211又は図4の記憶部411として用いることができる。 The auxiliary storage device 1005 is, for example, a magnetic disk device, an optical disk device, a magneto-optical disk device, a tape device, or the like. The auxiliary storage device 1005 may be a hard disk drive or a flash memory. The information processing device can store programs and data in the auxiliary storage device 1005 and load them into the memory 1002 for use. The auxiliary storage device 1005 can be used as the storage unit 211 of FIG. 2 or the storage unit 411 of FIG.

媒体駆動装置1006は、可搬型記録媒体1009を駆動し、その記録内容にアクセスする。可搬型記録媒体1009は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1009は、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体1009にプログラム及びデータを格納しておき、それらをメモリ1002にロードして使用することができる。 The medium driving device 1006 drives the portable recording medium 1009 and accesses the recorded contents. The portable recording medium 1009 is a memory device, a flexible disk, an optical disk, a magneto-optical disk, or the like. The portable recording medium 1009 may be a CD-ROM (Compact Disk Read Only Memory), a DVD (Digital Versatile Disk), a USB (Universal Serial Bus) memory, or the like. The operator or the user can store the programs and data in the portable recording medium 1009 and load them into the memory 1002 for use.

このように、画像処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ1002、補助記憶装置1005、又は可搬型記録媒体1009のような、物理的な(非一時的な)記録媒体である。 As described above, the computer-readable recording medium that stores the programs and data used for image processing is a physical (non-temporary) recording medium such as a memory 1002, an auxiliary storage device 1005, or a portable recording medium 1009. It is a recording medium.

ネットワーク接続装置1007は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1007を介して受信し、それらをメモリ1002にロードして使用することができる。ネットワーク接続装置1007は、図4の出力部421として用いることができる。 The network connection device 1007 is a communication interface circuit that is connected to a communication network such as a LAN (Local Area Network) or WAN (Wide Area Network) and performs data conversion associated with the communication. The information processing device can receive programs and data from an external device via the network connection device 1007, load them into the memory 1002, and use them. The network connection device 1007 can be used as the output unit 421 of FIG.

なお、情報処理装置が図10のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、オペレータ又はユーザからの指示又は情報を入力する必要がない場合は、入力装置1003を省略してもよい。可搬型記録媒体1009又は通信ネットワークを使用しない場合は、媒体駆動装置1006又はネットワーク接続装置1007を省略してもよい。 It is not necessary for the information processing apparatus to include all the components of FIG. 10, and some components may be omitted depending on the application or conditions. For example, the input device 1003 may be omitted when it is not necessary to input instructions or information from the operator or the user. When the portable recording medium 1009 or the communication network is not used, the medium driving device 1006 or the network connecting device 1007 may be omitted.

開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。 Having described in detail the embodiments of the disclosure and its advantages, those skilled in the art will be able to make various changes, additions and omissions without departing from the scope of the invention as expressly stated in the claims. Let's do it.

図1乃至図10を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
第1画像を縮小して縮小画像を生成し、
前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、
前記第2画像内で物体が写っている第1領域を特定し、
前記第1画像から前記第1領域に対応する第2領域を抽出し、
前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する、
処理をコンピュータに実行させるための画像処理プログラム。
(付記2)
前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成し、
前記第2画像を拡大して拡大画像を生成し、
前記拡大画像と前記補正画像とを合成して合成画像を生成し、
前記合成画像を出力する、
処理を前記コンピュータにさらに実行させることを特徴とする付記1記載の画像処理プログラム。
(付記3)
前記色補正は、前記領域画像の色相を前記第1領域の色相に近づける処理であることを特徴とする付記2記載の画像処理プログラム。
(付記4)
前記画像処理プログラムは、前記第2画像からエッジを検出する処理を、前記コンピュータにさらに実行させ、
前記第1領域は、前記第2画像内においてエッジ強度が所定値よりも小さい領域であることを特徴とする付記1乃至3のいずれか1項に記載の画像処理プログラム。
(付記5)
前記コンピュータは、レティネックス処理により、前記縮小画像及び前記第2領域のコントラストを強調又は色調を補正することを特徴とする付記1乃至4のいずれか1項に記載の画像処理プログラム。
(付記6)
第1画像を記憶する記憶部と、
前記第1画像を縮小して縮小画像を生成し、前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、前記第2画像内で物体が写っている第1領域を特定する特定部と、
前記第1画像から前記第1領域に対応する第2領域を抽出し、前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する生成部と、
を備えることを特徴とする画像処理装置。
(付記7)
前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成する補正部と、
前記第2画像を拡大して拡大画像を生成する拡大部と、
前記拡大画像と前記補正画像とを合成して合成画像を生成する合成部と、
前記合成画像を出力する出力部と、
をさらに備えることを特徴とする付記6記載の画像処理装置。
(付記8)
前記色補正は、前記領域画像の色相を前記第1領域の色相に近づける処理であることを特徴とする付記7記載の画像処理装置。
(付記9)
前記特定部は、前記第2画像からエッジを検出し、
前記第1領域は、前記第2画像内においてエッジ強度が所定値よりも小さい領域であることを特徴とする付記6乃至8のいずれか1項に記載の画像処理装置。
(付記10)
前記特定部は、レティネックス処理により、前記縮小画像のコントラストを強調又は色調を補正し、前記生成部は、前記レティネックス処理により、前記第2領域のコントラストを強調又は色調を補正することを特徴とする付記6乃至9のいずれか1項に記載の画像処理装置。
(付記11)
第1画像を記憶する記憶部と、
前記第1画像を縮小して縮小画像を生成し、前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、前記第2画像内で物体が写っている第1領域を特定する特定部と、
前記第1画像から前記第1領域に対応する第2領域を抽出し、前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する生成部と、
を備えることを特徴とする画像処理システム。
(付記12)
前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成する補正部と、
前記第2画像を拡大して拡大画像を生成する拡大部と、
前記拡大画像と前記補正画像とを合成して合成画像を生成する合成部と、
前記合成画像を出力する出力部と、
をさらに備えることを特徴とする付記11記載の画像処理システム。
(付記13)
コンピュータによって実行される画像処理方法であって、
前記コンピュータが、
第1画像を縮小して縮小画像を生成し、
前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、
前記第2画像内で物体が写っている第1領域を特定し、
前記第1画像から前記第1領域に対応する第2領域を抽出し、
前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する、
ことを特徴とする画像処理方法。
(付記14)
前記コンピュータは、
前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成し、
前記第2画像を拡大して拡大画像を生成し、
前記拡大画像と前記補正画像とを合成して合成画像を生成し、
前記合成画像を出力する、
ことを特徴とする付記13記載の画像処理方法。
The following additional notes will be further disclosed with respect to the embodiments described with reference to FIGS. 1 to 10.
(Appendix 1)
Reduce the first image to generate a reduced image,
The contrast of the reduced image is emphasized or the color tone is corrected to generate a second image.
In the second image, the first region in which the object appears is specified, and
A second region corresponding to the first region is extracted from the first image, and the second region is extracted.
A region image is generated by emphasizing the contrast of the second region or correcting the color tone.
An image processing program that allows a computer to perform processing.
(Appendix 2)
Color correction is performed to bring the color information of the region image closer to the color information of the first region, and a corrected image is generated.
The second image is enlarged to generate an enlarged image,
The enlarged image and the corrected image are combined to generate a composite image.
Output the composite image,
The image processing program according to Appendix 1, wherein the computer further executes the processing.
(Appendix 3)
The image processing program according to Appendix 2, wherein the color correction is a process of bringing the hue of the region image closer to the hue of the first region.
(Appendix 4)
The image processing program causes the computer to further execute a process of detecting an edge from the second image.
The image processing program according to any one of Supplementary note 1 to 3, wherein the first region is a region in which the edge strength is smaller than a predetermined value in the second image.
(Appendix 5)
The image processing program according to any one of Supplementary note 1 to 4, wherein the computer enhances the contrast of the reduced image and the second region or corrects the color tone by retinex processing.
(Appendix 6)
A storage unit that stores the first image and
The first image is reduced to generate a reduced image, the contrast of the reduced image is emphasized or the color tone is corrected to generate a second image, and a first region in which an object is captured is specified in the second image. With a specific part to do
A generation unit that extracts a second region corresponding to the first region from the first image, emphasizes the contrast of the second region, or corrects the color tone to generate a region image.
An image processing device characterized by comprising.
(Appendix 7)
A correction unit that generates a corrected image by performing color correction that brings the color information of the region image closer to the color information of the first region.
An enlargement unit that enlarges the second image to generate an enlarged image, and
A compositing unit that synthesizes the enlarged image and the corrected image to generate a composite image,
An output unit that outputs the composite image and
The image processing apparatus according to Appendix 6, further comprising.
(Appendix 8)
The image processing apparatus according to Appendix 7, wherein the color correction is a process of bringing the hue of the region image closer to the hue of the first region.
(Appendix 9)
The specific part detects an edge from the second image and
The image processing apparatus according to any one of Supplementary note 6 to 8, wherein the first region is a region in which the edge strength is smaller than a predetermined value in the second image.
(Appendix 10)
The specific unit is characterized in that the contrast of the reduced image is emphasized or the color tone is corrected by the Retinex process, and the generation unit is characterized in that the contrast of the second region is emphasized or the color tone is corrected by the Retinex process. The image processing apparatus according to any one of Supplementary note 6 to 9.
(Appendix 11)
A storage unit that stores the first image and
The first image is reduced to generate a reduced image, the contrast of the reduced image is emphasized or the color tone is corrected to generate a second image, and a first region in which an object is captured is specified in the second image. With a specific part to do
A generation unit that extracts a second region corresponding to the first region from the first image, emphasizes the contrast of the second region, or corrects the color tone to generate a region image.
An image processing system characterized by being equipped with.
(Appendix 12)
A correction unit that generates a corrected image by performing color correction that brings the color information of the region image closer to the color information of the first region.
An enlargement unit that enlarges the second image to generate an enlarged image, and
A compositing unit that synthesizes the enlarged image and the corrected image to generate a composite image,
An output unit that outputs the composite image and
The image processing system according to Appendix 11, further comprising.
(Appendix 13)
An image processing method performed by a computer
The computer
Reduce the first image to generate a reduced image,
The contrast of the reduced image is emphasized or the color tone is corrected to generate a second image.
In the second image, the first region in which the object appears is specified, and
A second region corresponding to the first region is extracted from the first image, and the second region is extracted.
A region image is generated by emphasizing the contrast of the second region or correcting the color tone.
An image processing method characterized by that.
(Appendix 14)
The computer
Color correction is performed to bring the color information of the region image closer to the color information of the first region, and a corrected image is generated.
The second image is enlarged to generate an enlarged image,
The enlarged image and the corrected image are combined to generate a composite image.
Output the composite image,
The image processing method according to Appendix 13, characterized in that.

101、102、431、501〜503、601、622、701 画像
111、612、613 領域
201、401 画像処理装置
211、411 記憶部
212 特定部
213 生成部
402 撮像装置
412 画像取得部
413 縮小部
414 画像強調部
415 領域特定部
416 領域抽出部
417 領域強調部
418 補正部
419 拡大部
420 合成部
421 出力部
432、602、702 縮小画像
433、603、703 強調画像
434 領域画像
435、623 補正画像
436、704 拡大画像
437、504、604、705 合成画像
611、711 物体領域
621、712 対象領域
631、713 部分領域
731 色補償付き視認性向上処理
732、733 HSV分解
734 色補正
735 合成
1001 CPU
1002 メモリ
1003 入力装置
1004 出力装置
1005 補助記憶装置
1006 媒体駆動装置
1007 ネットワーク接続装置
1008 バス
1009 可搬型記録媒体
101, 102, 431, 501-503, 601, 622, 701 Image 111, 612, 613 Area 201, 401 Image processing device 211, 411 Storage unit 212 Specific unit 213 Generation unit 402 Imaging device 412 Image acquisition unit 413 Reduction unit 414 Image enhancement part 415 Area identification part 416 Area extraction part 417 Area enhancement part 418 Correction part 419 Enlargement part 420 Synthesis part 421 Output part 432, 602, 702 Reduced image 433, 603, 703 Emphasis image 434 Area image 435, 623 Corrected image 436 , 704 Enlarged image 437, 504, 604, 705 Composite image 611, 711 Object area 621, 712 Target area 631, 713 Partial area 731 Visibility improvement processing with color compensation 732, 733 HSV decomposition 734 Color correction 735 Composite 1001 CPU
1002 Memory 1003 Input device 1004 Output device 1005 Auxiliary storage device 1006 Media drive device 1007 Network connection device 1008 Bus 1009 Portable recording medium

Claims (7)

第1画像を縮小して縮小画像を生成し、
前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、
前記第2画像内で物体が写っている第1領域を特定し、
前記第1画像から前記第1領域に対応する第2領域を抽出し、
前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する、
処理をコンピュータに実行させるための画像処理プログラム。
Reduce the first image to generate a reduced image,
The contrast of the reduced image is emphasized or the color tone is corrected to generate a second image.
In the second image, the first region in which the object appears is specified, and
A second region corresponding to the first region is extracted from the first image, and the second region is extracted.
A region image is generated by emphasizing the contrast of the second region or correcting the color tone.
An image processing program that allows a computer to perform processing.
前記領域画像の色情報を前記第1領域の色情報に近づける色補正を行って、補正画像を生成し、
前記第2画像を拡大して拡大画像を生成し、
前記拡大画像と前記補正画像とを合成して合成画像を生成し、
前記合成画像を出力する、
処理を前記コンピュータにさらに実行させることを特徴とする請求項1記載の画像処理プログラム。
Color correction is performed to bring the color information of the region image closer to the color information of the first region, and a corrected image is generated.
The second image is enlarged to generate an enlarged image,
The enlarged image and the corrected image are combined to generate a composite image.
Output the composite image,
The image processing program according to claim 1, wherein the computer further executes the processing.
前記色補正は、前記領域画像の色相を前記第1領域の色相に近づける処理であることを特徴とする請求項2記載の画像処理プログラム。 The image processing program according to claim 2, wherein the color correction is a process of bringing the hue of the region image closer to the hue of the first region. 前記画像処理プログラムは、前記第2画像からエッジを検出する処理を、前記コンピュータにさらに実行させ、
前記第1領域は、前記第2画像内においてエッジ強度が所定値よりも小さい領域であることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理プログラム。
The image processing program causes the computer to further execute a process of detecting an edge from the second image.
The image processing program according to any one of claims 1 to 3, wherein the first region is a region in which the edge strength is smaller than a predetermined value in the second image.
第1画像を記憶する記憶部と、
前記第1画像を縮小して縮小画像を生成し、前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、前記第2画像内で物体が写っている第1領域を特定する特定部と、
前記第1画像から前記第1領域に対応する第2領域を抽出し、前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する生成部と、
を備えることを特徴とする画像処理装置。
A storage unit that stores the first image and
The first image is reduced to generate a reduced image, the contrast of the reduced image is emphasized or the color tone is corrected to generate a second image, and a first region in which an object is captured is specified in the second image. With a specific part to do
A generation unit that extracts a second region corresponding to the first region from the first image, emphasizes the contrast of the second region, or corrects the color tone to generate a region image.
An image processing device characterized by comprising.
第1画像を記憶する記憶部と、
前記第1画像を縮小して縮小画像を生成し、前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、前記第2画像内で物体が写っている第1領域を特定する特定部と、
前記第1画像から前記第1領域に対応する第2領域を抽出し、前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する生成部と、
を備えることを特徴とする画像処理システム。
A storage unit that stores the first image and
The first image is reduced to generate a reduced image, the contrast of the reduced image is emphasized or the color tone is corrected to generate a second image, and a first region in which an object is captured is specified in the second image. With a specific part to do
A generation unit that extracts a second region corresponding to the first region from the first image, emphasizes the contrast of the second region, or corrects the color tone to generate a region image.
An image processing system characterized by being equipped with.
コンピュータによって実行される画像処理方法であって、
前記コンピュータが、
第1画像を縮小して縮小画像を生成し、
前記縮小画像のコントラストを強調又は色調を補正して第2画像を生成し、
前記第2画像内で物体が写っている第1領域を特定し、
前記第1画像から前記第1領域に対応する第2領域を抽出し、
前記第2領域のコントラストを強調又は色調を補正して領域画像を生成する、
ことを特徴とする画像処理方法。
An image processing method performed by a computer
The computer
Reduce the first image to generate a reduced image,
The contrast of the reduced image is emphasized or the color tone is corrected to generate a second image.
In the second image, the first region in which the object appears is specified, and
A second region corresponding to the first region is extracted from the first image, and the second region is extracted.
A region image is generated by emphasizing the contrast of the second region or correcting the color tone.
An image processing method characterized by that.
JP2019139448A 2019-07-30 2019-07-30 Image processing program, image processing device, image processing system, and image processing method Active JP7445109B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019139448A JP7445109B2 (en) 2019-07-30 2019-07-30 Image processing program, image processing device, image processing system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019139448A JP7445109B2 (en) 2019-07-30 2019-07-30 Image processing program, image processing device, image processing system, and image processing method

Publications (2)

Publication Number Publication Date
JP2021022263A true JP2021022263A (en) 2021-02-18
JP7445109B2 JP7445109B2 (en) 2024-03-07

Family

ID=74573288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019139448A Active JP7445109B2 (en) 2019-07-30 2019-07-30 Image processing program, image processing device, image processing system, and image processing method

Country Status (1)

Country Link
JP (1) JP7445109B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011619A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and its device
JP2008078802A (en) * 2006-09-19 2008-04-03 Fujifilm Corp Photographing device and photographing method
JP2008108024A (en) * 2006-10-25 2008-05-08 Matsushita Electric Ind Co Ltd Image processor and imaging device
JP2010186268A (en) * 2009-02-10 2010-08-26 Seiko Epson Corp Image processor, printer, image processing method and image processing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4687667B2 (en) 2006-03-07 2011-05-25 ブラザー工業株式会社 Image processing program and image processing apparatus
JP6303816B2 (en) 2014-05-28 2018-04-04 富士ゼロックス株式会社 Image processing apparatus and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011619A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and its device
JP2008078802A (en) * 2006-09-19 2008-04-03 Fujifilm Corp Photographing device and photographing method
JP2008108024A (en) * 2006-10-25 2008-05-08 Matsushita Electric Ind Co Ltd Image processor and imaging device
JP2010186268A (en) * 2009-02-10 2010-08-26 Seiko Epson Corp Image processor, printer, image processing method and image processing program

Also Published As

Publication number Publication date
JP7445109B2 (en) 2024-03-07

Similar Documents

Publication Publication Date Title
EP3477931B1 (en) Image processing method and device, readable storage medium and electronic device
KR102574141B1 (en) Image display method and device
US10853925B2 (en) Methods, systems, and media for image processing
EP3327668B1 (en) Image-processing device and method for foreground mask correction for object segmentation
JP6609505B2 (en) Image composition apparatus and program
TWI767985B (en) Method and apparatus for processing an image property map
JP2020129276A (en) Image processing device, image processing method, and program
CN107993209B (en) Image processing method, image processing device, computer-readable storage medium and electronic equipment
JP2017130060A (en) Image processing device, image processing method, and program
KR101624801B1 (en) Matting method for extracting object of foreground and apparatus for performing the matting method
CN110557584A (en) image processing method and device, and computer readable storage medium
Lee et al. Color image enhancement using histogram equalization method without changing hue and saturation
JP2018025878A (en) Image processor, image processing method and program
Anantrasirichai et al. Contextual colorization and denoising for low-light ultra high resolution sequences
JP2020061080A (en) Image processing device, imaging device, and image processing method
JP5286215B2 (en) Outline extracting apparatus, outline extracting method, and outline extracting program
JP2021043874A (en) Image processing apparatus, image processing method, and program
CN113808054A (en) Method for repairing optic disc region of fundus image and related product
JP7445109B2 (en) Image processing program, image processing device, image processing system, and image processing method
KR20200071866A (en) Method and apparatus for machine-learning based processing of high-resolution image
KR102389284B1 (en) Method and device for image inpainting based on artificial intelligence
JP2005182232A (en) Luminance correcting device and method
JP2023003764A (en) Image processing apparatus, image processing method, and program
CN111062862A (en) Color-based data enhancement method and system, computer device and storage medium
JP2021005798A (en) Imaging apparatus, control method of imaging apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231019

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20231019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240205

R150 Certificate of patent or registration of utility model

Ref document number: 7445109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150