JP2021105577A - Learning model construction device, learning model construction method, and learning model construction program - Google Patents

Learning model construction device, learning model construction method, and learning model construction program Download PDF

Info

Publication number
JP2021105577A
JP2021105577A JP2019237491A JP2019237491A JP2021105577A JP 2021105577 A JP2021105577 A JP 2021105577A JP 2019237491 A JP2019237491 A JP 2019237491A JP 2019237491 A JP2019237491 A JP 2019237491A JP 2021105577 A JP2021105577 A JP 2021105577A
Authority
JP
Japan
Prior art keywords
information
hue
image
histogram
color correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019237491A
Other languages
Japanese (ja)
Other versions
JP7314048B2 (en
Inventor
和博 田島
Kazuhiro Tajima
和博 田島
吉男 井下田
Yoshio Igeta
吉男 井下田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2019237491A priority Critical patent/JP7314048B2/en
Publication of JP2021105577A publication Critical patent/JP2021105577A/en
Application granted granted Critical
Publication of JP7314048B2 publication Critical patent/JP7314048B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

To construct a learning model with which it is possible to correct a difference in coloring processing on transparent images between manufacturers and obtain accurate determination results as to contents, etc.SOLUTION: Color correction information for the occurrence ratio of each pixel value in a histogram of hues for other models and a histogram of image information of saturation and luminance per prescribed angle in a hue circle to be precisely matched to the occurrence ratio of each pixel value in a histogram of hues for a main model and a histogram of image information of saturation and luminance per prescribed angle in a hue circle is created. This color correction information for hue, saturation and luminance is converted into color correction information for red, green and blue colors, and the color tone of the image information for other models is converted into the color tone of the image information for the main model by the color correction information for red, green and blue colors. Meanwhile, the image information for other models having been converted into the color tone of the image information for the main model is cumulatively stored in a storage unit as learning images for the main model for object determination.SELECTED DRAWING: Figure 16

Description

本発明は、学習モデルの構築装置、学習モデルの構築方法及び学習モデルの構築プログラムに関する。 The present invention relates to a learning model construction device, a learning model construction method, and a learning model construction program.

今日において、例えば空港又は工場等で、荷物又は製造物等を開被又は破壊することなく、収納物又は内部構造等を視認可能な物体検査装置が知られている。このような物体検査装置では、特許文献1(特開平11−230918号公報)に開示されているように、一例としてX線で撮像された透視画像が用いられる。 Today, for example, at airports, factories, etc., there are known object inspection devices capable of visually recognizing stored items or internal structures without opening or destroying luggage or products. In such an object inspection apparatus, as disclosed in Patent Document 1 (Japanese Unexamined Patent Publication No. 11-230918), a fluoroscopic image captured by X-rays is used as an example.

透視画像は、検査を行う物体に照射したX線の減衰率(原子番号に応じて異なる)及び物体の密度に応じて着色される。また、複数の透視画像に基づいて、収納物又は内部構造等を学習した学習モデルが生成される。そして、この学習モデルに基づいて、検査時に撮像された透視画像で示される内容物又は内部構造等を判定して判定画像を表示する。検査員は、この判定画像に基づいて、荷物又は製造物等の内容物又は内部構造等を判断し、必要に応じて開被検査等を行う。 The fluoroscopic image is colored according to the attenuation rate (depending on the atomic number) of the X-rays applied to the object to be inspected and the density of the object. Further, a learning model in which the stored object or the internal structure is learned is generated based on the plurality of fluoroscopic images. Then, based on this learning model, the content or internal structure shown in the fluoroscopic image captured at the time of inspection is determined and the determined image is displayed. The inspector judges the contents or the internal structure of the baggage or the product based on this judgment image, and performs an open inspection or the like as necessary.

特開平11−230918号公報Japanese Unexamined Patent Publication No. 11-230918

判定精度の高い学習モデルの生成には多くの透視画像を必要とする。そこで、自ら撮影した透視画像だけでなく、第三者が撮影した透視画像を学習用の透視画像に加えることで、学習用の透視画像の数を増やすことが考えられる。 Many fluoroscopic images are required to generate a learning model with high judgment accuracy. Therefore, it is conceivable to increase the number of fluoroscopic images for learning by adding not only the fluoroscopic images taken by oneself but also the fluoroscopic images taken by a third party to the fluoroscopic images for learning.

しかし、今日において使用されている物体検査装置は、透視画像に対する着色処理が、物体検査装置のメーカ毎に異なる。このため、作成される学習モデルの色合いも、元となる透視画像を撮像した物体検査装置のメーカ毎に異なるものとなる。従って、例えばA社で製造された物体検査装置で撮像された透視画像と、B社で製造された物体検査装置の透視画像をそのままの色合いで学習モデルの生成に用いると、判定精度が低い学習モデルが生成されてしまうという問題があった。 However, in the object inspection devices used today, the coloring process for the fluoroscopic image differs depending on the manufacturer of the object inspection device. Therefore, the hue of the created learning model also differs depending on the manufacturer of the object inspection device that has captured the original fluoroscopic image. Therefore, for example, if the fluoroscopic image captured by the object inspection device manufactured by company A and the fluoroscopic image of the object inspection device manufactured by company B are used to generate a learning model with the same hue, learning with low determination accuracy. There was a problem that the model was generated.

本発明は、上述の課題に鑑みてなされたものであり、透視画像に対する各メーカ間の着色処理の差を補正して内容物等の正確な判定結果を得ることを可能とした学習モデルの構築装置、学習モデルの構築方法及び学習モデルの構築プログラムの提供を目的とする。 The present invention has been made in view of the above-mentioned problems, and is a construction of a learning model that makes it possible to obtain an accurate determination result of the contents and the like by correcting the difference in the coloring process between the manufacturers for the fluoroscopic image. The purpose is to provide a device, a learning model construction method, and a learning model construction program.

上述した課題を解決し、目的を達成するために、本発明は、第1の画像フォーマットの第1の画像情報を、色相情報、彩度情報及び輝度情報を含む第2の画像フォーマットの第2の画像情報に変換するフォーマット変換部と、色相環上の所定の角度毎に色相情報を分割し、分割した角度毎に、色相情報、彩度情報及び輝度情報のヒストグラムを作成するヒストグラム作成部と、第1の色合いに対応する色相情報、彩度情報及び輝度情報のヒストグラムで示される各画素値の出現率に、第1の色合いとは異なる第2の色合いに対応する色相情報、彩度情報及び輝度情報のヒストグラムで示される各画素値の出現率を合わせ込むための、色相情報、彩度情報及び輝度情報の色補正情報を作成する色補正情報作成部と、色相情報、彩度情報及び輝度情報の各色補正情報を、第1の画像フォーマットに対応する色補正情報に変換する変換部と、第1の色合いとは異なる第2の色合いの第1の画像フォーマットの第1の画像情報を、変換部により変換された各色補正情報に基づいて、第1の色合いの第1の画像情報に変換する色変換部と、第1の色合いに変換された第1の画像情報を、オブジェクト判定用の第1の画像情報として記憶部に蓄積して記憶する学習部と、を有する。 In order to solve the above-mentioned problems and achieve the object, the present invention presents the first image information of the first image format as the second of the second image format including the hue information, the saturation information and the brightness information. A format conversion unit that converts to image information of the above, and a histogram creation unit that divides hue information at predetermined angles on the hue circle and creates a histogram of hue information, saturation information, and brightness information for each divided angle. , Hue information corresponding to the first hue, hue information corresponding to the second hue different from the first hue, and saturation information in the appearance rate of each pixel value shown in the histogram of the saturation information and the brightness information. And a color correction information creation unit that creates color correction information of hue information, saturation information, and brightness information for matching the appearance rate of each pixel value shown in the histogram of brightness information, hue information, saturation information, and A conversion unit that converts each color correction information of the brightness information into color correction information corresponding to the first image format, and the first image information of the first image format of the second hue different from the first hue. , The color conversion unit that converts each color correction information converted by the conversion unit into the first image information of the first hue and the first image information converted into the first hue are used for object determination. It has a learning unit that is stored and stored in a storage unit as the first image information of the above.

本発明は、透視画像に対する各メーカ間の着色処理の差を補正して内容物等の正確な判定結果を得ることが可能な学習モデルを構築できる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to construct a learning model capable of obtaining an accurate determination result of a content or the like by correcting a difference in coloring process between manufacturers for a fluoroscopic image.

図1は、実施の形態となる物体検査システムのシステム構成図である。FIG. 1 is a system configuration diagram of an object inspection system according to an embodiment. 図2は、実施の形態となる物体検査システムに設けられている物体検査装置のハードウェア構成を示す図である。FIG. 2 is a diagram showing a hardware configuration of an object inspection device provided in the object inspection system according to the embodiment. 図3は、実施の形態となる物体検査システムに設けられている解析装置のハードウェア構成を示す図である。FIG. 3 is a diagram showing a hardware configuration of an analysis device provided in the object inspection system according to the embodiment. 図4は、色補正テーブル作成部が色補正テーブル作成プログラムを実行することで、ソフトウェア的に実現される各機能の機能ブロック図である。FIG. 4 is a functional block diagram of each function realized by software when the color correction table creation unit executes the color correction table creation program. 図5は、別機種画像の色補正用の色補正テーブルの作成工程の概要を示す図である。FIG. 5 is a diagram showing an outline of a process of creating a color correction table for color correction of another model image. 図6は、別機種画像の色補正用の色補正テーブルにより色補正した別機種画像に基づいて、別機種画像で示される荷物の内容等を判定する判定動作の概要を示す図である。FIG. 6 is a diagram showing an outline of a determination operation for determining the contents of the luggage shown in the different model image based on the different model image color-corrected by the color correction table for color correction of the different model image. 図7は、色補正テーブルの作成動作の流れを示すフローチャートである。FIG. 7 is a flowchart showing the flow of the color correction table creation operation. 図8は、RGB値をHLS値に変換する際に用いられる演算式を示す図である。FIG. 8 is a diagram showing an arithmetic expression used when converting an RGB value into an HLS value. 図9は、RGB値をHSV値に変換する際に用いられる演算式を示す図である。FIG. 9 is a diagram showing an arithmetic expression used when converting an RGB value into an HSV value. 図10は、色相Hの色補正テーブルの作成動作を説明するための図である。FIG. 10 is a diagram for explaining the operation of creating a color correction table for hue H. 図11は、色相Hの固定幅毎に輝度L及び彩度Sの色補正テーブルを作成する動作を説明するための図である。FIG. 11 is a diagram for explaining an operation of creating a color correction table of luminance L and saturation S for each fixed width of hue H. 図12は、ヒストグラムに画素数が集中している箇所が存在することで生ずる不都合を説明するための図である。FIG. 12 is a diagram for explaining the inconvenience caused by the existence of a portion where the number of pixels is concentrated in the histogram. 図13は、色補正テーブル形成部における、ヒストグラムの分散処理を説明するための図である。FIG. 13 is a diagram for explaining the dispersion processing of the histogram in the color correction table forming unit. 図14は、HSV空間における色相Hと輝度値Vの特性を示す図である。FIG. 14 is a diagram showing the characteristics of the hue H and the luminance value V in the HSV space. 図15は、色補正テーブルにより色変換処理した別機種画像に基づく、物体の内容物等の判定動作の流れを示すフローチャートである。FIG. 15 is a flowchart showing a flow of a determination operation of the contents of an object or the like based on an image of another model that has been color-converted by a color correction table. 図16は、主機種画像の色合いを、別機種画像の色合いに補正するための色補正テーブルの形成動作の流れを示すフローチャートである。FIG. 16 is a flowchart showing a flow of a color correction table forming operation for correcting the color tone of the main model image to the color tone of another model image. 図17は、主機種となる物体検査装置において、主機種画像の色合いを、別機種画像の色合いに変換して、物体の内容物等の判定を行う判定動作の流れを示すフローチャートである。FIG. 17 is a flowchart showing a flow of a determination operation in which a color tone of a main model image is converted into a color tone of another model image in an object inspection device serving as a main model to determine the contents of an object or the like. 図18は、主機種学習画像の学習動作を示す模式図である。FIG. 18 is a schematic diagram showing a learning operation of the main model learning image. 図19は、主機種学習画像に基づく内容物等の判定動作を示す図である。FIG. 19 is a diagram showing a determination operation of the contents and the like based on the main model learning image. 図20は、別機種学習画像の学習動作を示す模式図である。FIG. 20 is a schematic diagram showing a learning operation of another model learning image. 図21は、別機種学習画像に基づく内容物等の判定動作を示す図である。FIG. 21 is a diagram showing a determination operation of the contents and the like based on the learning image of another model.

以下、図面を参照して、本発明の学習モデルの構築装置、学習モデルの構築方法及び学習モデルの構築プログラムを適用した実施の形態の物体検査システムを説明する。 Hereinafter, the object inspection system of the embodiment to which the learning model construction device of the present invention, the learning model construction method, and the learning model construction program is applied will be described with reference to the drawings.

(システム構成)
図1は、実施の形態の物体検査システムのシステム構成図である。この図1に示すように、物体検査システムは、物体検査装置1及び解析装置2を有している。物体検査装置1及び解析装置2は、有線又は無線で相互に接続されている。
(System configuration)
FIG. 1 is a system configuration diagram of the object inspection system of the embodiment. As shown in FIG. 1, the object inspection system includes an object inspection device 1 and an analysis device 2. The object inspection device 1 and the analysis device 2 are connected to each other by wire or wirelessly.

なお、物体検査装置1及び解析装置2は、例えばインターネット等のパブリック網又はLAN等のプライベート網を介して接続されていてもよい。また、この例では、物体検査装置1及び解析装置2を、それぞれ別の装置として説明するが、物体検査装置1に解析装置2の機能を設け、物理的に一つの装置(物体検査装置)としてもよい。 The object inspection device 1 and the analysis device 2 may be connected via a public network such as the Internet or a private network such as a LAN. Further, in this example, the object inspection device 1 and the analysis device 2 will be described as separate devices, but the object inspection device 1 is provided with the function of the analysis device 2 and is physically regarded as one device (object inspection device). May be good.

物体検査装置1は、本体16、荷物4の入口16a及び荷物4の出口16bを有している。また,物体検査装置1は、モニタ装置14を有している。本体16は、入口16aから搬入された荷物4を、ローラコンベアにより出口16bまで移動させる間、荷物4に例えばX線を照射して透視画像を形成する。この透視画像は、解析装置2に送信される。 The object inspection device 1 has a main body 16, an inlet 16a of the luggage 4, and an exit 16b of the luggage 4. Further, the object inspection device 1 has a monitor device 14. The main body 16 forms a fluoroscopic image by irradiating the luggage 4 with, for example, X-rays, while moving the luggage 4 carried in from the inlet 16a to the outlet 16b by the roller conveyor. This fluoroscopic image is transmitted to the analysis device 2.

解析装置2は、物体検査装置1により形成された複数の透視画像を学習することで、荷物4の内部の収納物等を判別するための学習画像を記憶している。物体検査装置1から透視画像が供給されると、解析装置2は、記憶している学習画像に基づいて、透視画像で示される荷物4の内部の収納物等を判定する。そして、この判定結果となる判定画像を、物体検査装置1のモニタ装置14に供給する。これにより、荷物4の内部の収納物等を示す判定画像をモニタ装置14に表示することができる。 The analysis device 2 stores a learning image for discriminating a stored object or the like inside the luggage 4 by learning a plurality of fluoroscopic images formed by the object inspection device 1. When the fluoroscopic image is supplied from the object inspection device 1, the analysis device 2 determines the stored items inside the luggage 4 shown in the fluoroscopic image based on the stored learning image. Then, the determination image that is the determination result is supplied to the monitoring device 14 of the object inspection device 1. As a result, a determination image showing the stored items inside the luggage 4 can be displayed on the monitor device 14.

検査員は、この判定画像に基づいて荷物4の収納物を判断し、必要に応じて開被検査等を行う。 The inspector determines the stored items of the luggage 4 based on the determination image, and performs an open inspection or the like as necessary.

(物体検査装置のハードウェア構成)
図2は、物体検査装置1のハードウェア構成を示す図である。この図2に示すように、物体検査装置1は、荷物4に対してX線を照射するX線源21、入口16aから搬入された荷物4を出口16bまで移動させるローラコンベア22を有している。また、物体検査装置1は、荷物4を透過したX線を検出するX線検出器23、X線検出器23のX線検出出力に対応するRGBフォーマットの透視画像(RGB画像)を形成する画像処理部24を有している。透視画像(RGB画像)は、上述のように解析装置2に供給され、内部の収納物等の判定に用いられる。また、物体検査装置1は、解析装置2からの判定画像を表示するモニタ装置14を有している。
(Hardware configuration of object inspection device)
FIG. 2 is a diagram showing a hardware configuration of the object inspection device 1. As shown in FIG. 2, the object inspection device 1 has an X-ray source 21 that irradiates the luggage 4 with X-rays, and a roller conveyor 22 that moves the luggage 4 carried in from the inlet 16a to the outlet 16b. There is. Further, the object inspection device 1 forms an image (RGB image) in an RGB format corresponding to the X-ray detector 23 for detecting the X-ray transmitted through the luggage 4 and the X-ray detection output of the X-ray detector 23. It has a processing unit 24. The fluoroscopic image (RGB image) is supplied to the analysis device 2 as described above, and is used for determining an internal storage object or the like. Further, the object inspection device 1 has a monitor device 14 that displays a determination image from the analysis device 2.

なお、図2に示すハードウェアのうち、例えば画像処理部24等の一部のハードウェアをソフトウェアで実現してもよい。 Of the hardware shown in FIG. 2, some hardware such as the image processing unit 24 may be realized by software.

(解析装置のハードウェア構成)
図3は、解析装置2のハードウェア構成を示す図である。この図3に示すように、解析装置2は、取得部31、画像学習部32、色補正テーブル作成部33、記憶部34、色補正部35及び判定部36を有する。
(Hardware configuration of analyzer)
FIG. 3 is a diagram showing a hardware configuration of the analysis device 2. As shown in FIG. 3, the analysis device 2 includes an acquisition unit 31, an image learning unit 32, a color correction table creation unit 33, a storage unit 34, a color correction unit 35, and a determination unit 36.

取得部31は、所定のメーカが製造している物体検査装置である主機種で形成された透視画像(主機種画像)を取得する。また、取得部31は、このような主機種を製造するメーカとは異なるメーカで製造された別機種で形成された透視画像(別機種画像)を取得する。 The acquisition unit 31 acquires a fluoroscopic image (main model image) formed by the main model, which is an object inspection device manufactured by a predetermined manufacturer. Further, the acquisition unit 31 acquires a fluoroscopic image (another model image) formed by another model manufactured by a manufacturer different from the manufacturer that manufactures such a main model.

画像学習部32は、複数の主機種画像を学習し、荷物4の内部の収納物等を判別するための学習画像(主機種学習画像)を記憶部34に記憶させる。この主機種学習画像は、学習される毎に追加されて、記憶部34に記憶される。また、この主機種学習画像は、別機種の透視画像の色合いを、主機種の透視画像の色合いに補正するための色補正テーブルを作成する際に用いられる。 The image learning unit 32 learns a plurality of main model images, and stores a learning image (main model learning image) for discriminating the stored items inside the luggage 4 in the storage unit 34. This main model learning image is added each time it is learned and stored in the storage unit 34. Further, this main model learning image is used when creating a color correction table for correcting the hue of the perspective image of another model to the hue of the perspective image of the main model.

また、画像学習部32は、複数の別機種画像を学習し、荷物4の内部の収納物等を判別するための学習画像(別機種学習画像)を記憶部34に記憶させる。この別機種学習画像は、学習される毎に追加されて、記憶部34に記憶される。また、この別機種学習画像は、主機種の透視画像の色合いを、別機種の透視画像の色合いに補正するための色補正テーブルを作成する際に用いられる。 Further, the image learning unit 32 learns a plurality of images of different models, and stores the learning images (learning images of different models) for discriminating the stored items inside the luggage 4 in the storage unit 34. This different model learning image is added each time it is learned and stored in the storage unit 34. Further, this different model learning image is used when creating a color correction table for correcting the hue of the perspective image of the main model to the hue of the perspective image of another model.

色補正テーブル作成部33は、取得部31を介して取得された複数の別機種画像、及び、記憶部34に記憶されている主機種学習画像に基づいて、別機種画像の色合いを、主機種学習画像の色合いに色補正するための「別機種→主機種色補正テーブル」を作成して、記憶部34に記憶する。また、色補正テーブル作成部33は、取得部31を介して取得された複数の主機種画像、及び、記憶部34に記憶されている別機種学習画像に基づいて、主機種画像の色合いを、別機種学習画像の色合いに色補正するための「主機種→別機種色補正テーブル」を作成して、記憶部34に記憶する。 The color correction table creation unit 33 obtains the hue of the different model image based on the plurality of different model images acquired via the acquisition unit 31 and the main model learning image stored in the storage unit 34. A "different model-> main model color correction table" for color correction to the hue of the learning image is created and stored in the storage unit 34. Further, the color correction table creation unit 33 determines the hue of the main model image based on the plurality of main model images acquired via the acquisition unit 31 and the different model learning image stored in the storage unit 34. A "main model-> another model color correction table" for color correction to the hue of another model learning image is created and stored in the storage unit 34.

記憶部34には、上述の主機種学習画像、別機種学習画像、別機種→主機種色補正テーブル及び主機種→別機種色補正テーブルの他、主機種及び別機種の透視画像を学習して、主機種学習画像及び別機種学習画像を作成するための「画像学習プログラム」が記憶されている。また、記憶部34には、色合いを補正した主機種の透視画像で示される内容物(オブジェクト)等の判定動作、及び、色合いを補正した別機種の透視画像で示される内容物等の判定動作を制御するための「画像判定プログラム」が記憶されている。さらに、記憶部34には、別機種→主機種色補正テーブル及び主機種→別機種色補正テーブルを作成するための「色補正テーブル作成プログラム」が記憶されている。 In the storage unit 34, in addition to the above-mentioned main model learning image, another model learning image, another model → main model color correction table and main model → another model color correction table, the perspective images of the main model and another model are learned. , An "image learning program" for creating a main model learning image and another model learning image is stored. Further, the storage unit 34 has a determination operation of the contents (object) and the like shown by the perspective image of the main model whose color tone has been corrected, and a determination operation of the contents and the like shown by the perspective image of another model whose color tone has been corrected. An "image determination program" for controlling the image is stored. Further, the storage unit 34 stores a "color correction table creation program" for creating a different model-> main model color correction table and a main model-> different model color correction table.

色補正部35は、別機種→主機種色補正テーブルに基づいて、別機種の透視画像を、主機種の色合いの透視画像に補正する。また、色補正部35は、主機種→別機種色補正テーブルに基づいて、主機種の透視画像を、別機種の色合いの透視画像に補正する。 The color correction unit 35 corrects the perspective image of another model to the perspective image of the hue of the main model based on the different model → main model color correction table. Further, the color correction unit 35 corrects the perspective image of the main model to the perspective image of the hue of the other model based on the main model → another model color correction table.

解析部の一例である判定部36は、主機種の色合いに色補正された別機種画像の内容物等を主機種学習画像に基づいて判定し、判定画像をモニタ装置14に供給する。また、判定部36は、別機種の色合いに色補正された主機種画像の内容物等を別機種学習画像に基づいて判定し、判定画像をモニタ装置14に供給する。 The determination unit 36, which is an example of the analysis unit, determines the contents of another model image color-corrected to the hue of the main model based on the main model learning image, and supplies the determination image to the monitor device 14. Further, the determination unit 36 determines the contents of the main model image color-corrected to the hue of another model based on the learning image of the other model, and supplies the determination image to the monitor device 14.

なお、図3に示した各部31〜36のうち、一部をソフトウェアで実現してもよい。 Note that some of the parts 31 to 36 shown in FIG. 3 may be realized by software.

(色補正テーブル作成部のソフトウェア構成)
図4は、色補正テーブル作成部33が、記憶部34に記憶されている色補正テーブル作成プログラムを実行することで、ソフトウェア的に実現される各機能の機能ブロック図である。この図4に示すように、色補正テーブル作成部33は、色補正テーブル作成プログラムを実行することで、HLS変換部41、Hヒストグラム作成部42、固定幅分割部43及びSLヒストグラム作成部44の各機能を実現する。また、色補正テーブル作成部33は、色補正テーブル作成プログラムを実行することで、ランキング化部45、同率順位検出部46、変換テーブル形成部47及びRGB変換部48の各機能を実現する。各部41〜48の詳細な動作は、後述する。
(Software configuration of color correction table creation unit)
FIG. 4 is a functional block diagram of each function realized by software when the color correction table creation unit 33 executes the color correction table creation program stored in the storage unit 34. As shown in FIG. 4, the color correction table creation unit 33 executes the color correction table creation program to form the HLS conversion unit 41, the H histogram creation unit 42, the fixed width division unit 43, and the SL histogram creation unit 44. Realize each function. Further, the color correction table creation unit 33 realizes each function of the ranking unit 45, the same ratio rank detection unit 46, the conversion table forming unit 47, and the RGB conversion unit 48 by executing the color correction table creation program. The detailed operation of each part 41 to 48 will be described later.

(別機種画像の判定動作)
次に、別機種で形成された透視画像(別機種画像)の色合いを、主機種の透視画像の色合いに補正し、この色合いを補正した別機種画像及び主機種学習画像に基づいて、別機種画像で示される荷物の内容等を判定する判定動作を説明する。
(Judgment operation of another model image)
Next, the hue of the perspective image (another model image) formed by another model is corrected to the hue of the perspective image of the main model, and the different model is based on the corrected different model image and the main model learning image. A determination operation for determining the contents of the luggage shown in the image will be described.

図5は、別機種画像の色補正用の色補正テーブルの作成工程の概要を示す図である。主機種となる物体検査装置1は、図5(a)に示すように、撮像した複数の透視画像及び外部から供給された主機種となる物体検査装置1用の透視画像を学習して記憶部34に記憶している(主機種学習画像)。主機種となる物体検査装置1の色補正テーブル作成部33は、この主機種学習画像に基づいて、図5(c)に示すように、色相(Hue)、輝度(Lightness)、彩度(Saturation)のHLSヒストグラムをそれぞれ作成する。 FIG. 5 is a diagram showing an outline of a process of creating a color correction table for color correction of another model image. As shown in FIG. 5A, the object inspection device 1 as the main model learns a plurality of captured fluoroscopic images and the perspective image for the main model object inspection device 1 supplied from the outside and stores the storage unit. It is stored in 34 (main model learning image). Based on this main model learning image, the color correction table creation unit 33 of the object inspection device 1 which is the main model has hue (Hue), brightness (Lightness), and saturation (Saturation) as shown in FIG. 5 (c). ) HLS histograms are created respectively.

また、色補正テーブル作成部33は、図5(b)に示すように別機種の物体検査装置100からの未学習の画像(別機種未学習画像)に基づいて、図5(d)に示すように、色相(Hue)、輝度(Lightness)、彩度(Saturation)のHLSヒストグラムをそれぞれ作成する。 Further, the color correction table creation unit 33 is shown in FIG. 5 (d) based on an unlearned image (an unlearned image of another model) from the object inspection device 100 of another model as shown in FIG. 5 (b). As described above, HLS histograms of hue, brightness, and saturation are created respectively.

次に、色補正テーブル作成部33は、主機種学習画像から作成したHLSヒストグラムで示される各画素値の出現率と、別機種未学習画像から作成したHLSヒストグラムで示される各画素値の出現率とを比較する。主機種学習画像のHLSヒストグラムと、別機種未学習画像のHLSヒストグラムとの間において、出現率が同じであるということは、同じ画素値であることを意味する。このため、色補正テーブル作成部33は、主機種学習画像のHLSヒストグラムの出現率と同じ出現率となる別機種未学習画像のHLSヒストグラムの画素値を、その出現率の主機種学習画像の画素値に補正するための色補正情報を作成する。色補正テーブル作成部33は、このような色補正情報を、出現率毎及びHLSのヒストグラム毎に記憶させた色補正テーブル(別機種→主機種色補正テーブル)を作成する(図5(e))。 Next, the color correction table creation unit 33 has an appearance rate of each pixel value shown in the HLS histogram created from the main model learning image and an appearance rate of each pixel value shown in the HLS histogram created from the unlearned image of another model. Compare with. The fact that the appearance rate is the same between the HLS histogram of the main model learning image and the HLS histogram of the unlearned image of another model means that the pixel values are the same. Therefore, the color correction table creation unit 33 sets the pixel value of the HLS histogram of the unlearned image of another model, which has the same appearance rate as the appearance rate of the HLS histogram of the main model learning image, to the pixels of the main model learning image of the appearance rate. Create color correction information to correct to the value. The color correction table creation unit 33 creates a color correction table (separate model → main model color correction table) in which such color correction information is stored for each appearance rate and for each HLS histogram (FIG. 5 (e)). ).

このような別機種→主機種色補正テーブルを作成することで、主機種となる物体検査装置1において、別機種未学習画像に基づく内容物等の判定を行うことができる。図6が、この判定動作の概要を示す図である。図6(a)に示すように、別機種の物体検査装置100で撮像された透視画像(別機種未学習画像)が、主機種の物体検査装置1に供給されると、主機種の物体検査装置1の色補正部35は、別機種→主機種色補正テーブルを参照して(図6(b))、別機種の透視画像の色合いを、主機種の物体検査装置1用の色合いに補正する(図6(c))。 By creating such a different model → main model color correction table, it is possible to determine the contents and the like based on the unlearned image of the different model in the object inspection device 1 which is the main model. FIG. 6 is a diagram showing an outline of this determination operation. As shown in FIG. 6A, when the fluoroscopic image (unlearned image of another model) captured by the object inspection device 100 of another model is supplied to the object inspection device 1 of the main model, the object inspection of the main model is performed. The color correction unit 35 of the device 1 refers to the color correction table of another model → main model (FIG. 6B), and corrects the hue of the perspective image of the other model to the hue for the object inspection device 1 of the main model. (Fig. 6 (c)).

主機種の物体検査装置1の判定部36は、主機種の物体検査装置1用の色合いに補正された別機種の透視画像に基づいて、別機種の透視画像で示される物体の内容物等を判定する(図6(d)、図6(e))。これにより、主機種の物体検査装置1において、別機種の透視画像に基づき内容物等の正確な判定を行うことができる。 The determination unit 36 of the object inspection device 1 of the main model determines the contents of the object shown in the perspective image of another model based on the perspective image of another model corrected to the hue for the object inspection device 1 of the main model. Judgment (FIG. 6 (d), FIG. 6 (e)). As a result, the object inspection device 1 of the main model can accurately determine the contents and the like based on the fluoroscopic image of another model.

(色補正テーブルの形成動作の詳細)
図7のフローチャートに、上述の色補正テーブルの作成動作の流れを示す。色補正テーブル作成部33は、記憶部34に記憶されている色補正テーブル作成プログラムを実行することで、図4に示す各機能(HLS変換部41〜RGB変換部48)に基づいて、図7のフローチャートのステップS1から各処理を実行する。
(Details of color correction table formation operation)
The flowchart of FIG. 7 shows the flow of the above-mentioned color correction table creation operation. The color correction table creation unit 33 executes the color correction table creation program stored in the storage unit 34, and based on each function shown in FIG. 4 (HLS conversion unit 41 to RGB conversion unit 48), FIG. 7 Each process is executed from step S1 of the flowchart of.

まず、ステップS1では、図4に示すHLS変換部41が、記憶部34に記憶されている主機種の物体検査装置1の複数の主機種学習済み画像のRGB値をHLS値に変換し、Hヒストグラム作成部42が、図5(c)に示したようなH(色相)のヒストグラムを作成する。すなわち、主機種学習済み画像の各画素値は、赤色(R)、緑色(G)、青色(B)のRGB色空間の値となっている。このため、HLS変換部41は、主機種学習済み画像のRGB色空間の値となっている各画素値を、色相(Hue)、輝度(Lightness)、彩度(Saturation)のHLS色空間の値に変換する(HLS変換処理)。Hヒストグラム作成部42は、HLS変換されたHLSの各値のうち、色相(Hue)のヒストグラムを形成する。 First, in step S1, the HLS conversion unit 41 shown in FIG. 4 converts the RGB values of the plurality of master model learned images of the object inspection device 1 of the main model stored in the storage unit 34 into HLS values, and H The histogram creation unit 42 creates an H (hue) histogram as shown in FIG. 5 (c). That is, each pixel value of the master model trained image is a value in the RGB color space of red (R), green (G), and blue (B). Therefore, the HLS conversion unit 41 sets each pixel value, which is the value of the RGB color space of the image learned by the main model, into the value of the HLS color space of hue, brightness, and saturation. (HLS conversion process). The H-histogram creation unit 42 forms a hue (Hue) histogram among the HLS-converted HLS values.

図8は、RGB値をHLS値に変換する際に用いられる演算式を示す図である。この図8に示すように、HLS変換部41は、RGBの各最大値(max)を「Vmax」とし、RGBの各最小値(min)を「Vmin」とし、「(Vmax+Vmin)/2」の演算を行うことで輝度Lを算出する。 FIG. 8 is a diagram showing an arithmetic expression used when converting an RGB value into an HLS value. As shown in FIG. 8, the HLS conversion unit 41 sets each maximum value (max) of RGB to "Vmax", sets each minimum value (min) of RGB to "Vmin", and sets "(Vmax + Vmin) / 2". The brightness L is calculated by performing the calculation.

また、HLS変換部41は、算出した輝度Lの値が0.5未満の場合(L<0.5)、「(Vmax−Vmin)/(Vmax+Vmin)」の演算を行うことで彩度Sを算出する。これに対して、HLS変換部41は、算出した輝度Lの値が0.5以上の場合(L≧0.5)、「(Vmax−Vmin)/(2−(Vmax+Vmin))」の演算を行うことで彩度Sを算出する。 Further, when the calculated brightness L value is less than 0.5 (L <0.5), the HLS conversion unit 41 calculates the saturation S by performing the calculation of "(Vmax-Vmin) / (Vmax + Vmin)". calculate. On the other hand, when the calculated brightness L value is 0.5 or more (L ≧ 0.5), the HLS conversion unit 41 performs the calculation of “(Vmax-Vmin) / (2- (Vmax + Vmin))”. By doing so, the saturation S is calculated.

また、HLS変換部41は、Rの値がVmaxである場合(Vmax=R)、「(60(G−B))/(Vmax−Vmin)」の演算を行うことで、色相Hを算出する。また、HLS変換部41は、Gの値がVmaxである場合(Vmax=G)、「(120+60(B−R))/(Vmax−Vmin)」の演算を行うことで、色相Hを算出する。また、HLS変換部41は、Bの値がVmaxである場合(Vmax=B)、「(240+60(R−G))/(Vmax−Vmin)」の演算を行うことで、色相Hを算出する。 Further, when the value of R is Vmax (Vmax = R), the HLS conversion unit 41 calculates the hue H by performing the calculation of "(60 (GB)) / (Vmax-Vmin)". .. Further, when the value of G is Vmax (Vmax = G), the HLS conversion unit 41 calculates the hue H by performing the calculation of "(120 + 60 (BR)) / (Vmax-Vmin)". .. Further, when the value of B is Vmax (Vmax = B), the HLS conversion unit 41 calculates the hue H by performing the calculation of "(240 + 60 (RG)) / (Vmax-Vmin)". ..

なお、主機種学習済み画像のRGB色空間の画像を、色相(Hue)、彩度(Saturation)、明度(Value)のHSV色空間の値に変換し、色相(Hue)のヒストグラムを形成してもよい(HSV変換)。 The RGB color space image of the main model trained image is converted into HSV color space values of hue (Hue), saturation (Saturation), and lightness (Value) to form a hue (Hue) histogram. May be good (HSV conversion).

HSV変換を行う場合、図9に示すように、RGBの各最大値(max)を明度Vとする。また、このVの値が「0」ではない場合に、「(V−min(RGB))/V」の演算を行うことで彩度Sが算出される。また、Vの値が「0」の場合は、彩度Sも「0」とされる。 When performing HSV conversion, as shown in FIG. 9, each maximum value (max) of RGB is set to brightness V. Further, when the value of V is not "0", the saturation S is calculated by performing the calculation of "(V-min (RGB)) / V". When the value of V is "0", the saturation S is also set to "0".

また、Rの値がVである場合(V=R)、「(60(G−B))/(V−min(R,G,B))」の演算により、色相Hが算出される。また、Gの値がVである場合(V=G)、「(120+60(B−R))/(V−min(R,G,B))」の演算により、色相Hが算出される。また、Bの値がVである場合(V=B)、「(240+60(R−G))/(V−min(R,G,B))」の演算により、色相Hが算出される。 Further, when the value of R is V (V = R), the hue H is calculated by the calculation of "(60 (GB)) / (V-min (R, G, B))". When the value of G is V (V = G), the hue H is calculated by the calculation of "(120 + 60 (BR)) / (V-min (R, G, B))". When the value of B is V (V = B), the hue H is calculated by the calculation of "(240 + 60 (RG)) / (V-min (R, G, B))".

次に、Hヒストグラム作成部42により、色相Hのヒストグラムが作成されると、ステップS2において、固定幅分割部43が、色相Hのヒストグラムを、色相環の例えば0度〜29度、30度〜59度、60度〜89度・・・330度〜359度の30度毎に12分割する。これにより、色相Hのヒストグラムを、赤色、赤黄色、黄色・・・・紫、赤紫等のように、同じ色合いの範囲毎に分割できる。なお、12分割は一例であり、色相Hのヒストグラムを、36度毎の10分割としてもよい。 Next, when the H histogram creating unit 42 creates a histogram of the hue H, in step S2, the fixed width dividing unit 43 uses the histogram of the hue H, for example, 0 degrees to 29 degrees, 30 degrees to 30 degrees. 59 degrees, 60 degrees to 89 degrees ... Divide into 12 every 30 degrees of 330 degrees to 359 degrees. Thereby, the histogram of hue H can be divided into the same hue range such as red, red-yellow, yellow ... purple, magenta, and the like. Note that 12 divisions are an example, and the histogram of hue H may be divided into 10 divisions every 36 degrees.

SLヒストグラム作成部44は、分割された色毎に、彩度S及び輝度Lのヒストグラムをそれぞれ作成する。これにより、主機種学習済み画像の色相Hのヒストグラム、及び、色相Hの固定幅毎(30度毎)の彩度S及び輝度Lのヒストグラムがそれぞれ作成されたこととなる。 The SL histogram creation unit 44 creates histograms of saturation S and brightness L for each of the divided colors. As a result, a histogram of the hue H of the image trained by the main model and a histogram of the saturation S and the brightness L for each fixed width (every 30 degrees) of the hue H are created.

次に、ステップS3において、図4に示すHLS変換部41が、別機種の物体検査装置の複数の別機種未学習画像のRGB値をHLS値に変換し、Hヒストグラム作成部42が、図5(d)に示したようなH(色相)のヒストグラムを、上述と同様に作成する。 Next, in step S3, the HLS conversion unit 41 shown in FIG. 4 converts the RGB values of a plurality of unlearned images of another model of the object inspection device of another model into HLS values, and the H histogram creation unit 42 converts the RGB values into HLS values. A histogram of H (hue) as shown in (d) is created in the same manner as described above.

Hヒストグラム作成部42により、別機種未学習画像の色相Hのヒストグラムが作成されると、ステップS4において、固定幅分割部43が、別機種未学習画像の色相Hのヒストグラムを、色相環の例えば0度〜29度、30度〜59度、60度〜89度・・・の固定幅毎に分割する。SLヒストグラム作成部44は、分割された色相Hの固定幅毎に、別機種未学習画像の彩度S及び輝度Lのヒストグラムをそれぞれ作成する。 When the H histogram creation unit 42 creates a histogram of the hue H of the unlearned image of another model, in step S4, the fixed width dividing unit 43 uses the histogram of the hue H of the unlearned image of another model, for example, on the hue circle. It is divided into fixed widths of 0 degrees to 29 degrees, 30 degrees to 59 degrees, 60 degrees to 89 degrees, and so on. The SL histogram creation unit 44 creates a histogram of the saturation S and the brightness L of the unlearned image of another model for each fixed width of the divided hue H.

これにより、別機種未学習画像の色相Hのヒストグラム、及び、各色相Hの固定幅毎の彩度S及び輝度Lのヒストグラムがそれぞれ作成されたこととなる。 As a result, a histogram of the hue H of the unlearned image of another model and a histogram of the saturation S and the brightness L for each fixed width of each hue H are created.

次に、ステップS5において、ランキング化部45が、主機種学習画像の色相H、彩度S及び輝度Lのヒストグラム、及び、別機種未学習画像の色相H、彩度S及び輝度Lのヒストグラムに現れている画素値毎の出現率を、図10に示すようにランキング化する。また、ステップS6において、同率順位検出部46が、ランキング化された各画素値のうち、同率順位の画素値を検出する。そして、変換テーブル形成部47が、ランキング化された各画素値に基づいて、別機種未学習画像の色相H、彩度S及び輝度Lの各画素値を、主機種学習画像の色相H、彩度S及び輝度Lの各画素値に対応させた、別機種画像の色相H、彩度S、輝度Lの各画素値を補正するための色補正テーブル(変換テーブル)を形成する。 Next, in step S5, the ranking unit 45 creates a histogram of the hue H, saturation S, and brightness L of the main model learning image, and a histogram of the hue H, saturation S, and brightness L of the unlearned image of another model. The appearance rate for each appearing pixel value is ranked as shown in FIG. Further, in step S6, the same rate rank detection unit 46 detects the pixel value of the same rate rank among the ranked pixel values. Then, the conversion table forming unit 47 sets the hue H, saturation S, and brightness L of the unlearned image of another model to the hue H and color of the main model learning image based on the ranked pixel values. A color correction table (conversion table) for correcting each pixel value of hue H, saturation S, and brightness L of another model image corresponding to each pixel value of degree S and brightness L is formed.

図10の例を用いて具体的に説明すると、この図10の例の場合、主機種学習画像の色相Hのヒストグラムには、4の画素値が2つ存在し(2つが同率1位)、5の画素値が5つ存在し(5つが同率3位)、6の画素値が6つ存在(6つが同率8位)している例を示している。 More specifically, using the example of FIG. 10, in the case of the example of FIG. 10, there are two pixel values of 4 in the histogram of the hue H of the main model learning image (two are the same rate first place). An example is shown in which 5 pixel values of 5 exist (5 are in the same rate and 3rd place), and 6 pixel values of 6 are present (6 are in the same rate and 8th place).

また、この図10の例の場合、別機種未学習画像の色相Hのヒストグラムには、1の画素値が2つ存在し(2つが同率1位)、2の画素値が4つ存在し(4つが同率3位)、5の画素値が4つ存在し(4つが同率7位)、6の画素値が3つ存在(3つが同率11位)している例を示している。 Further, in the case of the example of FIG. 10, in the histogram of the hue H of the unlearned image of another model, there are two pixel values of 1 (two are the same ratio and the first place), and four pixel values of 2 are present (2). An example is shown in which four have the same rate of 3rd place, 4 have 5 pixel values (4 have the same rate of 7th place), and 3 have 6 pixel values (3 have the same rate of 11th place).

変換テーブル形成部47は、まず、別機種未学習画像の色相Hの各順位の画素値を、主機種学習画像に対応する順位の画素値に変換するためのHの色補正テーブルを形成する。すなわち、図10の例の場合、主機種学習画像の色相Hのヒストグラムで出現率が1位となっている画素の画素値は「4」であり、別機種未学習画像の色相Hのヒストグラムで出現率が1位となっている画素の画素値は「1」である。このため、変換テーブル形成部47は、別機種未学習画像で出現率が1位となっている「1」の画素値を、主機種学習画像で出現率が1位となっている「4」の画素値に変換する色補正情報を色補正テーブルに記憶させる(画素値1→画素値4)。 The conversion table forming unit 47 first forms a color correction table of H for converting the pixel values of each rank of the hue H of the unlearned image of another model into the pixel values of the rank corresponding to the learning image of the main model. That is, in the case of the example of FIG. 10, the pixel value of the pixel whose appearance rate is the first in the histogram of the hue H of the main model learning image is “4”, and the histogram of the hue H of the unlearned image of another model is used. The pixel value of the pixel having the highest appearance rate is "1". Therefore, the conversion table forming unit 47 has a pixel value of “1”, which has the highest appearance rate in the unlearned image of another model, and “4”, which has the highest appearance rate in the main model learning image. The color correction information to be converted into the pixel value of is stored in the color correction table (pixel value 1 → pixel value 4).

なお、別機種未学習画像の「0」の画素値は、主機種学習画像においても「0」の画素値に変換される(0→0)。また、一例ではあるが、色補正テーブルに記憶される色補正情報は、8ビットの情報として記憶される。 The pixel value of "0" in the unlearned image of another model is also converted into the pixel value of "0" in the learning image of the main model (0 → 0). Further, although it is an example, the color correction information stored in the color correction table is stored as 8-bit information.

同様に、図10の例の場合、主機種学習画像の色相Hのヒストグラムで出現率が3位となっている画素の画素値は「5」であり、別機種未学習画像の色相Hのヒストグラムで出現率が3位から7位までの画素の画素値は「2」から「5」である。このため、変換テーブル形成部47は、別機種未学習画像の色相Hのヒストグラムで出現率が3位となっている「2」から「5」の画素値を、主機種学習画像の色相Hのヒストグラムで出現率が3位となっている「5」の画素値に変換する色補正情報を色補正テーブルに記憶させる(画素値2→画素値5、画素値3→画素値5、画素値4→画素値5、画素値5→画素値5)。 Similarly, in the case of the example of FIG. 10, the pixel value of the pixel whose appearance rate is the third in the histogram of the hue H of the main model learning image is “5”, and the histogram of the hue H of the unlearned image of another model. The pixel values of the pixels having an appearance rate of 3rd to 7th are "2" to "5". Therefore, the conversion table forming unit 47 sets the pixel values of “2” to “5”, which have the third highest appearance rate in the histogram of the hue H of the unlearned image of another model, as the hue H of the main model learning image. The color correction information to be converted into the pixel value of "5" whose appearance rate is the third place in the histogram is stored in the color correction table (pixel value 2 → pixel value 5, pixel value 3 → pixel value 5, pixel value 4). → Pixel value 5, Pixel value 5 → Pixel value 5).

同様に、図10の例の場合、主機種学習画像の色相Hのヒストグラムで出現率が8位となっている画素の画素値は「6」であり、別機種未学習画像の色相Hのヒストグラムで出現率が11位となっている画素の画素値は「6」である。このため、変換テーブル形成部47は、別機種未学習画像の色相Hのヒストグラムで出現率が11位となっている「6」の画素値を、主機種学習画像の色相Hのヒストグラムで出現率が8位となっている「6」の画素値に変換する色補正情報を色補正テーブルに記憶させる(画素値6→画素値6)。 Similarly, in the case of the example of FIG. 10, the pixel value of the pixel whose appearance rate is 8th in the histogram of the hue H of the main model learning image is “6”, and the histogram of the hue H of the unlearned image of another model. The pixel value of the pixel whose appearance rate is 11th is "6". Therefore, the conversion table forming unit 47 uses the pixel value of “6”, which has an appearance rate of 11th in the hue H histogram of the unlearned image of another model, as the appearance rate in the hue H histogram of the main model learning image. The color correction information to be converted into the pixel value of "6" in which is the 8th place is stored in the color correction table (pixel value 6 → pixel value 6).

次に、変換テーブル形成部47は、図11に示すように、0度〜29度、30度〜59度、60度〜89度・・・の色相Hに対応する輝度Lの色補正テーブルを、上述の色相Hの色補正テーブルと同様に、別機種未学習画像の輝度Lのヒストグラム及び主機種学習画像の輝度Lのヒストグラムに基づいて作成する。色相Hの0度〜29度の範囲、30度〜59度の範囲、60度〜89度の範囲・・・は、略同じ色合いの範囲である。このため、同じ色毎に、別機種未学習画像の輝度Lを、主機種学習画像の輝度Lに変換するための色補正テーブルが作成されることとなる。 Next, as shown in FIG. 11, the conversion table forming unit 47 provides a color correction table having a brightness L corresponding to a hue H of 0 degrees to 29 degrees, 30 degrees to 59 degrees, 60 degrees to 89 degrees, and so on. , Similar to the above-mentioned hue H color correction table, it is created based on the histogram of the luminance L of the unlearned image of another model and the histogram of the luminance L of the main model learning image. The range of 0 to 29 degrees, the range of 30 degrees to 59 degrees, the range of 60 degrees to 89 degrees, and the like of hue H are substantially the same range of hues. Therefore, for each of the same colors, a color correction table for converting the brightness L of the unlearned image of another model into the brightness L of the learning image of the main model is created.

また、変換テーブル形成部47は、図11に示すように、0度〜29度、30度〜59度、60度〜89度・・・の色相Hに対応する彩度Sの色補正テーブルを、上述の色相Hの色補正テーブルと同様に、別機種未学習画像の彩度Sのヒストグラム及び主機種学習画像の彩度Sのヒストグラムに基づいて作成する。色相Hの0度〜29度の範囲、30度〜59度の範囲、60度〜89度の範囲・・・は、略同じ色合いの範囲である。このため、同じ色毎に、別機種未学習画像の彩度Sを、主機種学習画像の彩度Sに変換するための色補正テーブルが作成されることとなる。 Further, as shown in FIG. 11, the conversion table forming unit 47 provides a color correction table having a saturation S corresponding to a hue H of 0 degrees to 29 degrees, 30 degrees to 59 degrees, 60 degrees to 89 degrees, and so on. , The color correction table of hue H described above is created based on the histogram of the saturation S of the unlearned image of another model and the histogram of the saturation S of the main model trained image. The range of 0 to 29 degrees, the range of 30 degrees to 59 degrees, the range of 60 degrees to 89 degrees, and the like of hue H are substantially the same range of hues. Therefore, for each of the same colors, a color correction table for converting the saturation S of the unlearned image of another model into the saturation S of the learning image of the main model is created.

(色補正テーブル形成時の調整動作)
ここで、一部に画素値が集中しているヒストグラムから色相H、輝度L及び彩度Sの色補正テーブルを形成すると、正確な色補正テーブルとは、ならない不都合を生ずる。
(Adjustment operation when forming a color correction table)
Here, if a color correction table having hue H, brightness L, and saturation S is formed from a histogram in which pixel values are partially concentrated, an accurate color correction table cannot be obtained.

すなわち、図12の例を用いて説明すると、主機種学習画像のヒストグラムでは、「0」の画素値の画素の出現率が1位であるため、別機種未学習画像のヒストグラムで出現率が1位となっている「1」の画素値の6つの画素が、色補正テーブルにより、「0」の画素値の画素に変換される。 That is, to explain using the example of FIG. 12, in the histogram of the main model learning image, the appearance rate of the pixel of the pixel value of "0" is the first place, so that the appearance rate is 1 in the histogram of the unlearned image of another model. The six pixels with the pixel value of "1", which is the histogram, are converted into the pixels with the pixel value of "0" by the color correction table.

同様に、図12の例において、主機種学習画像のヒストグラムでは、「5」の画素値の画素の出現率が7位であるため、別機種未学習画像のヒストグラムで出現率が7位及び9位の「3」及び「5」の画素値の7つの画素が、色補正テーブルにより、「5」の画素値の画素に変換される。これにより、別機種未学習画像のヒストグラムを色補正テーブルで変換することで、主機種学習画像のヒストグラムとは異なるヒストグラムとなる不都合を生ずる。 Similarly, in the example of FIG. 12, in the histogram of the main model learning image, the appearance rate of the pixel with the pixel value of "5" is 7th, so that the appearance rate is 7th and 9th in the histogram of the unlearned image of another model. Seven pixels with pixel values of "3" and "5" are converted into pixels with pixel values of "5" by the color correction table. As a result, by converting the histogram of the unlearned image of another model with the color correction table, there is an inconvenience that the histogram becomes different from the histogram of the learning image of the main model.

このため、変換テーブル形成部47は、図13(a)に示すように別機種未学習画像のヒストグラムのうち、所定数以上集中している画素値を、図13(b)に示すように左右の画素値に分散させる(=ノイズを重畳させる)。 Therefore, as shown in FIG. 13 (a), the conversion table forming unit 47 displays the pixel values concentrated in a predetermined number or more in the histogram of the unlearned image of another model on the left and right as shown in FIG. 13 (b). Disperse to the pixel values of (= superimpose noise).

すなわち、図13(a)の例は、「1」の画素値が6つ存在し、「5」の画素値が5つ存在し、それぞれ所定数以上となっている。このため、変換テーブル形成部47は、図13(b)に示すように、画素値が「1」の6つの画素のうち、1つを「0」の画素値とし、さらに一つを、「3」の画素値に分散させる。同様に、変換テーブル形成部47は、図13(b)に示すように、画素値が「5」の5つの画素のうち、1つを「4」の画素値とし、さらに一つを、「6」の画素値に分散させる。 That is, in the example of FIG. 13A, there are 6 pixel values of "1" and 5 pixel values of "5", each of which is a predetermined number or more. Therefore, as shown in FIG. 13B, the conversion table forming unit 47 sets one of the six pixels having a pixel value of “1” as a pixel value of “0” and further sets one to “0”. Disperse to the pixel values of "3". Similarly, as shown in FIG. 13B, the conversion table forming unit 47 sets one of the five pixels having a pixel value of “5” as the pixel value of “4” and further sets one as “4”. It is distributed to the pixel values of "6".

ノイズ重畳前(分散前)は、図13(c)に示す主機種学習画像のヒストグラムに基づく色補正テーブルにより、図13(d)に示すように、同じ画素値が集中する不都合が生じていた。 Before noise superimposition (before dispersion), the color correction table based on the histogram of the main model learning image shown in FIG. 13 (c) caused the inconvenience that the same pixel values were concentrated as shown in FIG. 13 (d). ..

しかし、ノイズを重畳させて色補正テーブルを形成することで、別機種画像のヒストグラムを、図13(e)に示すように、主機種学習画像のヒストグラムに近似させることができる。 However, by superimposing noise to form the color correction table, the histogram of the image of another model can be approximated to the histogram of the learning image of the main model as shown in FIG. 13 (e).

このように色相H、輝度L及び彩度Sの色補正テーブルが形成されると、図7のフローチャートのステップS7において、図4に示すRGB変換部48が、色相H、輝度L及び彩度Sの色補正テーブルのHLS値をRGB値に変換して各色補正テーブルに記憶し直す。これにより、別機種画像を主機種画像の色合いに補正するための、R用の色補正テーブル、G用の色補正テーブル、B用の色補正テーブルがそれぞれ形成され、図7のフローチャートに示した色補正テーブルの形成動作が終了する。各色用の色補正テーブルは、「別機種→主機種色補正テーブル」として、図3に示した記憶部34に記憶される。 When the color correction table of hue H, luminance L, and saturation S is formed in this way, in step S7 of the flowchart of FIG. 7, the RGB conversion unit 48 shown in FIG. 4 performs the hue H, luminance L, and saturation S. The HLS value of the color correction table of No. 1 is converted into an RGB value and stored in each color correction table again. As a result, a color correction table for R, a color correction table for G, and a color correction table for B for correcting the color of another model image to the hue of the main model image are formed, and are shown in the flowchart of FIG. The formation operation of the color correction table is completed. The color correction table for each color is stored in the storage unit 34 shown in FIG. 3 as “another model → main model color correction table”.

(HSV値を用いた場合の色補正テーブルの形成動作)
上述の色補正テーブルの形成動作の説明は、色相H、輝度L及び彩度Sの各画素値を用いた場合の説明であった。上述のように、色相H、輝度L及び彩度Sの代りに、色相H,彩度S、輝度(明度)Vの各画素値を用いてもよい。
(Formation operation of color correction table when HSV value is used)
The above-mentioned explanation of the formation operation of the color correction table is an explanation when each pixel value of hue H, luminance L, and saturation S is used. As described above, instead of the hue H, the brightness L, and the saturation S, each pixel value of the hue H, the saturation S, and the brightness (brightness) V may be used.

まず、図14に、HSV空間における色相Hと輝度値Vの特性を示す。この図14に示すように、物体を構成する物質の原子番号が高くなると色相Hの値が高くなり、物体の厚みが厚くなると輝度値Vが高くなる。ただ、部品の劣化ノイズ又はJPEG(Joint Photographic Experts Group)画像の圧縮ノイズ等により、色相H及び輝度値Vの各値は、単調増加(機種間で現れる色合いの登場順が同じであること)とはならず、X線が透過しない物体は、有機物と同じ値となる場合が多い。 First, FIG. 14 shows the characteristics of the hue H and the luminance value V in the HSV space. As shown in FIG. 14, the higher the atomic number of the substance constituting the object, the higher the hue H value, and the thicker the object thickness, the higher the brightness value V. However, due to deterioration noise of parts or compression noise of JPEG (Joint Photographic Experts Group) images, each value of hue H and brightness value V increases monotonically (the order of appearance of hues appearing between models is the same). In many cases, an object that does not transmit X-rays has the same value as an organic substance.

すなわち、実施の形態の物体検査システムにおいては、HSVの各画素値は単調増加すると仮定しているが、白、黒、灰色に近い値は、色相Hの値が変わり易く、単調増加を仮定することが困難となる。 That is, in the object inspection system of the embodiment, it is assumed that each pixel value of HSV increases monotonically, but values close to white, black, and gray are assumed to increase monotonically because the value of hue H is easily changed. Becomes difficult.

具体的には、黒色(0,0,0)にノイズが「1」重畳しただけで、色相Hの値は、以下のように大きく変動する。 Specifically, the value of hue H fluctuates greatly as follows, only when noise is superimposed on black (0, 0, 0) by "1".

RGB=(1,0,0)→H=0(赤)
RGB=(0,1,0)→H=120(緑)
RGB=(0,0,1)→H=240(青)
RGB = (1,0,0) → H = 0 (red)
RGB = (0,1,0) → H = 120 (green)
RGB = (0,0,1) → H = 240 (blue)

このため、HSV値を用いる場合、輝度値Vが50以下の画素を、一旦、紫色(色相H=300度)の画素に変換し、この変換した画素を、色補正テーブルの作成後にオレンジ色に変換して戻し、画素値を黒に近づける処理を行っている。 Therefore, when the HSV value is used, pixels having a brightness value V of 50 or less are once converted into purple (hue H = 300 degrees) pixels, and the converted pixels are turned orange after the color correction table is created. It is converted and returned to bring the pixel value closer to black.

具体的には、HSV値を用いる場合、色補正テーブル作成部33は、まず、主機種学習画像の全てのRGB画像にノイズを重畳してHSV空間の画像情報に変換する。そして、輝度値が50以下の画素をH=150(紫)に変換し、上述と同様に、色相H,彩度S,輝度値Vのヒストグラムをそれぞれ作成する。また、変換テーブル形成部47は、色相H,彩度S,輝度値Vのヒストグラムに基づいて、各画素の出現率のランキングを作成する。 Specifically, when the HSV value is used, the color correction table creation unit 33 first superimposes noise on all the RGB images of the main model learning image and converts them into image information in the HSV space. Then, the pixels having a luminance value of 50 or less are converted into H = 150 (purple), and histograms of hue H, saturation S, and luminance value V are created in the same manner as described above. Further, the conversion table forming unit 47 creates a ranking of the appearance rate of each pixel based on the histogram of the hue H, the saturation S, and the luminance value V.

次に、変換テーブル形成部47は、別機種未学習画像の全ての画像にノイズを重畳して、HSV空間へ変換し、輝度値が50以下の画素をH=150(紫)に変換する。そして、上述と同様に、色相H,彩度S,輝度値Vのヒストグラムをそれぞれ作成する。また、変換テーブル形成部47は、色相H,彩度S,輝度値Vのヒストグラムに基づいて、各画素の出現率のランキングを作成する。 Next, the conversion table forming unit 47 superimposes noise on all the images of the unlearned images of another model, converts them into the HSV space, and converts the pixels having a brightness value of 50 or less into H = 150 (purple). Then, in the same manner as described above, histograms of hue H, saturation S, and luminance value V are created. Further, the conversion table forming unit 47 creates a ranking of the appearance rate of each pixel based on the histogram of the hue H, the saturation S, and the luminance value V.

次に、変換テーブル形成部47は、上述と同様に、ランキングに基づいて、別機種未学習画像の色相Hのヒストグラムを、主機種学習画像の色相Hのヒストグラムに変換するための色補正テーブルを形成する。また、変換テーブル形成部47は、色相Hを上述のように例えば30度毎の固定幅に分割し、別機種未学習画像の彩度Sのヒストグラムを、主機種学習画像の彩度Sのヒストグラムに変換するための色補正テーブル、及び、別機種未学習画像の輝度値Vのヒストグラムを、主機種学習画像の輝度値Vのヒストグラムに変換するための色補正テーブルを、固定幅毎に形成する。 Next, the conversion table forming unit 47 creates a color correction table for converting the histogram of the hue H of the unlearned image of another model into the histogram of the hue H of the main model learning image based on the ranking, as described above. Form. Further, the conversion table forming unit 47 divides the hue H into fixed widths of, for example, every 30 degrees as described above, and converts the histogram of the saturation S of the unlearned image of another model into the histogram of the saturation S of the main model learning image. A color correction table for converting to a histogram of brightness value V of an unlearned image of another model and a color correction table for converting a histogram of brightness value V of a learning image of another model are formed for each fixed width. ..

次に、変換テーブル形成部47は、紫色に変換した画素をオレンジ色に変換することで、画素値を黒に近似させる(輝度値を例えば1/3にする)。これにより、白、黒、灰色に近い値に対して、ノイズの重畳による色相Hの値の大幅な変動を防止でき、HSVの各画素値の単調増加を維持できる。 Next, the conversion table forming unit 47 approximates the pixel value to black by converting the pixel converted to purple into orange (the brightness value is reduced to, for example, 1/3). As a result, it is possible to prevent a large fluctuation in the hue H value due to superimposition of noise with respect to a value close to white, black, and gray, and it is possible to maintain a monotonous increase in each pixel value of HSV.

なお、別機種未学習画像がエッジ強調処理されている場合、変換テーブル形成部47は、ぼかし処理を行う。 When the unlearned image of another model is edge-enhanced, the conversion table forming unit 47 performs the blurring process.

(判定動作)
次に、図15のフローチャートに、主機種となる物体検査装置1における判定動作の流れを示す。この図15のフローチャートに示す各部の動作は、記憶部34に記憶されている画像判定プログラムに基づく動作である。すなわち、まず、図3に示す取得部31が、取得された画像が(図6(a)参照)、別機種画像であるか否かを判別する(ステップS11)。取得された画像が主機種画像である場合(ステップS11:No)、処理がステップS13に進む。取得された画像が別機種画像である場合(ステップS11:Yes)、処理がステップS12に進む。
(Judgment operation)
Next, the flowchart of FIG. 15 shows the flow of the determination operation in the object inspection device 1 which is the main model. The operation of each unit shown in the flowchart of FIG. 15 is an operation based on the image determination program stored in the storage unit 34. That is, first, the acquisition unit 31 shown in FIG. 3 determines whether or not the acquired image (see FIG. 6A) is a different model image (step S11). When the acquired image is the main model image (step S11: No), the process proceeds to step S13. If the acquired image is a different model image (step S11: Yes), the process proceeds to step S12.

ステップS12では、色補正部35が、取得された別機種画像の各画素値を、記憶部34に記憶されている別機種→主機種変換テーブルで示される各画素値に変換処理する(図6(b)、図6(c)参照)。これにより、別機種画像の色合いを、主機種画像の色合いに変換処理することができる。 In step S12, the color correction unit 35 converts each pixel value of the acquired image of another model into each pixel value stored in the storage unit 34 from another model to the main model conversion table (FIG. 6). (B), see FIG. 6 (c)). As a result, the hue of the image of another model can be converted into the hue of the image of the main model.

次に、判定部36は、記憶部34に記憶されている主機種学習画像に基づいて、色合いが変換処理された別機種画像で示される物体の内容物等、又は、ステップS11で取得された主機種画像で示される物体の内容物等の判定を行う(図6(d)、図6(e)参照)。そして、判定部36は、この判定結果となる判定画像を、図1及び図2に示す物体検査装置1のモニタ装置14に送信する。 Next, the determination unit 36 was acquired in step S11 or the contents of an object shown in another model image whose hue has been converted based on the main model learning image stored in the storage unit 34. The contents of the object shown in the main model image are determined (see FIGS. 6 (d) and 6 (e)). Then, the determination unit 36 transmits the determination image resulting from this determination result to the monitoring device 14 of the object inspection device 1 shown in FIGS. 1 and 2.

図6(e)に示す例は、荷物の中に、危険物となるナイフが含まれていた場合の判定画像の一例である。別機種画像に基づく判定を行う場合でも、別機種→主機種変換テーブルにより、別機種画像の色合いが主機種画像の色合いに変換されているため、判定部36で別機種画像用の特別な判定動作を行わなくても、通常の主機種用の判定動作を行うだけで、正確な判定を行うことができる。検査員は、このような判定画像に基づいて、開被検査の有無を判断し、必要に応じて荷物の開被検査等を行う。 The example shown in FIG. 6E is an example of a determination image when a knife, which is a dangerous substance, is included in the baggage. Even when making a judgment based on a different model image, the color of the different model image is converted to the color of the main model image by the different model → main model conversion table, so the judgment unit 36 makes a special judgment for the different model image. Accurate judgment can be made only by performing the normal judgment operation for the main model without performing the operation. The inspector determines whether or not there is an open cover inspection based on such a judgment image, and performs an open cover inspection of the luggage as necessary.

(主機種画像の色補正テーブルの形成動作)
上述の説明は、別機種画像の色合いを、主機種画像の色合いに補正する色補正テーブルを形成する例であったが、主機種画像の色合いを、別機種画像の色合いに補正する色補正テーブルを形成することもできる。図16が、この主機種画像の色補正用の色補正テーブルの形成動作の流れを示すフローチャートである。色補正テーブル作成部33は、記憶部34に記憶されている色補正テーブル作成プログラムを実行することで、図4に示す各機能(HLS変換部41〜RGB変換部48)に基づいて、図16のフローチャートのステップS21から各処理を実行する。
(Forming operation of the color correction table of the main model image)
The above description is an example of forming a color correction table that corrects the hue of another model image to the hue of the main model image, but the color correction table that corrects the hue of the main model image to the hue of the other model image. Can also be formed. FIG. 16 is a flowchart showing the flow of the formation operation of the color correction table for color correction of the main model image. The color correction table creation unit 33 executes the color correction table creation program stored in the storage unit 34, and based on each function shown in FIG. 4 (HLS conversion unit 41 to RGB conversion unit 48), FIG. Each process is executed from step S21 of the flowchart of.

まず、ステップS21では、図4に示すHLS変換部41が、記憶部34に記憶されている別機種の物体検査装置の複数の別機種画像のRGB値をHLS値に変換し、Hヒストグラム作成部42が、図5(c)に示したH(色相)のヒストグラムを作成する。 First, in step S21, the HLS conversion unit 41 shown in FIG. 4 converts the RGB values of a plurality of different model images of the object inspection device of another model stored in the storage unit 34 into HLS values, and the H histogram creation unit. 42 creates a histogram of H (hue) shown in FIG. 5 (c).

次に、Hヒストグラム作成部42により、色相Hのヒストグラムが作成されると、ステップS22において、固定幅分割部43が、色相Hのヒストグラムを、色相環の例えば0度〜29度、30度〜59度、60度〜89度・・・330度〜359度の30度毎に12分割する。 Next, when the H histogram creating unit 42 creates a histogram of the hue H, in step S22, the fixed width dividing unit 43 uses the histogram of the hue H, for example, 0 degrees to 29 degrees, 30 degrees to 30 degrees. 59 degrees, 60 degrees to 89 degrees ... Divide into 12 every 30 degrees of 330 degrees to 359 degrees.

SLヒストグラム作成部44は、分割された色毎に、彩度S及び輝度Lのヒストグラムをそれぞれ作成する。これにより、別機種画像の色相Hのヒストグラム、及び、色相Hの固定幅毎(30度毎)の彩度S及び輝度Lのヒストグラムがそれぞれ作成されたこととなる。 The SL histogram creation unit 44 creates histograms of saturation S and brightness L for each of the divided colors. As a result, a histogram of the hue H of another model image and a histogram of the saturation S and the brightness L for each fixed width (every 30 degrees) of the hue H are created.

次に、ステップS23において、図4に示すHLS変換部41が、主機種の物体検査装置1の複数の主機種画像のRGB値をHLS値に変換し、Hヒストグラム作成部42が、図5(d)に示したようなH(色相)のヒストグラムを、上述と同様に作成する。 Next, in step S23, the HLS conversion unit 41 shown in FIG. 4 converts the RGB values of the plurality of main model images of the object inspection device 1 of the main model into HLS values, and the H histogram creation unit 42 displays FIG. A histogram of H (hue) as shown in d) is created in the same manner as described above.

Hヒストグラム作成部42により、主機種画像の色相Hのヒストグラムが作成されると、ステップS24において、固定幅分割部43が、主機種画像の色相Hのヒストグラムを、例えば0度〜29度、30度〜59度、60度〜89度・・・の固定幅毎に分割する。SLヒストグラム作成部44は、分割された色相Hの固定幅毎に、主機種画像の彩度S及び輝度Lのヒストグラムをそれぞれ作成する。 When the H-histogram creation unit 42 creates a histogram of the hue H of the main model image, in step S24, the fixed width dividing unit 43 creates a histogram of the hue H of the main model image, for example, 0 degrees to 29 degrees, 30 degrees. It is divided into fixed widths of degrees to 59 degrees, 60 degrees to 89 degrees, and so on. The SL histogram creation unit 44 creates a histogram of the saturation S and the brightness L of the main model image for each fixed width of the divided hue H.

これにより、主機種未学習画像の色相Hのヒストグラム、及び、各色相Hの固定幅毎の彩度S及び輝度Lのヒストグラムがそれぞれ作成されたこととなる。 As a result, a histogram of the hue H of the unlearned image of the main model and a histogram of the saturation S and the brightness L for each fixed width of each hue H are created.

次に、ステップS25において、ランキング化部45が、主機種画像の色相H、彩度S及び輝度Lのヒストグラム、及び、別機種画像の色相H、彩度S及び輝度Lのヒストグラムに現れている画素値毎の出現率を、図10に示すようにランキング化する。また、ステップS26において、同率順位検出部46が、ランキング化された各画素値のうち、同率順位の画素値を検出する。そして、変換テーブル形成部47が、ランキング化された各画素値に基づいて、主機種画像の色相H、彩度S及び輝度Lの各画素値を、別機種画像の色相H、彩度S及び輝度Lの各画素値に対応させた、主機種画像の色相H、彩度S、輝度Lの各画素値を補正するための色補正テーブル(変換テーブル)を形成する。 Next, in step S25, the ranking unit 45 appears in the histogram of the hue H, the saturation S and the brightness L of the main model image, and the histogram of the hue H, the saturation S and the brightness L of the other model image. The appearance rate for each pixel value is ranked as shown in FIG. Further, in step S26, the same rate rank detection unit 46 detects the pixel value of the same rate rank among the ranked pixel values. Then, the conversion table forming unit 47 sets each pixel value of the hue H, saturation S, and brightness L of the main model image to the hue H, saturation S, and the hue S of another model image based on the ranked pixel values. A color correction table (conversion table) for correcting each pixel value of the hue H, saturation S, and brightness L of the main model image corresponding to each pixel value of the brightness L is formed.

次に、変換テーブル形成部47は、図11に示したように、0度〜29度、30度〜59度、60度〜89度・・・の色相Hに対応する輝度Lの色補正テーブルを、上述の色相Hの色補正テーブルと同様に、主機種画像の輝度Lのヒストグラム及び別機種画像の輝度Lのヒストグラムに基づいて作成する。色相Hの0度〜29度の範囲、30度〜59度の範囲、60度〜89度の範囲・・・は、略同じ色合いの範囲である。このため、同じ色毎に、主機種画像の輝度Lを、別機種画像の輝度Lに変換するための色補正テーブルが形成されることとなる。 Next, as shown in FIG. 11, the conversion table forming unit 47 is a color correction table having a brightness L corresponding to a hue H of 0 degrees to 29 degrees, 30 degrees to 59 degrees, 60 degrees to 89 degrees, and so on. Is created based on the histogram of the luminance L of the main model image and the histogram of the luminance L of the other model image in the same manner as the above-mentioned hue H color correction table. The range of 0 to 29 degrees, the range of 30 degrees to 59 degrees, the range of 60 degrees to 89 degrees, and the like of hue H are substantially the same range of hues. Therefore, for each of the same colors, a color correction table for converting the brightness L of the main model image to the brightness L of the different model image is formed.

また、変換テーブル形成部47は、図11に示したように、0度〜29度、30度〜59度、60度〜89度・・・の色相Hに対応する彩度Sの色補正テーブルを、上述の色相Hの色補正テーブルと同様に、主機種画像の彩度Sのヒストグラム及び別機種画像の彩度Sのヒストグラムに基づいて作成する。色相Hの0度〜29度の範囲、30度〜59度の範囲、60度〜89度の範囲・・・は、略同じ色合いの範囲である。このため、同じ色毎に、主機種画像の彩度Sを、別機種画像の彩度Sに変換するための色補正テーブルが作成されることとなる。 Further, as shown in FIG. 11, the conversion table forming unit 47 is a color correction table having saturation S corresponding to hues H of 0 degrees to 29 degrees, 30 degrees to 59 degrees, 60 degrees to 89 degrees, and so on. Is created based on the histogram of the saturation S of the main model image and the histogram of the saturation S of the other model image in the same manner as the above-mentioned hue H color correction table. The range of 0 to 29 degrees, the range of 30 degrees to 59 degrees, the range of 60 degrees to 89 degrees, and the like of hue H are substantially the same range of hues. Therefore, for each of the same colors, a color correction table for converting the saturation S of the main model image to the saturation S of another model image is created.

次に、このように色相H、輝度L及び彩度Sの色補正テーブルが形成されると、図16のフローチャートのステップS27において、図4に示すRGB変換部48が、色相H、輝度L及び彩度Sの色補正テーブルのHLS値をRGB値に変換して各色補正テーブルに記憶し直す。これにより、主機種画像の色合いを別機種画像の色合いに補正するための、R用の色補正テーブル、G用の色補正テーブル、B用の色補正テーブルがそれぞれ形成され、図16のフローチャートに示した色補正テーブルの形成動作が終了する。各色用の色補正テーブルは、「主機種→別機種色補正テーブル」として、図3に示した記憶部34に記憶される。 Next, when the color correction table of hue H, luminance L, and saturation S is formed in this way, in step S27 of the flowchart of FIG. 16, the RGB conversion unit 48 shown in FIG. The HLS value of the color correction table of saturation S is converted into an RGB value and stored in each color correction table again. As a result, a color correction table for R, a color correction table for G, and a color correction table for B for correcting the color tone of the main model image to the color tone of another model image are formed, respectively, and the flowchart of FIG. 16 shows. The formation operation of the color correction table shown is completed. The color correction table for each color is stored in the storage unit 34 shown in FIG. 3 as a “main model → another model color correction table”.

(判定動作)
次に、図17のフローチャートに、主機種となる物体検査装置1において、主機種画像の色合いを、別機種画像の色合いに変換して、物体の内容物等の判定を行う判定動作の流れを示す。この図17のフローチャートに示す各部の動作は、記憶部34に記憶されている画像判定プログラムに基づく動作である。すなわち、まず、図3に示す取得部31が、取得された画像が主機種画像であるか否かを判別する(ステップS31)。取得された画像が主機種画像である場合(ステップS31:Yes)、処理がステップS32に進む。取得された画像が別機種画像である場合(ステップS31:No)、処理がステップS33に進む。
(Judgment operation)
Next, the flow chart of FIG. 17 shows the flow of the determination operation in which the object inspection device 1 as the main model converts the hue of the main model image into the hue of the image of another model to determine the contents of the object. show. The operation of each unit shown in the flowchart of FIG. 17 is an operation based on the image determination program stored in the storage unit 34. That is, first, the acquisition unit 31 shown in FIG. 3 determines whether or not the acquired image is the main model image (step S31). When the acquired image is the main model image (step S31: Yes), the process proceeds to step S32. If the acquired image is a different model image (step S31: No), the process proceeds to step S33.

ステップS32では、色補正部35が、取得された主種画像の各画素値を、記憶部34に記憶されている主機種→別機種変換テーブルで示される各画素値に変換処理する。これにより、主機種画像の色合いを、別機種画像の色合いに変換処理することができる。 In step S32, the color correction unit 35 converts each pixel value of the acquired main type image into each pixel value stored in the storage unit 34 from the main model to another model conversion table. As a result, the hue of the main model image can be converted into the hue of the image of another model.

次に、判定部36は、記憶部34に記憶されている別機種学習画像に基づいて、別機種画像の色合いに変換処理された主機種画像で示される物体の内容物等の判定を行う。または、判定部36は、記憶部34に記憶されている「別機種学習画像」に基づいて、ステップS31で取得された別機種画像で示される物体の内容物等の判定を行う。そして、判定部36は、この判定結果となる判定画像を、図1及び図2に示す物体検査装置1のモニタ装置14に送信する。なお、「別機種学習画像」の形成動作は、図20及び図21を用いて後述する。 Next, the determination unit 36 determines the contents of the object shown in the main model image that has been converted into the hue of the different model image based on the different model learning image stored in the storage unit 34. Alternatively, the determination unit 36 determines the contents of the object shown in the image of another model acquired in step S31 based on the "learning image of another model" stored in the storage unit 34. Then, the determination unit 36 transmits the determination image resulting from this determination result to the monitoring device 14 of the object inspection device 1 shown in FIGS. 1 and 2. The operation of forming the "different model learning image" will be described later with reference to FIGS. 20 and 21.

このように、主機種→別機種変換テーブルにより、主機種画像の色合いを別機種画像の色合いに変換し、別機種学習画像に基づいて判定を行うことができる。検査員は、このような判定画像に基づいて、開被検査の有無を判断し、必要に応じて荷物の開被検査等を行う。 In this way, the color tone of the main model image can be converted to the color tone of the different model image by the main model → different model conversion table, and the determination can be made based on the different model learning image. The inspector determines whether or not there is an open cover inspection based on such a judgment image, and performs an open cover inspection of the baggage as necessary.

(主機種学習画像の学習動作)
次に、判定部36により、物体の内容物等の判定に用いられる主機種学習画像の学習動作を説明する。図18は、主機種学習画像の学習動作の模式図である。主機種学習画像の学習は、2通りの方法で学習(記憶)できる。まず、主機種となる物体検査装置1で撮像が行われる毎に、撮像された全ての透視画像又は選択された透視画像を記憶部34に記憶する。これにより、物体検査装置1で撮像が行われる毎に、主機種となる物体検査装置1で撮像された透視画像が、主機種学習画像として記憶部34に蓄積される。
(Learning operation of main model learning image)
Next, the determination unit 36 will explain the learning operation of the main model learning image used for determining the contents of the object and the like. FIG. 18 is a schematic diagram of the learning operation of the main model learning image. Main model learning Image learning can be learned (memorized) in two ways. First, every time an image is taken by the object inspection device 1 which is the main model, all the captured fluoroscopic images or the selected fluoroscopic images are stored in the storage unit 34. As a result, each time the object inspection device 1 takes an image, the fluoroscopic image captured by the main model object inspection device 1 is stored in the storage unit 34 as the main model learning image.

また、別機種となる物体検査装置からの透視画像(別機種画像)が供給された場合、図18に示すように、上述の別機種→主機種変換テーブルにより、別機種画像の色合いを主機種画像の色合いに変換する。画像学習部32は、色合いの変換された別機種画像を、主機種学習画像として記憶部34に蓄積する。上述のように、別機種→主機種変換テーブルを形成することで、主機種となる物体検査装置1及び別機種となる物体検査装置の両方の透視画像を、主機種学習画像として学習(記憶)することができる。 Further, when a fluoroscopic image (another model image) is supplied from an object inspection device of another model, as shown in FIG. 18, the color tone of the other model image is changed to the main model by the above-mentioned different model → main model conversion table. Convert to image tint. The image learning unit 32 stores the image of another model whose color has been converted in the storage unit 34 as the main model learning image. As described above, by forming the conversion table from another model to the main model, the fluoroscopic images of both the object inspection device 1 as the main model and the object inspection device as the other model are learned (memory) as the main model learning image. can do.

図19は、このように学習した主機種学習画像に基づいて、内容物等の判定を行っている様子を示す模式図である。主機種となる物体検査装置1により透視画像が撮像された場合、判定部36は、図19(a)に示すように、記憶部34に記憶されている主機種学習画像に基づいて判定を行う。また、別機種となる物体検査装置からの透視画像(別機種画像)が供給された場合、判定部36は、図19(b)に示すように、別機種→主機種変換テーブルにより、別機種画像の色合いを主機種画像の色合いに変換したうえで、記憶部34に記憶されている主機種学習画像に基づいて判定を行う。上述のように、別機種→主機種変換テーブルを有しているため、主機種となる物体検査装置1及び別機種となる物体検査装置の両方の透視画像を、主機種学習画像に基づいて判定することができる。 FIG. 19 is a schematic diagram showing how the contents and the like are determined based on the main model learning image learned in this way. When the fluoroscopic image is captured by the object inspection device 1 as the main model, the determination unit 36 makes a determination based on the main model learning image stored in the storage unit 34 as shown in FIG. 19A. .. Further, when a fluoroscopic image (another model image) from an object inspection device of another model is supplied, the determination unit 36 uses a different model → main model conversion table to obtain a different model, as shown in FIG. 19 (b). After converting the hue of the image into the hue of the main model image, the determination is performed based on the main model learning image stored in the storage unit 34. As described above, since it has a conversion table from another model to the main model, the fluoroscopic images of both the object inspection device 1 as the main model and the object inspection device as the other model are determined based on the main model learning image. can do.

(別機種学習画像の学習動作)
次に、判定部36により、物体の内容物等の判定に用いられる別機種学習画像の学習動作を説明する。図20は、別機種学習画像の学習動作の模式図である。別機種学習画像の学習は、主機種となる物体検査装置1で撮像された撮像画像(主機種画像)の色合いを、上述の主機種→別機種変換テーブルにより、別機種となる物体検査装置の別機種画像の色合いに変換する。画像学習部32は、色合いが変換された主機種画像を、別機種学習画像として記憶部34に記憶する。これにより、物体検査装置1で撮像が行われる毎に、主機種→別機種変換テーブルにより形成された別機種画像が、別機種学習画像として記憶部34に蓄積される。
(Learning operation of another model learning image)
Next, the determination unit 36 will explain the learning operation of the learning image of another model used for determining the contents of the object and the like. FIG. 20 is a schematic diagram of a learning operation of another model learning image. In the learning of the different model learning image, the color tone of the captured image (main model image) captured by the main model object inspection device 1 is changed from the main model to the different model conversion table described above to obtain the different model of the object inspection device. Convert to the shade of another model image. The image learning unit 32 stores the main model image whose hue has been converted in the storage unit 34 as another model learning image. As a result, every time an image is taken by the object inspection device 1, another model image formed by the main model → another model conversion table is stored in the storage unit 34 as another model learning image.

図21は、このように学習した別機種学習画像に基づいて、内容物等の判定を行っている様子を示す模式図である。別機種となる物体検査装置の別機種画像が主機種となる物体検査装置1に供給された場合、判定部36は、図21に示すように、記憶部34に記憶されている別機種学習画像に基づいて判定を行う。別機種学習画像は、主機種→別機種変換テーブルにより、別機種画像用の色合いに変換された画像である。このため、別機種画像の色合いを補正処理することなく、内容物等の判定を行うことができる。従って、高速判定を可能とすることができる。 FIG. 21 is a schematic diagram showing how the contents and the like are determined based on the different model learning image learned in this way. When a different model image of the different model object inspection device is supplied to the main model object inspection device 1, the determination unit 36 uses the different model learning image stored in the storage unit 34 as shown in FIG. 21. Judgment is made based on. The different model learning image is an image converted into a hue for another model image by the main model → different model conversion table. Therefore, it is possible to determine the contents and the like without correcting the hue of the image of another model. Therefore, high-speed determination can be made possible.

(実施の形態の効果)
以上の説明から明らかなように、実施の形態の物体検査システムは、第1の画像フォーマット(RGBフォーマット)の第1の画像情報を、色相H、彩度S及び輝度Lを含む第2の画像フォーマット(HLSフォーマット)の第2の画像情報に変換するフォーマット変換部(HLS変換部41)を有する。
(Effect of embodiment)
As is clear from the above description, the object inspection system of the embodiment uses the first image information of the first image format (RGB format) as the second image including the hue H, the saturation S, and the brightness L. It has a format conversion unit (HLS conversion unit 41) that converts the second image information of the format (HLS format).

また色相Hのヒストグラムを作成する第1のヒストグラム作成部(Hヒストグラム作成部42)と、色相環上の所定の角度毎に(固定幅毎に)色相情報を分割する固定幅分割部43を有する。また、分割した角度毎に、彩度S及び輝度Lのヒストグラムを作成する第2のヒストグラム作成部(SLヒストグラム作成部)44を有する。 Further, it has a first histogram creating unit (H histogram creating unit 42) that creates a histogram of hue H, and a fixed width dividing unit 43 that divides hue information at predetermined angles (for each fixed width) on the hue circle. .. Further, it has a second histogram creating unit (SL histogram creating unit) 44 that creates a histogram of saturation S and brightness L for each divided angle.

また、第1の色合い(主機種画像の色合い)に対応する色相Hのヒストグラム、彩度S及び輝度Lのヒストグラムで示される各画素値の出現率に、第1の色合いとは異なる第2の色合い(別機種画像の色合い)に対応する色相Hのヒストグラム、彩度S及び輝度Lのヒストグラムで示される各画素値の出現率を合わせ込むための、色相H、彩度S及び輝度Lの色補正情報(色補正テーブル)を作成する色補正情報作成部(ランキング化部45、同率順位検出部46及び変換テーブル形成部47)を有する。 Further, the appearance rate of each pixel value shown by the histogram of hue H, the histogram of saturation S and the histogram of brightness L corresponding to the first hue (the hue of the main model image) has a second hue different from that of the first hue. Colors of hue H, saturation S, and brightness L for matching the appearance rates of each pixel value shown in the histogram of hue H, the histogram of saturation S, and the histogram of brightness L corresponding to the hue (the hue of another model image). It has a color correction information creating unit (ranking unit 45, synchronism ranking detecting unit 46, and conversion table forming unit 47) for creating correction information (color correction table).

また、色相H、彩度S及び輝度Lの各色補正情報を、第1の画像フォーマット(RGBフォーマット)に対応する色補正情報に変換する変換部(RGB変換部48)と、第1の色合い(主機種画像の色合い)とは異なる第2の色合いの第1の画像フォーマットの第1の画像情報(別機種画像)を、変換部により変換された各色補正情報に基づいて、第1の色合いの第1の画像情報(主機種画像)に変換する色変換部(色補正部35)を有する。 Further, a conversion unit (RGB conversion unit 48) that converts each color correction information of hue H, saturation S, and brightness L into color correction information corresponding to the first image format (RGB format), and a first hue (RGB conversion unit 48). The first image information (another model image) of the first image format of the first image format having a second hue different from the hue of the main model image) is of the first hue based on each color correction information converted by the conversion unit. It has a color conversion unit (color correction unit 35) that converts the first image information (main model image).

また、第1の色合いに変換された第1の画像情報(別機種画像)を、オブジェクト判定用の第1の画像情報(主機種学習画像)として記憶部に蓄積して記憶する学習部(画像学習部32)を有する。 In addition, a learning unit (image) that stores and stores the first image information (another model image) converted into the first hue as the first image information (main model learning image) for object determination in the storage unit. It has a learning unit 32).

これにより、透視画像に対する各メーカ間の着色処理の差を補正して内容物等の正確な判定結果を得ることが可能な学習モデルを構築できる。また、同じ色合いの色相毎(上述の固定幅毎)に、色彩S及び輝度Lのヒストグラムを作成しているため、色変換後の別機種画像に、存在しない色が出現する不都合を防止できる。このため、内容物等の判定結果の正確性の向上を図ることが可能な学習モデルを構築できる。 As a result, it is possible to construct a learning model that can correct the difference in the coloring process between the manufacturers for the fluoroscopic image and obtain an accurate determination result of the contents and the like. Further, since the histograms of the color S and the brightness L are created for each hue of the same hue (for each of the above-mentioned fixed widths), it is possible to prevent the inconvenience that a non-existent color appears in the image of another model after the color conversion. Therefore, it is possible to construct a learning model capable of improving the accuracy of the determination result of the contents and the like.

また、実施の形態の物体検査システムは、第1のヒストグラム作成部(Hヒストグラム作成部42)及び第2のヒストグラム作成部(SLヒストグラム作成部44)は、各画素値のヒストグラムのうち、画素値の数が所定数以上のヒストグラムの画素値の一部を、左右のヒストグラムに分散させて各前記ヒストグラムを作成する(図13参照)。これにより、正確な変換が可能な色補正テーブルを作成できる。 Further, in the object inspection system of the embodiment, the first histogram creation unit (H histogram creation unit 42) and the second histogram creation unit (SL histogram creation unit 44) have the pixel values of the histograms of the respective pixel values. A part of the pixel values of the histograms in which the number of histograms is equal to or greater than a predetermined number is dispersed in the left and right histograms to create each histogram (see FIG. 13). This makes it possible to create a color correction table capable of accurate conversion.

最後に、上述の実施の形態は、一例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。また、実施の形態及び実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Finally, the embodiments described above are presented as an example and are not intended to limit the scope of the invention. This novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. Further, the embodiment and the modification of the embodiment are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalent scope thereof.

1 物体検査装置
2 解析装置
4 荷物
14 モニタ装置
16 物体検査装置の本体
16a 荷物の入口
16b 荷物の出口
21 X線源
22 ローラコンベア
23 X線検出器
24 画像処理部
31 取得部
32 画像学習部
33 色補正テーブル作成部
34 記憶部
35 色補正部
36 判定部
41 HLS変換部
42 Hヒストグラム作成部
43 固定幅分割部
44 SLヒストグラム作成部
45 ランキング化部
46 同率順位検出部
47 変換テーブル形成部
48 RGB変換部
1 Object inspection device 2 Analysis device 4 Luggage 14 Monitor device 16 Main body of object inspection device 16a Luggage inlet 16b Luggage outlet 21 X-ray source 22 Roller conveyor 23 X-ray detector 24 Image processing unit 31 Acquisition unit 32 Image learning unit 33 Color correction table creation unit 34 Storage unit 35 Color correction unit 36 Judgment unit 41 HLS conversion unit 42 H histogram creation unit 43 Fixed width division unit 44 SL histogram creation unit 45 Ranking unit 46 Equal rate rank detection unit 47 Conversion table formation unit 48 RGB Converter

Claims (4)

第1の画像フォーマットの第1の画像情報を、色相情報、彩度情報及び輝度情報を含む第2の画像フォーマットの第2の画像情報に変換するフォーマット変換部と、
色相環上の所定の角度毎に前記色相情報を分割し、分割した角度毎に、前記色相情報、前記彩度情報及び前記輝度情報のヒストグラムを作成するヒストグラム作成部と、
第1の色合いに対応する前記色相情報、前記彩度情報及び前記輝度情報のヒストグラムで示される各画素値の出現率に、前記第1の色合いとは異なる第2の色合いに対応する前記色相情報、前記彩度情報及び前記輝度情報のヒストグラムで示される各画素値の出現率を合わせ込むための、前記色相情報、前記彩度情報及び前記輝度情報の色補正情報を作成する色補正情報作成部と、
前記色相情報、前記彩度情報及び前記輝度情報の各前記色補正情報を、前記第1の画像フォーマットに対応する色補正情報に変換する変換部と、
前記第1の色合いとは異なる第2の色合いの前記第1の画像フォーマットの第1の画像情報を、前記変換部により変換された各前記色補正情報に基づいて、前記第1の色合いの前記第1の画像情報に変換する色変換部と、
前記第1の色合いに変換された前記第1の画像情報を、オブジェクト判定用の前記第1の画像情報として記憶部に蓄積して記憶する学習部と
を有することを特徴とする学習モデルの構築装置。
A format conversion unit that converts the first image information of the first image format into the second image information of the second image format including hue information, saturation information, and luminance information.
A histogram creation unit that divides the hue information for each predetermined angle on the hue circle and creates a histogram of the hue information, the saturation information, and the luminance information for each divided angle.
The hue information corresponding to the first hue, the saturation information, and the appearance rate of each pixel value shown by the histogram of the brightness information, and the hue information corresponding to the second hue different from the first hue. , A color correction information creation unit that creates color correction information of the hue information, the saturation information, and the brightness information for matching the appearance rates of each pixel value shown by the saturation information and the histogram of the brightness information. When,
A conversion unit that converts each of the hue information, the saturation information, and the color correction information of the brightness information into color correction information corresponding to the first image format.
The first image information of the first image format having a second hue different from the first hue is subjected to the first image information of the first hue based on the color correction information converted by the conversion unit. A color conversion unit that converts to the first image information,
Construction of a learning model characterized by having a learning unit that stores and stores the first image information converted into the first color as the first image information for object determination in a storage unit. Device.
前記ヒストグラム作成部は、各画素値のヒストグラムのうち、画素値の数が所定数以上のヒストグラムの画素値の一部を、左右のヒストグラムに分散させて各前記ヒストグラムを作成すること
を特徴とする請求項1に記載の学習モデルの構築装置。
The histogram creating unit is characterized in that, among the histograms of each pixel value, a part of the pixel values of the histogram in which the number of pixel values is a predetermined number or more is dispersed in the left and right histograms to create each of the histograms. The device for constructing a learning model according to claim 1.
フォーマット変換部が、第1の画像フォーマットの第1の画像情報を、色相情報、彩度情報及び輝度情報を含む第2の画像フォーマットの第2の画像情報に変換するフォーマット変換ステップと、
ヒストグラム作成部が、色相環上の所定の角度毎に前記色相情報を分割し、分割した角度毎に、前記色相情報、前記彩度情報及び前記輝度情報のヒストグラムを作成するヒストグラム作成ステップと、
色補正情報作成部が、第1の色合いに対応する前記色相情報、前記彩度情報及び前記輝度情報のヒストグラムで示される各画素値の出現率に、前記第1の色合いとは異なる第2の色合いに対応する前記色相情報、前記彩度情報及び前記輝度情報のヒストグラムで示される各画素値の出現率を合わせ込むための、前記色相情報、前記彩度情報及び前記輝度情報の色補正情報を作成する色補正情報作成ステップと、
変換部が、前記色相情報、前記彩度情報及び前記輝度情報の各前記色補正情報を、前記第1の画像フォーマットに対応する色補正情報に変換する変換ステップと、
色変換部が、前記第1の色合いとは異なる第2の色合いの前記第1の画像フォーマットの第1の画像情報を、前記変換部により変換された各前記色補正情報に基づいて、前記第1の色合いの前記第1の画像情報に変換する色変換ステップと、
学習部が、前記第1の色合いに変換された前記第1の画像情報を、オブジェクト判定用の前記第1の画像情報として記憶部に蓄積して記憶する学習ステップと、
を有することを特徴とする学習モデルの構築方法。
A format conversion step in which the format conversion unit converts the first image information of the first image format into the second image information of the second image format including hue information, saturation information, and luminance information.
A histogram creation step in which the histogram creation unit divides the hue information at a predetermined angle on the hue circle and creates a histogram of the hue information, the saturation information, and the luminance information for each divided angle.
The color correction information creation unit has a second hue that is different from the first hue in the appearance rate of each pixel value shown by the histogram of the hue information, the saturation information, and the brightness information corresponding to the first hue. The hue information, the saturation information, and the color correction information of the brightness information for matching the appearance rate of each pixel value shown in the histogram of the hue information, the saturation information, and the brightness information corresponding to the hue. The color correction information creation step to be created and
A conversion step in which the conversion unit converts each of the hue information, the saturation information, and the color correction information of the luminance information into color correction information corresponding to the first image format.
The color conversion unit uses the first image information of the first image format having a second hue different from the first hue, based on the color correction information converted by the conversion unit. A color conversion step for converting one color to the first image information, and
A learning step in which the learning unit stores and stores the first image information converted into the first hue in the storage unit as the first image information for object determination.
A method of constructing a learning model characterized by having.
コンピュータを、
第1の画像フォーマットの第1の画像情報を、色相情報、彩度情報及び輝度情報を含む第2の画像フォーマットの第2の画像情報に変換するフォーマット変換部と、
色相環上の所定の角度毎に前記色相情報を分割し、分割した角度毎に、前記色相情報、前記彩度情報及び前記輝度情報のヒストグラムを作成するヒストグラム作成部と、
第1の色合いに対応する前記色相情報、前記彩度情報及び前記輝度情報のヒストグラムで示される各画素値の出現率に、前記第1の色合いとは異なる第2の色合いに対応する前記色相情報、前記彩度情報及び前記輝度情報のヒストグラムで示される各画素値の出現率を合わせ込むための、前記色相情報、前記彩度情報及び前記輝度情報の色補正情報を作成する色補正情報作成部と、
前記色相情報、前記彩度情報及び前記輝度情報の各前記色補正情報を、前記第1の画像フォーマットに対応する色補正情報に変換する変換部と、
前記第1の色合いとは異なる第2の色合いの前記第1の画像フォーマットの第1の画像情報を、前記変換部により変換された各前記色補正情報に基づいて、前記第1の色合いの前記第1の画像情報に変換する色変換部と、
前記第1の色合いに変換された前記第1の画像情報を、オブジェクト判定用の前記第1の画像情報として記憶部に蓄積して記憶する学習部として機能させること、
を特徴とする学習モデルの構築プログラム。
Computer,
A format conversion unit that converts the first image information of the first image format into the second image information of the second image format including hue information, saturation information, and luminance information.
A histogram creation unit that divides the hue information for each predetermined angle on the hue circle and creates a histogram of the hue information, the saturation information, and the luminance information for each divided angle.
The hue information corresponding to the first hue, the saturation information, and the appearance rate of each pixel value shown by the histogram of the brightness information, and the hue information corresponding to the second hue different from the first hue. , A color correction information creation unit that creates color correction information of the hue information, the saturation information, and the brightness information for matching the appearance rates of each pixel value shown by the saturation information and the histogram of the brightness information. When,
A conversion unit that converts each of the hue information, the saturation information, and the color correction information of the brightness information into color correction information corresponding to the first image format.
The first image information of the first image format having a second hue different from the first hue is subjected to the first image information of the first hue based on the color correction information converted by the conversion unit. A color conversion unit that converts to the first image information,
To function as a learning unit that stores and stores the first image information converted into the first color as the first image information for object determination in the storage unit.
A learning model construction program featuring.
JP2019237491A 2019-12-26 2019-12-26 Learning model construction device, learning model construction method, and learning model construction program Active JP7314048B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019237491A JP7314048B2 (en) 2019-12-26 2019-12-26 Learning model construction device, learning model construction method, and learning model construction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019237491A JP7314048B2 (en) 2019-12-26 2019-12-26 Learning model construction device, learning model construction method, and learning model construction program

Publications (2)

Publication Number Publication Date
JP2021105577A true JP2021105577A (en) 2021-07-26
JP7314048B2 JP7314048B2 (en) 2023-07-25

Family

ID=76919660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019237491A Active JP7314048B2 (en) 2019-12-26 2019-12-26 Learning model construction device, learning model construction method, and learning model construction program

Country Status (1)

Country Link
JP (1) JP7314048B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0773328A (en) * 1993-09-01 1995-03-17 Fuji Facom Corp Color image processor
JP2010257450A (en) * 2009-03-31 2010-11-11 Sogo Keibi Hosho Co Ltd Device, method, and program for retrieving person
JP2013210844A (en) * 2012-03-30 2013-10-10 Secom Co Ltd Image collation device
US20160189003A1 (en) * 2014-12-30 2016-06-30 Ebay Inc. Similar item detection
JP2016134803A (en) * 2015-01-20 2016-07-25 キヤノン株式会社 Image processor and image processing method
WO2019220825A1 (en) * 2018-05-16 2019-11-21 パナソニック株式会社 Chest x-ray image tone scale conversion method, image tone scale conversion program, image tone scale conversion device, server device, and conversion method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0773328A (en) * 1993-09-01 1995-03-17 Fuji Facom Corp Color image processor
JP2010257450A (en) * 2009-03-31 2010-11-11 Sogo Keibi Hosho Co Ltd Device, method, and program for retrieving person
JP2013210844A (en) * 2012-03-30 2013-10-10 Secom Co Ltd Image collation device
US20160189003A1 (en) * 2014-12-30 2016-06-30 Ebay Inc. Similar item detection
JP2016134803A (en) * 2015-01-20 2016-07-25 キヤノン株式会社 Image processor and image processing method
WO2019220825A1 (en) * 2018-05-16 2019-11-21 パナソニック株式会社 Chest x-ray image tone scale conversion method, image tone scale conversion program, image tone scale conversion device, server device, and conversion method

Also Published As

Publication number Publication date
JP7314048B2 (en) 2023-07-25

Similar Documents

Publication Publication Date Title
Liu et al. CID: IQ–a new image quality database
CN104025562B (en) Spectrum for image-capturing apparatus processing is synthetic
EP1696679A1 (en) Projector color correcting method
JP4883007B2 (en) Image processing apparatus, image processing program, and image processing method
JP2009159580A (en) Apparatus and method for image quality evaluation
KR20050098949A (en) Image processing device, method, and program
EP2375719A1 (en) Color gamut mapping method having one step preserving the lightness of the cusp colors
Wang et al. Measuring perceptual color differences of smartphone photographs
JP5791643B2 (en) Image processing apparatus and image forming apparatus
JP5411433B2 (en) Video classification method, system and storage medium based on video attributes
Fang et al. Colour correction toolbox
JP2021105577A (en) Learning model construction device, learning model construction method, and learning model construction program
JP2021105886A (en) Analyzer, analysis method, analysis program, and object inspection system
JP4859927B2 (en) Method, system, and device for color quality control
JP4375580B2 (en) Image processing apparatus, image processing method, and image processing program
US20230394727A1 (en) Dynamic color adjustment in augmented reality
Shams-Nateri et al. Computer vision techniques for measuring and demonstrating color of textile
JP2002131133A (en) Method for specifying color of image, method for extracting color of image, and image processor
JP2008294969A (en) Video image conversion apparatus, method, and program
JP6192174B2 (en) Image processing apparatus, image processing method, and program
Kumar et al. Grey level to RGB using YCbCr color space Technique
JP2020005136A (en) Image processing apparatus, image processing method, and program
JP2019165398A (en) Image processing apparatus, image processing method and program
KR20180085243A (en) Method and apparatus for of correcting color automatically for color blindness
JP5119075B2 (en) Image processing apparatus, image processing program, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220922

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R150 Certificate of patent or registration of utility model

Ref document number: 7314048

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150