JP7266985B2 - Image processing device, image processing system, image processing method, and image processing program - Google Patents
Image processing device, image processing system, image processing method, and image processing program Download PDFInfo
- Publication number
- JP7266985B2 JP7266985B2 JP2018189662A JP2018189662A JP7266985B2 JP 7266985 B2 JP7266985 B2 JP 7266985B2 JP 2018189662 A JP2018189662 A JP 2018189662A JP 2018189662 A JP2018189662 A JP 2018189662A JP 7266985 B2 JP7266985 B2 JP 7266985B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- sharpening
- sharpened
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title description 3
- 238000000034 method Methods 0.000 claims description 54
- 238000003707 image sharpening Methods 0.000 claims description 48
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 4
- 235000016496 Panda oleosa Nutrition 0.000 description 3
- 240000000220 Panda oleosa Species 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、画像処理装置、画像処理システム、画像処理方法、及び、画像処理プログラムに関する。 The present invention relates to an image processing device, an image processing system, an image processing method, and an image processing program.
近年、劣化画像から鮮明化画像を生成する技術が提案されている。例えば特許文献1に記載の装置では、複数の文字の特徴パターンを複数にクラス分けすることで生成された各クラスの代表パターンを予め記憶する。そして、劣化画像の特徴パターンと各クラスの代表パターンとの類似度を評価し、類似度が最大となるクラスに含まれる特徴パターンを評価の対象とする。また、評価の対象となるグループに含まれる特徴パターンと劣化画像の特徴パターンとの類似度を評価し、類似度が最大となる特徴パターンを特定する。そして、こうして特定した特徴パターンに基づいて、劣化画像で失われている細部の情報までを復元するように鮮明化画像を生成し、文字認識を高精度に行うようにしている。 In recent years, techniques for generating a sharpened image from a degraded image have been proposed. For example, in the device described in Patent Document 1, a representative pattern of each class generated by classifying a plurality of characteristic patterns of a plurality of characters into a plurality of classes is stored in advance. Then, the degree of similarity between the characteristic pattern of the degraded image and the representative pattern of each class is evaluated, and the characteristic pattern included in the class with the maximum degree of similarity is evaluated. Also, the degree of similarity between the feature patterns included in the group to be evaluated and the feature pattern of the degraded image is evaluated, and the feature pattern with the highest degree of similarity is specified. Then, based on the characteristic patterns identified in this way, a sharpened image is generated so as to restore even the detailed information lost in the degraded image, and character recognition is performed with high accuracy.
しかしながら、上記文献に記載の装置では、例えばナンバープレートの画像における一部の画像領域から地名等を認識する場合であっても、劣化画像の全体を鮮明化の対象としているため、処理負荷が増大してしまうという問題があった。 However, in the device described in the above document, for example, even when recognizing a place name from a partial image area in a license plate image, the entire degraded image is targeted for sharpening, so the processing load increases. There was a problem that
本発明は、このような実情に鑑みてなされたものであり、その目的は、劣化画像から鮮明化画像を生成する際の処理負荷を低減することのできる画像処理装置、画像処理システム、画像処理方法、及び、画像処理プログラムを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing apparatus, image processing system, and image processing capable of reducing the processing load when generating a sharpened image from a degraded image. An object of the present invention is to provide a method and an image processing program.
上記課題を解決する画像処理装置は、劣化画像に対して鮮明化の対象となる鮮明化エリアを設定するエリア設定部と、前記鮮明化エリアに対応する属性情報に基づいて鮮明化方式を特定し、特定した鮮明化方式を用いて前記鮮明化エリアを鮮明化した鮮明化画像を生成する画像鮮明化部とを備える。 An image processing apparatus that solves the above problems includes an area setting unit that sets a sharpening area to be sharpened for a degraded image, and a sharpening method that specifies a sharpening method based on attribute information corresponding to the sharpening area. and an image sharpening unit for generating a sharpened image in which the sharpened area is sharpened using the specified sharpening scheme.
上記課題を解決する画像処理方法は、劣化画像に対して鮮明化の対象となる鮮明化エリアを設定するエリア設定処理と、前記鮮明化エリアに対応する属性情報に基づいて鮮明化方式を特定し、特定した鮮明化方式を用いて前記鮮明化エリアを鮮明化した鮮明化画像を生成する画像鮮明化処理とを含む。 An image processing method for solving the above problems includes area setting processing for setting a sharpening area to be sharpened for a degraded image, and specifying a sharpening method based on attribute information corresponding to the sharpening area. and an image sharpening process for generating a sharpened image in which the sharpened area is sharpened using the specified sharpening scheme.
上記課題を解決する画像処理プログラムは、コンピュータに、劣化画像に対して鮮明化の対象となる鮮明化エリアを設定するエリア設定処理と、前記鮮明化エリアに対応する属性情報に基づいて鮮明化方式を特定し、特定した鮮明化方式を用いて前記鮮明化エリアを鮮明化した鮮明化画像を生成する画像鮮明化処理とを実行させる。 An image processing program that solves the above problems provides a computer with an area setting process for setting a sharpening area to be sharpened for a degraded image, and a sharpening method based on attribute information corresponding to the sharpening area. and an image sharpening process for generating a sharpened image in which the sharpened area is sharpened using the specified sharpening method.
上記構成によれば、劣化画像に設定した鮮明化エリアを鮮明化の対象とするため、劣化画像の全体を鮮明化の対象とする場合と比較して、劣化画像から鮮明化画像を生成する際の処理負荷を低減することができる。また、鮮明化エリアに対応する鮮明化方式を用いるため、鮮明化画像を好適に生成することができる。 According to the above configuration, since the sharpening area set in the degraded image is the target of sharpening, compared with the case where the entire degraded image is the target of sharpening, when generating the sharpened image from the degraded image, processing load can be reduced. In addition, since a sharpening method corresponding to the sharpened area is used, a sharpened image can be preferably generated.
上記画像処理装置において、前記属性情報は、前記鮮明化エリアの属性を含むことが好ましい。 In the image processing device described above, it is preferable that the attribute information includes an attribute of the sharpening area.
上記構成によれば、鮮明化エリアに含まれる対象領域を好適に鮮明化することができる。 According to the above configuration, it is possible to preferably sharpen the target region included in the sharpening area.
上記画像処理装置において、前記属性情報は、前記劣化画像における前記鮮明化エリアの位置情報を含むことが好ましい。 In the image processing device described above, it is preferable that the attribute information includes position information of the sharpening area in the degraded image.
上記構成によれば、劣化画像における所定の位置に含まれる対象領域を好適に鮮明化することができる。 According to the above configuration, it is possible to preferably sharpen the target area included in the predetermined position in the degraded image.
上記画像処理装置において、前記エリア設定部は、所定の画素単位で前記鮮明化エリアを調節可能であることが好ましい。 In the image processing apparatus described above, it is preferable that the area setting section can adjust the sharpening area in units of predetermined pixels.
上記構成によれば、鮮明化エリアを細かく調節しつつ、鮮明化画像を生成することができる。 According to the above configuration, it is possible to generate a sharpened image while finely adjusting the sharpened area.
上記画像処理装置において、前記劣化画像および前記鮮明化エリアに対応付けて前記鮮明化画像の表示制御を行う表示制御部をさらに備えることが好ましい。 Preferably, the image processing apparatus further includes a display control unit that controls display of the sharpened image in association with the degraded image and the sharpened area.
上記構成によれば、鮮明化エリアに対応付けて鮮明化画像が把握しやすくなる。 According to the above configuration, it becomes easy to grasp the sharpened image in association with the sharpened area.
上記画像処理装置において、前記表示制御部は、第1の鮮明化エリアを鮮明化した第1の鮮明化画像と、第2の鮮明化エリアを鮮明化した第2の鮮明化画像とを並列して表示することが好ましい。 In the above image processing device, the display control unit parallelizes the first sharpened image obtained by sharpening the first sharpened area and the second sharpened image obtained by sharpening the second sharpened area. It is preferable to display
上記構成によれば、複数の鮮明化エリアに対応する鮮明化画像を把握しやすくなる。 According to the above configuration, it becomes easier to grasp the sharpened images corresponding to the plurality of sharpened areas.
上記画像処理装置において、前記第2の鮮明化エリアは、前記第1の鮮明化エリアに基づき設定されたエリアであることが好ましい。 In the above image processing apparatus, it is preferable that the second sharpening area is an area set based on the first sharpening area.
上記構成によれば、調節前後の鮮明化エリアに対応する鮮明化画像を把握しやすくなる。 According to the above configuration, it becomes easier to grasp the sharpened image corresponding to the sharpened area before and after the adjustment.
上記画像処理装置において、前記表示制御部は、前記画像鮮明化部により前記属性情報に基づいて特定される鮮明化方式が複数であるとき、複数の鮮明化方式の中から少なくとも1つの鮮明化方式の選択を受け付け、受け付けた鮮明化方式に対応する鮮明化画像を表示することが好ましい。 In the above image processing apparatus, when there are a plurality of sharpening methods specified by the image sharpening unit based on the attribute information, the display control unit selects at least one sharpening method from among a plurality of sharpening methods. is preferably received and a sharpened image corresponding to the received sharpening method is displayed.
上記構成によれば、鮮明化エリアに対応する属性情報に基づいて複数の鮮明化方式が特定される場合であっても、ユーザの意図に合致した鮮明化方式に対応する鮮明化画像を把握しやすくなる。 According to the above configuration, even if a plurality of sharpening methods are specified based on the attribute information corresponding to the sharpening area, the sharpened image corresponding to the sharpening method that matches the user's intention can be grasped. easier.
上記画像処理装置において、前記表示制御部は、鮮明化の対象となるエリアを指定するための基準画像を表示制御し、前記エリア設定部は、前記基準画像における鮮明化の対象となるエリアを指定し、指定したエリアに基づいて前記鮮明化エリアを設定することが好ましい。 In the image processing device, the display control unit displays and controls a reference image for specifying an area to be sharpened, and the area setting unit specifies an area to be sharpened in the reference image. and setting the sharpening area based on the specified area.
上記構成によれば、基準画像における鮮明化の対象となるエリアを指定することにより鮮明化エリアが設定されるため、鮮明化エリアを設定する際の操作性を向上することができる。 According to the above configuration, since the sharpening area is set by designating the area to be sharpened in the reference image, it is possible to improve the operability when setting the sharpening area.
上記画像処理装置において、前記画像鮮明化部は、前記属性情報に基づいて特定する鮮明化方式が複数であるとき、複数の鮮明化方式の中から少なくとも1つの鮮明化方式の選択を受け付け、受け付けた鮮明化方式を用いて鮮明化画像を生成することが好ましい。 In the above image processing apparatus, when there are a plurality of sharpening methods specified based on the attribute information, the image sharpening unit accepts selection of at least one sharpening method from among the plurality of sharpening methods, and accepts the selection. It is preferable to generate the sharpened image using a sharpening scheme.
上記構成によれば、鮮明化エリアに対応する属性情報に基づいて複数の鮮明化方式が特定される場合であっても、それらの鮮明化方式の中から選択された鮮明化方式を用いて鮮明化画像が生成されるため、鮮明化画像の生成に要する処理負荷をより一層低減することができる。 According to the above configuration, even when a plurality of sharpening methods are specified based on the attribute information corresponding to the sharpening area, the sharpening method selected from among the sharpening methods is used for sharpening. Since the sharpened image is generated, the processing load required for generating the sharpened image can be further reduced.
上記画像処理装置において、前記エリア設定部は、前記劣化画像に対して鮮明化の対象としない非対象エリアを設定し、前記画像鮮明化部は、前記鮮明化エリアと前記非対象エリアとが重複する領域を、鮮明化の対象から除外して前記鮮明化画像を生成することが好ましい。 In the above image processing device, the area setting unit sets a non-target area not to be sharpened for the degraded image, and the image sharpening unit overlaps the sharpening area and the non-target area. Preferably, the sharpened image is generated by excluding the area to be sharpened from the sharpening target.
上記構成によれば、非対象エリアの設定を通じて鮮明化の対象となるエリアが制限されるため、鮮明化画像の生成に要する処理負荷を低減することができる。 According to the above configuration, since the areas to be sharpened are limited by setting the non-target areas, it is possible to reduce the processing load required to generate the sharpened image.
上記画像処理装置において、前記劣化画像は、ナンバープレートの画像であることが好ましい。 In the image processing device described above, it is preferable that the degraded image is an image of a license plate.
上記構成によれば、ナンバープレートの画像を鮮明化した鮮明化画像を好適に生成することができる。 According to the above configuration, it is possible to preferably generate a sharpened image in which the image of the license plate is sharpened.
上記課題を解決する画像処理システムは、上記構成の画像処理装置と、前記画像処理装置により生成される鮮明化画像を表示する表示部とを備える。 An image processing system for solving the above problems includes the image processing device configured as described above, and a display section for displaying a sharpened image generated by the image processing device.
上記構成によれば、劣化画像から生成された鮮明化画像をユーザに提示することができる。 According to the above configuration, a sharpened image generated from a degraded image can be presented to the user.
(第1の実施の形態)
以下、画像処理システムの第1の実施の形態について図面を参照して説明する。
(First embodiment)
A first embodiment of an image processing system will be described below with reference to the drawings.
本実施の形態の画像処理システムは、屋外に設置されたカメラの撮影画像から、道路を走行している車両のナンバープレートの画像を取得する。ナンバープレートの画像はブレなどにより画質が劣化していることが多いため、こうした劣化画像を鮮明化した鮮明化画像を生成する。鮮明化画像の生成過程では、学習モデルを画像鮮明化部に適用した上で、劣化画像の画像情報を画像鮮明化部に入力し、画像鮮明化部から出力された画像情報を鮮明化画像として取得する。学習モデルは、クラス毎に設定される。クラスとは、文字、数字、記号等を含む。本実施の形態では、クラスは、鮮明化の対象となるナンバープレートの地名を含み、学習モデルは、ナンバープレートの地名毎(例えば、「品川」、「横浜」等)に設定される。また、劣化画像の画像情報は、鮮明化の対象となる地名毎に設定された複数の学習モデルが適用された画像鮮明化部に入力される。また、各々の学習モデルが適用された画像鮮明化部から出力された画像情報を鮮明化の対象に個別に対応する複数の鮮明化画像として取得する。また、劣化画像から生成された複数の鮮明化画像をユーザに表示する。そして、ユーザは、表示された複数の鮮明化画像を視認することにより、ナンバープレートの劣化画像に含まれる地名を判別する。 The image processing system according to the present embodiment acquires an image of a license plate of a vehicle traveling on a road from an image captured by a camera installed outdoors. Since the image quality of the license plate image is often degraded due to blurring or the like, a sharpened image is generated by sharpening such a degraded image. In the process of generating a sharpened image, the learning model is applied to the image sharpening unit, the image information of the degraded image is input to the image sharpening unit, and the image information output from the image sharpening unit is used as the sharpened image. get. A learning model is set for each class. A class includes letters, numbers, symbols, and the like. In this embodiment, the class includes the place name of the license plate to be sharpened, and the learning model is set for each place name of the license plate (for example, "Shinagawa", "Yokohama", etc.). Further, the image information of the degraded image is input to the image sharpening unit to which a plurality of learning models set for each place name to be sharpened are applied. Also, the image information output from the image sharpening unit to which each learning model is applied is acquired as a plurality of sharpened images individually corresponding to the sharpening target. Also, a plurality of sharpened images generated from the degraded image are displayed to the user. Then, the user identifies the place name included in the degraded image of the license plate by visually recognizing the displayed plurality of sharpened images.
図1に示すように、画像処理システム100は、画像処理装置110と、表示部140とを備える。
As shown in FIG. 1 , the
画像処理装置110は、鮮明化画像の生成処理を制御する制御部120と、制御部120が鮮明化画像の生成処理の際に実行する画像処理プログラムを含めた各種のプログラムや当該プログラムの実行の際に制御部120が読み書きする各種のデータを保存する記憶部130とを有するコンピュータである。記憶部130は、不揮発性のメモリであってもよいし、揮発性のメモリであってもよい。そして、制御部120は、記憶部130に保存された画像処理プログラムを実行することにより、画像取得部121、画像抽出部122、エリア設定部123、画像鮮明化部124、信頼度算出部125、及び、表示制御部126として機能する。
The
画像取得部121は、カメラ10により撮影された動画像から画像フレームを取得する。本実施の形態では、カメラ10が屋外に設置されており、道路を走行している車両を含む動画像を撮影し、当該動画像から画像フレームを取得する。画像取得部121は、動画像の撮影時に、当該動画像から画像フレームを取得してもよいし、動画像の録画後に、録画した動画像から画像フレームを取得してもよい。
The
画像抽出部122は、画像取得部121により取得された画像フレームの画素値のデータに基づいて、画像フレームに含まれる車両を識別する。次に、画像抽出部122は、車両のエリアから車両に取り付けられているナンバープレートを指定する。なお、画像抽出部122は、車両のエリアに含まれる画素値のデータに基づいて、車両に取り付けられているナンバープレートを識別してもよい。
The
エリア設定部123は、ユーザが操作部20を通じて選択したナンバープレートのエリアを受け付ける。操作部20は、例えばPC(パーソナル・コンピューター)からなり、表示部140に表示されたナンバープレートの画像からナンバープレートのエリアを選択する。この場合、ナンバープレートのエリアは、地名、かな、数字等を含む。より詳細には、表示部140は、ナンバープレートの基準画像と、画像フレームから識別したナンバープレートの劣化画像とを並列して表示する。ナンバープレートの基準画像は、鮮明化の対象となるエリアを指定するための画像である。そして、操作部20は、ナンバープレートの基準画像から鮮明化の対象となるエリアが選択されると、基準画像から選択されたエリアに対応するナンバープレートの劣化画像のエリアをエリア設定部123に出力する。
The
エリア設定部123は、操作部20から入力されたナンバープレートの劣化画像のエリアを取得し、取得したエリアを鮮明化の対象となるエリア(以下、「鮮明化エリア」という)として設定する。また、エリア設定部123は、ユーザが操作部20を通じて鮮明化エリアを調節した場合、調節後のエリアを新たな鮮明化エリアとして設定する。
The
画像鮮明化部124は、機械学習のモデルの一種である畳み込みニューラルネットワークを適用したオートエンコーダーにより構成されている。画像鮮明化部124は、記憶部130に保存された学習モデル131を取得し、取得した学習モデル131を用いてエリア設定部123により設定された鮮明化エリアを鮮明化する。
The
図2に示す例では、画像抽出部122は、入力画像G0からナンバープレートの領域を抽出する。そして、画像抽出部122は、ナンバープレートの領域に含まれる画素値のデータを劣化画像G1として抽出する。次に、エリア設定部123は、操作部20を通じて受け付けたナンバープレートのエリアを鮮明化エリアS1として設定する。画像鮮明化部124は、クラス毎に設定された学習モデル131が適用されている。図2の画像鮮明化部124の地名は、学習モデル131のクラスを表している。本実施の形態では、クラスは、鮮明化の対象となる地名を示す文字群を1組ずつ含み、学習モデル131は、鮮明化の対象となる地名毎(「品川」、「横浜」、「成田」等)に個別に対応している。また、学習モデル131は、高画質画像とその画像を劣化させた劣化画像G1を教師データとして画像鮮明化部124の学習を行ったときに生成されるパラメータである。学習は、鮮明化の対象となる地名毎に行っておく。各学習モデル131が適用された画像鮮明化部124は、劣化画像G1の鮮明化エリアS1の画像領域G2を鮮明化した鮮明化画像G3を出力する。
In the example shown in FIG. 2, the
信頼度算出部125は、学習モデル131が適用された画像鮮明化部124により変換された鮮明化画像G3の信頼度を算出する。信頼度とは、鮮明化画像の生成過程において鮮明化された画像の尤もらしさを示している。信頼度とは、例えば0~10などの一定の数値範囲に限定される。
The
図3に示す例では、信頼度算出部125は、各地名に対応する学習モデル131が適用された画像鮮明化部124により変換された各鮮明化画像G3と、学習モデル131と同一のクラス(地名)の基準テンプレート132とを比較し、鮮明化画像G3と基準テンプレート132との類似度を評価する。基準テンプレート132は、ナンバープレートのフォントなどの情報を用いて生成される画像である。そして、信頼度算出部125は、基準テンプレート132と鮮明化画像G3との比較により算出される類似度を鮮明化画像G3の信頼度として算出する。
In the example shown in FIG. 3, the
表示制御部126は、表示部140による鮮明化画像の表示を制御する。より詳細には、表示制御部126は、第1の表示処理として、鮮明化エリアの設定画面を表示部140に表示する。
The
図4に示す例では、表示制御部126は、表示部140の表示領域を左右に分割して、第1の表示領域D1及び第2の表示領域D2を設定する。
In the example shown in FIG. 4, the
第1の表示領域D1には、カメラ10により撮影された動画像の画像フレームのうちナンバープレートを示す劣化画像G1と、劣化画像G1における鮮明化エリアS1及び非対象エリアS2とが重ねて表示される。
In the first display area D1, a degraded image G1 representing a license plate in the image frames of the moving image captured by the
第2の表示領域D2には、鮮明化の対象となるナンバープレートの属性を示す選択ボタンF1が表示される。同図に示す例では、ナンバープレートの属性は、地名、分類、かな、一連指定番号を含む。 A selection button F1 indicating the attribute of the license plate to be sharpened is displayed in the second display area D2. In the example shown in the figure, the attributes of the license plate include place name, classification, kana, and serial designation number.
また、第2の表示領域D2には、ナンバープレートの基準画像GSが表示される。ナンバープレートの基準画像GSは、ナンバープレートの属性である地名(「品川」)、分類(「500」)、かな(「あ」)、一連指定番号(「00-00」)の規定位置が定義されている。また、ナンバープレートの基準画像GSには、選択ボタンF1により選択されたナンバープレートの属性に対応する第1の選択枠T1が重ねて表示される。第1の選択枠T1は、劣化画像G1における鮮明化エリアS1と関連付けられている。より詳細には、ナンバープレートの基準画像GSにおける第1の選択枠T1の中心位置の相対座標と、劣化画像G1における鮮明化エリアS1の中心位置の相対座標とが一致している。同図に示す例では、ナンバープレートの属性として「地名」が選択されていることから、ナンバープレートの基準画像GSのうち「地名」に対応する「品川」の画像領域を囲むように第1の選択枠T1が表示される。 A reference image GS of the license plate is displayed in the second display area D2. In the reference image GS of the license plate, the prescribed positions of the place name (“Shinagawa”), classification (“500”), kana (“A”), and serial designation number (“00-00”), which are attributes of the license plate, are defined. It is A first selection frame T1 corresponding to the attribute of the license plate selected by the selection button F1 is superimposed on the reference image GS of the license plate. The first selection frame T1 is associated with the sharpened area S1 in the degraded image G1. More specifically, the relative coordinates of the center position of the first selection frame T1 in the reference image GS of the license plate match the relative coordinates of the center position of the sharpened area S1 in the degraded image G1. In the example shown in the figure, since "place name" is selected as the attribute of the license plate, the first image area is drawn so as to surround the image area of "Shinagawa" corresponding to the "place name" in the reference image GS of the license plate. A selection frame T1 is displayed.
また、ナンバープレートの基準画像GSには、ナンバープレートを車両に取り付けるためのボルトの規定位置が定義されている。また、ナンバープレートの基準画像GSには、ボルトの画像領域を囲むように第2の選択枠T2が重ねて表示される。第2の選択枠T2は、劣化画像G1における非対象エリアS2と関連付けられている。より詳細には、ナンバープレートの基準画像GSにおける第2の選択枠T2の中心位置の相対座標と、劣化画像G1における非対象エリアS2の中心位置の相対座標とが一致している。 Further, in the reference image GS of the license plate, prescribed positions of bolts for attaching the license plate to the vehicle are defined. In addition, a second selection frame T2 is superimposed on the reference image GS of the license plate so as to surround the image area of the bolt. The second selection frame T2 is associated with the non-target area S2 in the degraded image G1. More specifically, the relative coordinates of the center position of the second selection frame T2 in the reference image GS of the license plate match the relative coordinates of the center position of the non-target area S2 in the degraded image G1.
また、第2の表示領域D2には、第1の選択枠T1の位置及び大きさを調節するための調節ボタンF2が表示される。調節ボタンF2は、第1の選択枠T1の調節箇所を選択するための第1の調節ボタンF2Aと、第1の選択枠T1を上下左右に調節するための第2の調節ボタンF2Bとを含む。例えば、第1の調節ボタンF2Aを通じて「左上」を選択した上で、第2の調節ボタンF2Bを通じて「上」を選択すると、第1の選択枠T1の左上隅部の位置が上方に移動する。同図に示す例では、第2の調節ボタンF2Bを通じて第1の選択枠T1の位置座標がナンバープレートの基準画像GSの画素単位で調節される。その結果、劣化画像G1における鮮明化エリアS1の位置座標が画素単位で調節される。 Further, an adjustment button F2 for adjusting the position and size of the first selection frame T1 is displayed in the second display area D2. The adjustment buttons F2 include a first adjustment button F2A for selecting an adjustment portion of the first selection frame T1 and a second adjustment button F2B for adjusting the first selection frame T1 vertically and horizontally. . For example, if "upper left" is selected through the first adjustment button F2A and then "upper" is selected through the second adjustment button F2B, the position of the upper left corner of the first selection frame T1 moves upward. In the example shown in the figure, the position coordinates of the first selection frame T1 are adjusted in pixel units of the reference image GS of the license plate through the second adjustment button F2B. As a result, the position coordinates of the sharpened area S1 in the degraded image G1 are adjusted in units of pixels.
また、表示制御部126は、第1の表示処理に続いて実行される第2の表示処理として、鮮明化画像の出力画面を表示部140に表示する。
In addition, the
図5に示す例では、表示制御部126は、表示部140の表示領域を左右に分割して、第3の表示領域D3及び第4の表示領域D4を設定する。
In the example shown in FIG. 5, the
第3の表示領域D3には、カメラ10により撮影された動画像の画像フレームのうちナンバープレートを示す劣化画像G1と、劣化画像G1における鮮明化エリアS1及び非対象エリアS2とが重ねて表示される。また、第3の表示領域D3には、劣化画像G1における鮮明化エリアS1を調節するために調節ボタンF2が劣化画像G1と並列して表示される。調節ボタンF2は、図4に示した調節ボタンF2と同様の機能を有しており、劣化画像G1における鮮明化エリアS1の位置座標を画素単位で調節する際に用いられる。また、第3の表示領域D3には、劣化画像G1における鮮明化エリアS1を鮮明化する際に操作される鮮明化ボタンF3が表示される。同図に示す例では、劣化画像G1における鮮明化エリアS1と非対象エリアS2とが部分的に重なっていることから、劣化画像G1における鮮明化エリアS1から非対象エリアS2を除外した領域が鮮明化の対象となる。
In the third display area D3, a degraded image G1 representing a license plate among the image frames of the moving image captured by the
第4の表示領域D4には、各地名に対応する学習モデル131が適用された画像鮮明化部124により変換された鮮明化画像G3が信頼度SCと対応付けて一覧表示される。同図に示す例では、一覧表示された鮮明化画像G3のうち、「成田」という地名に対応する信頼度が最も高い値を示す。そのため、第3の表示領域D3には、この地名に対応する鮮明化画像G3が劣化画像G1及び信頼度SCと並列して表示される。
In the fourth display area D4, a list of sharpened images G3 converted by the
次に、本実施の形態の画像処理システム100が実行する鮮明化画像の生成処理について、その具体的な処理内容を説明する。
Next, specific processing contents of the sharpened image generation processing executed by the
図6に示すように、この鮮明化画像の生成処理ではまず、画像取得部121は、カメラ10により撮影された動画像の画像フレームを取得する(ステップS10)。そして、画像抽出部122は、先のステップS10において取得した画像フレームから所定のエリア(本実施の形態では、ナンバープレート)を対象領域として抽出する(ステップS11)。続いて、エリア設定部123は、先のステップS11において抽出した対象領域から鮮明化の対象となる鮮明化エリアの属性(本実施の形態では、地名)を操作部20から入力される信号に基づいて選択する(ステップS12)。そして、エリア設定部123は、先のステップS12において選択された鮮明化エリアの属性に関連付けられた劣化画像G1のエリアを鮮明化エリアS1として設定する(ステップS13)。そして次に、エリア設定部123は、鮮明化エリアの属性に対応する学習モデル131が適用された画像鮮明化部124を特定する(ステップS14)。続いて、エリア設定部123は、先のステップS14において特定した画像鮮明化部124に対して鮮明化エリアS1の画像情報を入力する(ステップS15)。そして次に、画像鮮明化部124により変換された鮮明化エリアS1の鮮明化画像G3を取得する(ステップS16)。また、信頼度算出部125は、先のステップS16において取得した鮮明化エリアS1の複数の鮮明化画像G3を各々のクラス(地名)に対応する基準テンプレート132と比較することにより、鮮明化画像G3の信頼度を算出する(ステップS17)。そして、表示制御部126は、先のステップS16において取得した鮮明化エリアS1の鮮明化画像G3を、先のステップS17において算出された信頼度の値に対応付けて表示部140に表示する(ステップS18)。
As shown in FIG. 6, in this sharpened image generation process, first, the
次に、本実施の形態の画像処理システム100の作用について説明する。
Next, the operation of the
従来、ナンバープレートの劣化画像を鮮明化した鮮明化画像を生成する際には、劣化画像の画像全体の画像情報を画像鮮明化部に入力していた。ただし、ナンバープレートにおける所定の属性を視認の対象とする場合には、必ずしもナンバープレートの劣化画像の画像全体を鮮明化することは不要である。なお、ナンバープレートは、属性ごとの位置が規格により定まっている。そのため、ナンバープレートの画像が劣化していたとしても、鮮明化の対象となるナンバープレートの属性の大まかな位置を特定することは可能である。 Conventionally, when generating a sharpened image obtained by sharpening a deteriorated image of a license plate, image information of the entire deteriorated image has been input to an image sharpening unit. However, when a predetermined attribute of the license plate is to be viewed, it is not necessary to sharpen the entire degraded image of the license plate. It should be noted that the position of each attribute of the license plate is determined according to the standard. Therefore, even if the image of the license plate is degraded, it is possible to roughly identify the position of the attribute of the license plate to be sharpened.
そこで、本実施の形態では、ナンバープレートの基準画像GSにおける属性ごとの相対位置と、ナンバープレートの劣化画像G1における属性ごとの相対位置とを予め関連付けておく。相対位置とは、例えば、ナンバープレートの画像の左下隅部を基準とした位置である。また、鮮明化の対象となるナンバープレートの属性が選択されたときには、上述のように関連付けられた情報に基づき、ナンバープレートの基準画像GSとナンバープレートの劣化画像G1との対比により、ナンバープレートの劣化画像G1における選択された属性の相対位置を特定する。そして、鮮明化の対象として特定された属性の位置を鮮明化エリアとして設定する。また、鮮明化の対象として特定された属性に対応する学習モデルを画像鮮明化部に適用する。その後、鮮明化エリアの画像情報を画像鮮明化部に入力することにより、鮮明化画像を生成する。これにより、ナンバープレートの入力画像のうち、鮮明化の対象となるエリアが制限されるため、鮮明化画像の生成の際の処理負荷が低減される。 Therefore, in the present embodiment, the relative position of each attribute in the reference image GS of the license plate and the relative position of each attribute in the degraded image G1 of the license plate are associated in advance. The relative position is, for example, a position based on the lower left corner of the license plate image. Further, when the attribute of the license plate to be sharpened is selected, based on the information associated as described above, the reference image GS of the license plate and the degraded image G1 of the license plate are compared to determine the license plate. Identify the relative position of the selected attribute in the degraded image G1. Then, the position of the attribute identified as the object of sharpening is set as the sharpening area. Also, the learning model corresponding to the attribute specified as the object of sharpening is applied to the image sharpening unit. After that, the sharpened image is generated by inputting the image information of the sharpened area to the image sharpening unit. This limits the area to be sharpened in the input image of the license plate, thereby reducing the processing load when generating the sharpened image.
以上説明したように、上記第1の実施の形態によれば、以下に列挙する効果を得ることができる。 As described above, according to the first embodiment, the following effects can be obtained.
(1)鮮明化エリアS1に対応する属性情報に基づいて学習モデル131を特定し、特定した学習モデル131を適用した画像鮮明化部124を用いて鮮明化エリアS1を鮮明化した鮮明化画像G3を生成する。これにより、劣化画像G1に設定した鮮明化エリアS1を鮮明化の対象とするため、劣化画像の全体を鮮明化の対象とする場合と比較して、劣化画像G1から鮮明化画像G3を生成する際の処理負荷を低減することができる。また、鮮明化エリアS1に対応する学習モデル131を適用した画像鮮明化部124を用いるため、鮮明化画像G3を好適に生成することができる。
(1) A sharpened image G3 obtained by identifying the
(2)鮮明化エリアS1に対応する属性情報は、鮮明化エリアS1の属性を含む。これにより、鮮明化エリアS1に含まれる対象領域を好適に鮮明化することができる。 (2) The attribute information corresponding to the sharpening area S1 includes the attributes of the sharpening area S1. As a result, the target area included in the sharpening area S1 can be suitably sharpened.
(3)エリア設定部123は、所定の画素単位で鮮明化エリアS1を調節する。これにより、鮮明化エリアS1を細かく調節しつつ、鮮明化画像G3を生成することができる。
(3) The
(4)表示制御部126は、基準画像GSを表示し、エリア設定部123は、基準画像GSにおける鮮明化の対象となるエリアを指定し、指定したエリアに基づいて鮮明化エリアS1を設定する。すなわち、基準画像GSにおける鮮明化の対象となるエリアを指定することにより鮮明化エリアS1が設定されるため、鮮明化エリアS1を設定する際の操作性を向上することができる。
(4) The
(5)表示制御部126は、劣化画像G1および鮮明化エリアS1に対応付けて鮮明化画像G3の表示制御を行う。これにより、鮮明化エリアS1に対応付けて鮮明化画像G3が把握しやすくなる。
(5) The
(6)エリア設定部123は、劣化画像G1に対して鮮明化の対象としない非対象エリアS2を設定し、画像鮮明化部124は、鮮明化エリアS1と非対象エリアS2とが重複する領域を、鮮明化の対象から除外して鮮明化画像G3を生成する。これにより、非対象エリアS2の設定を通じて鮮明化の対象となるエリアが制限されるため、鮮明化画像G3の生成に要する処理負荷を低減することができる。
(6) The
(7)劣化画像G1は、ナンバープレートの画像を含む。そのため、ナンバープレートの画像を鮮明化した鮮明化画像G3を好適に生成することができる。 (7) Degraded image G1 includes an image of a license plate. Therefore, the sharpened image G3 in which the license plate image is sharpened can be preferably generated.
(第2の実施の形態)
次に、画像処理システムの第2の実施の形態について図面を参照して説明する。なお、第2の実施の形態は、調節前後の鮮明化エリアを鮮明化した鮮明化画像を一覧表示する点が第1の実施の形態と異なる。したがって、以下の説明においては、第1の実施の形態と相違する構成について主に説明し、第1の実施の形態と同一の又は相当する構成については重複する説明を省略する。
(Second embodiment)
Next, a second embodiment of the image processing system will be described with reference to the drawings. The second embodiment differs from the first embodiment in that a list of sharpened images obtained by sharpening the sharpened areas before and after adjustment is displayed. Therefore, in the following description, the configuration different from that of the first embodiment will be mainly described, and redundant description of the configuration that is the same as or corresponding to that of the first embodiment will be omitted.
本実施の形態の画像処理システムでは、図7に示すように、表示制御部126が鮮明化エリアS1の設定画面を表示部140に表示する場合、第1の表示領域D1には、調節ボタンF2の操作を通じて調節される前後の鮮明化エリアS1がナンバープレートの劣化画像G1に重ねて表示される。なお、調節後の鮮明化エリアS1は、鮮明化ボタンF3の操作を通じて鮮明化エリアを第1の鮮明化エリアS1Aとして一旦確定させた後に、調節ボタンF2の操作を通じて第1の鮮明化エリアS1Aの位置座標を画素単位で調節した上で鮮明化ボタンF3を再び操作することで第2の鮮明化エリアS1Bとして決定される。
In the image processing system of the present embodiment, as shown in FIG. 7, when the
また、本実施の形態の画像処理システム100では、図8に示すように、表示制御部126が鮮明化画像G3の表示画面を表示部140に表示する場合、第3の表示領域D3には、調節ボタンF2の操作を通じて調節される前後の鮮明化エリアS1A,S1Bがナンバープレートの劣化画像G1に重ねて表示される。また、調節後の鮮明化エリアS1Bは、調節ボタンF2の操作を通じて繰り返し調節することが可能である。第4の表示領域D4には、調節ボタンF2の操作を通じて鮮明化エリアS1Aが調節されつつ鮮明化ボタンF3が操作されるごとに、調節後の鮮明化エリアS1Bを鮮明化した鮮明化画像G3Bが表示される。また、第4の表示領域D4には、各地名に対応する学習モデル131が適用された画像鮮明化部124により変換された鮮明化画像G3Bが信頼度SCBと対応付けて一覧表示される。同図に示す例では、一覧表示された鮮明化画像G3Bのうち、「成田」という地名に対応する信頼度が最も高い値を示す。そのため、第3の表示領域D3には、この地名に対応する鮮明化画像G3Bが劣化画像G1の鮮明化エリアS1B及び信頼度SCAと並列して表示される。なお、第4の表示領域D4には、鮮明化エリアS1が調節されるごとに、最新の鮮明化エリアS1Bを鮮明化した鮮明化画像G3Bの表示に更新される。また、第3の表示領域D3には、鮮明化エリアS1Bが調節されつつ鮮明化画像G3Bが生成されるごとに、生成された鮮明化画像G3Bが鮮明化エリアS1B及び信頼度SCBと対応付けられた状態で追加表示される。同図に示す例では、第3の表示領域D3には、調整前の第1の鮮明化エリアS1Aを鮮明化した第1の鮮明化画像G3Aと、調整後の第2の鮮明化エリアS1Bを鮮明化した第2の鮮明化画像G3Bとが履歴情報として信頼度SCA,SCBとともに上下に並列して表示される。
Further, in the
次に、本実施の形態の画像処理システム100が実行する鮮明化画像の生成処理について、その具体的な処理内容を説明する。
Next, specific processing contents of the sharpened image generation processing executed by the
図9に示すように、この鮮明化画像G3A,G3Bの生成処理ではまず、画像取得部121は、カメラ10により撮影された動画像の画像フレームを取得する(ステップS20)。そして、画像抽出部122は、先のステップS20において取得した画像フレームから所定のエリア(本実施の形態では、ナンバープレート)を対象領域として抽出する(ステップS21)。続いて、エリア設定部123は、先のステップS21において抽出した対象領域から鮮明化の対象となる鮮明化エリアの属性(本実施の形態では、地名)を操作者の操作により操作部20から入力される信号に基づいて選択する(ステップS22)。そして、エリア設定部123は、先のステップS22において選択された鮮明化エリアの属性に関連付けられた劣化画像G1のエリアを鮮明化エリアS1Aとして設定する(ステップS23)。そして次に、エリア設定部123は、鮮明化エリアの属性に対応する学習モデル131が適用された画像鮮明化部124を特定する(ステップS24)。続いて、エリア設定部123は、先のステップS24において特定した画像鮮明化部124に対して鮮明化エリアS1の画像情報を入力する(ステップS25)。続いて、エリア設定部123は、先のステップS24において特定した画像鮮明化部124に対して鮮明化エリアS1の画像情報を入力する(ステップS25)。そして次に、画像鮮明化部124により変換された鮮明化エリアS1の鮮明化画像G3Aを取得する(ステップS26)。また、信頼度算出部125は、先のステップS26において取得した鮮明化エリアS1の鮮明化画像G3Aを各々のクラス(地名)に対応する基準テンプレート132と比較することにより、鮮明化画像G3Aの信頼度を算出する(ステップS27)。続いて、エリア設定部123は、操作部20を通じて入力された信号に基づいて、鮮明化エリアS1Aを調整する(ステップS28)。そして次に、画像鮮明化部124は、調整後の鮮明化エリアS1Bの画像情報を入力する(ステップS29)。続いて、画像鮮明化部124により変換された調整後の鮮明化エリアS1Bの鮮明化画像G3Bを取得する(ステップS30)。そして、信頼度算出部125は、先のステップS30において取得した調整後の鮮明化エリアS1Bの鮮明化画像G3Bを各々のクラス(地名)に対応する基準テンプレート132と比較することにより、鮮明化画像G3Bの信頼度を算出する(ステップS31)。その後、表示制御部126は、調整前後の鮮明化画像G3A,G3Bを信頼度SCA,SCBに対応付けて表示部140に一覧表示する(ステップS32)。
As shown in FIG. 9, in the process of generating the sharpened images G3A and G3B, first, the
次に、本実施の形態の画像処理システム100の作用について説明する。
Next, the operation of the
本実施の形態の画像処理システム100では、第1の鮮明化エリアS1Aを鮮明化した第1の鮮明化画像G3Aと、第2の鮮明化エリアS1Bを鮮明化した第2の鮮明化画像G3Bとを並列して表示する。そのため、複数の鮮明化エリアS1A,S1Bに対応する鮮明化画像G3A,G3Bを並行して確認することができる。また、複数の鮮明化エリアの属性を鮮明化の対象とする場合であっても、各々の属性に対応付けて鮮明化エリアS1A,S1Bを設定することにより、複数の鮮明化エリアの属性を並行して確認することができる。
In the
特に、本実施の形態では、第1の鮮明化エリアS1A及び第2の鮮明化エリアS1Bが共通の鮮明化エリアの属性を対象としており、第1の鮮明化エリアS1Aが調整前の鮮明化エリアS1に相当し、第2の鮮明化エリアS1Bが調整後の鮮明化エリアS1に相当する。そして、鮮明化エリアS1Aを調整するごとに、調整後の鮮明化エリアS1Bを鮮明化した鮮明化画像G3Bを履歴情報として一覧表示する。そのため、調整前後の鮮明化画像G3A,G3Bの画質を比較することが容易となる。そのため、鮮明化エリアS1A,S1Bの調整が鮮明化画像G3A,G3Bの出力結果に及ぼす影響を確認しつつ、鮮明化エリアS1A,S1Bの調整を行うことが可能となる。 In particular, in the present embodiment, the first sharpening area S1A and the second sharpening area S1B are targeted for common sharpening area attributes, and the first sharpening area S1A is the sharpening area before adjustment. S1, and the second sharpened area S1B corresponds to the adjusted sharpened area S1. Then, each time the sharpened area S1A is adjusted, a list of the sharpened image G3B obtained by sharpening the sharpened area S1B after the adjustment is displayed as history information. Therefore, it becomes easy to compare the image quality of the sharpened images G3A and G3B before and after the adjustment. Therefore, it is possible to adjust the sharpened areas S1A and S1B while confirming the influence of the adjustment of the sharpened areas S1A and S1B on the output results of the sharpened images G3A and G3B.
以上説明したように、上記第2の実施の形態によれば、上記第1の実施の形態の効果(1)~(7)に加えて、以下に列挙する効果を得ることができる。 As described above, according to the second embodiment, in addition to the effects (1) to (7) of the first embodiment, the following effects can be obtained.
(8)表示制御部126は、第1の鮮明化エリアS1Aを鮮明化した第1の鮮明化画像G3Aと、第2の鮮明化エリアS1Bを鮮明化した第2の鮮明化画像G3Bとを並列して表示する。そのため、複数の鮮明化エリアS1A,S1Bに対応する鮮明化画像G3A,G3Bを把握しやすくなる。
(8) The
(9)第2の鮮明化エリアS1Bは、第1の鮮明化エリアS1Aを調節したエリアである。そのため、調節前後の鮮明化エリアS1A,S1Bに対応する鮮明化画像G3A,G3Bを把握しやすくなる。 (9) The second sharpening area S1B is an adjusted area of the first sharpening area S1A. Therefore, it becomes easier to grasp the sharpened images G3A and G3B corresponding to the sharpened areas S1A and S1B before and after the adjustment.
(その他の実施の形態)
なお、上記各実施の形態は、以下のような形態にて実施することもできる。
(Other embodiments)
Each of the above embodiments can also be implemented in the following forms.
・上記各実施の形態においては、鮮明化の対象がナンバープレートの地名である場合を例に挙げて説明した。ただし、鮮明化の対象としてはその他にも、ナンバープレートの数字(「0~9」)、記号(「‐(ハイフン)」)であってもよい。また、鮮明化の対象が地名である場合、鮮明化の対象は、必ずしも地名を示す文字群である必要はなく、一文字ずつ鮮明化を行ってもよい。この場合、鮮明化の対象として、ナンバープレートの地名に含まれる文字を適用することも可能となる。 - In each of the above-described embodiments, an example was described in which the target of sharpening was the place name on the license plate. However, other objects to be sharpened may be numbers (“0 to 9”) and symbols (“- (hyphen)”) on license plates. Further, when the target of sharpening is a place name, the target of sharpening does not necessarily have to be a group of characters indicating the place name, and the sharpening may be performed one by one. In this case, it is also possible to apply characters included in the place name of the license plate as objects of sharpening.
・上記第2の実施の形態においては、表示制御部126は、調整前後の鮮明化エリアS1に対応する鮮明化画像G3を並列して表示していた。これに対し、表示制御部126は、調整後の最新の鮮明化エリアS1に対応する鮮明化画像G3を表示してもよい。
- In the above-described second embodiment, the
・上記第2の実施の形態においては、第1の鮮明化エリアS1A及び第2の鮮明化エリアS1Bが共通のナンバープレートの属性を対象としており、第1の鮮明化エリアS1Aが調整前の鮮明化エリアS1に相当し、第2の鮮明化エリアS1Bが調整後の鮮明化エリアS1に相当していた。これに対し、第1の鮮明化エリアS1A及び第2の鮮明化エリアS1Bが互いに異なるナンバープレートの属性を対象としてもよい。 - In the above-described second embodiment, the first sharpening area S1A and the second sharpening area S1B are intended for the common license plate attribute, and the first sharpening area S1A is the sharpness before adjustment. The second sharpened area S1B corresponded to the adjusted sharpened area S1. On the other hand, the first sharpened area S1A and the second sharpened area S1B may target different license plate attributes.
・上記各実施の形態においては、表示制御部126は、鮮明化の対象となる鮮明化エリアの属性に基づいて特定される学習モデル131が複数であるとき、全ての学習モデル131を個別に適用した画像鮮明化部124から生成される鮮明化画像G3,G3A,G3Bを全て表示していた。これに対し、表示制御部126は、鮮明化エリアの属性に基づいて特定される複数の学習モデル131の中から操作者による少なくとも1つの学習モデル131の選択を受け付け、受け付けた学習モデル131を適用した画像鮮明化部124から生成される鮮明化画像G3,G3A,G3Bを表示してもよい。
- In each of the above embodiments, when there are a plurality of learning
・上記各実施の形態においては、画像鮮明化部124は、鮮明化の対象となる鮮明化エリアの属性に基づいて特定される学習モデル131が複数であるとき、全ての学習モデル131を個別に適用して鮮明化画像G3,G3A,G3Bを生成していた。これに対し、画像鮮明化部124は、鮮明化エリアの属性に基づいて特定される複数の学習モデル131の中から操作者による少なくとも1つの学習モデル131の選択を受け付け、受け付けた学習モデル131を適用して鮮明化画像G3,G3A,G3Bを生成してもよい。
- In each of the above-described embodiments, when there are a plurality of learning
・上記各実施の形態においては、鮮明化エリアS1に対応する属性情報は、鮮明化エリアS1に含まれるナンバープレートの属性であった。これに対し、鮮明化エリアS1に対応する属性情報は、劣化画像G1における鮮明化エリアS1の位置情報であってもよい。この場合、劣化画像G1の基準画像GSからエリアが指定されると、指定されたエリアの位置情報に基づき、劣化画像G1における鮮明化エリアS1の位置が特定される。また、劣化画像G1の基準画像GSにおけるエリアの指定位置が変更されると、変更後のエリアの位置情報を反映するように、劣化画像G1における鮮明化エリアS1の位置が変更される。 - In each of the above embodiments, the attribute information corresponding to the sharpened area S1 was the attribute of the license plate included in the sharpened area S1. On the other hand, the attribute information corresponding to the sharpened area S1 may be position information of the sharpened area S1 in the degraded image G1. In this case, when an area is specified from the reference image GS of the degraded image G1, the position of the sharpened area S1 in the degraded image G1 is specified based on the positional information of the specified area. Further, when the specified position of the area in the reference image GS of the degraded image G1 is changed, the position of the sharpened area S1 in the degraded image G1 is changed so as to reflect the changed position information of the area.
・上記各実施の形態において、教師データを用いて学習した画像鮮明化部124に代えて、ユーザが事前にパラメータを最適化した関数モデルを用いて、劣化画像G1から鮮明化画像G3を生成してもよい。
- In each of the above-described embodiments, the sharpened image G3 is generated from the degraded image G1 using a function model whose parameters are optimized in advance by the user, instead of the
・上記各実施の形態においては、鮮明化の対象がナンバープレートである場合を例に挙げて説明した。ただし、鮮明化の対象はナンバープレートに限らず、例えば、スキャナにより読み取った文書データ等、文字、数字、記号等を含む劣化画像であれば、鮮明化の対象として適用することは可能である。 - In each of the above-described embodiments, the case where the object to be sharpened is the license plate has been described as an example. However, the object to be sharpened is not limited to the license plate. For example, a degraded image including characters, numbers, symbols, etc. such as document data read by a scanner can be applied as the object to be sharpened.
100…画像処理システム、110…画像処理装置、124…画像鮮明化部(鮮明化方式の一例)、126…表示制御部、140…表示部、G1…劣化画像、G3…鮮明化画像、G3A…第1の鮮明化画像、G3B…第2の鮮明化画像、GS…基準画像、S1…鮮明化エリア、S1A…第1の鮮明化エリア、S1B…第2の鮮明化エリア、S2…非対象エリア。
DESCRIPTION OF
Claims (15)
前記鮮明化エリアに対応する前記属性情報に基づいて当該属性情報に対応するクラスの学習モデルが適用される鮮明化方式を複数の鮮明化方式のなかから特定し、特定した鮮明化方式を用いて前記鮮明化エリアを鮮明化した鮮明化画像を生成する画像鮮明化部と
を備える画像処理装置。 A clearing area, which is a partial area of the degraded image extracted from the photographed image and which is to be sharpened, is set in the degraded image based on the attribute information corresponding to the sharpening area. a setting unit;
identifying , from among a plurality of sharpening methods, a sharpening method to which a learning model of a class corresponding to the attribute information is applied based on the attribute information corresponding to the sharpening area, and using the identified sharpening method; An image processing apparatus comprising: an image sharpening unit that generates a sharpened image in which the sharpened area is sharpened.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the attribute information includes attributes of the sharpening area.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the attribute information includes position information of the sharpening area in the degraded image.
請求項1~3のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3, wherein the area setting section can adjust the sharpening area in units of predetermined pixels.
請求項1~4のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, further comprising a display control unit that performs display control of the sharpened image in association with the degraded image and the sharpened area.
請求項5に記載の画像処理装置。 6. The display control unit displays side by side a first sharpened image obtained by sharpening the first sharpened area and a second sharpened image obtained by sharpening the second sharpened area. The image processing device according to .
請求項6に記載の画像処理装置。 The image processing apparatus according to claim 6, wherein the second sharpening area is an area set based on the first sharpening area.
請求項5~7のいずれか一項に記載の画像処理装置。 When there are a plurality of sharpening methods specified by the image sharpening unit based on the attribute information, the display control unit accepts selection of at least one sharpening method from among the plurality of sharpening methods, and accepts the selection. The image processing device according to any one of claims 5 to 7, wherein a sharpened image corresponding to the sharpening method is displayed.
前記エリア設定部は、前記基準画像における鮮明化の対象となるエリアを指定し、指定したエリアに基づいて前記鮮明化エリアを設定する
請求項5~8のいずれか一項に記載の画像処理装置。 The display control unit displays and controls a reference image for specifying an area to be sharpened,
The image processing device according to any one of claims 5 to 8, wherein the area setting unit specifies an area to be sharpened in the reference image, and sets the sharpening area based on the specified area. .
請求項1~9のいずれか一項に記載の画像処理装置。 When there are a plurality of sharpening methods specified based on the attribute information, the image sharpening unit receives selection of at least one sharpening method from among the plurality of sharpening methods, and uses the received sharpening method. The image processing device according to any one of claims 1 to 9, wherein the sharpened image is generated by
前記画像鮮明化部は、前記鮮明化エリアと前記非対象エリアとが重複する領域を、鮮明化の対象から除外して前記鮮明化画像を生成する
請求項1~10のいずれか一項に記載の画像処理装置。 The area setting unit sets a non-target area that is not targeted for sharpening with respect to the degraded image,
The image sharpening unit according to any one of claims 1 to 10, wherein the sharpened image is generated by excluding an area where the sharpened area and the non-target area overlap from a sharpening target. image processing device.
請求項1~11のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 11, wherein the degraded image is an image of a license plate.
前記画像処理装置により生成される鮮明化画像を表示する表示部と
を備える
画像処理システム。 The image processing device according to any one of claims 1 to 12,
An image processing system, comprising: a display unit that displays a sharpened image generated by the image processing device.
前記鮮明化エリアに対応する前記属性情報に基づいて当該属性情報に対応するクラスの学習モデルが適用される鮮明化方式を複数の鮮明化方式のなかから特定し、特定した鮮明化方式を用いて前記鮮明化エリアを鮮明化した鮮明化画像を生成する画像鮮明化処理と
を含む画像処理方法。 A clearing area, which is a partial area of the degraded image extracted from the photographed image and which is to be sharpened, is set in the degraded image based on the attribute information corresponding to the sharpening area. a configuration process;
identifying , from among a plurality of sharpening methods, a sharpening method to which a learning model of a class corresponding to the attribute information is applied based on the attribute information corresponding to the sharpening area, and using the identified sharpening method; and an image sharpening process for generating a sharpened image in which the sharpened area is sharpened.
撮影された画像から抽出された劣化画像の一部のエリアであって鮮明化の対象となる鮮明化エリアを、当該鮮明化エリアに対応する属性情報に基づいて前記劣化画像のなかに設定するエリア設定処理と、
前記鮮明化エリアに対応する前記属性情報に基づいて当該属性情報に対応するクラスの学習モデルが適用される鮮明化方式を複数の鮮明化方式のなかから特定し、特定した鮮明化方式を用いて前記鮮明化エリアを鮮明化した鮮明化画像を生成する画像鮮明化処理と
を実行させる画像処理プログラム。 to the computer,
A clearing area, which is a partial area of the degraded image extracted from the photographed image and which is to be sharpened, is set in the degraded image based on the attribute information corresponding to the sharpening area. a configuration process;
identifying , from among a plurality of sharpening methods, a sharpening method to which a learning model of a class corresponding to the attribute information is applied based on the attribute information corresponding to the sharpening area, and using the identified sharpening method; and an image sharpening process for generating a sharpened image in which the sharpened area is sharpened.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018189662A JP7266985B2 (en) | 2018-10-05 | 2018-10-05 | Image processing device, image processing system, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018189662A JP7266985B2 (en) | 2018-10-05 | 2018-10-05 | Image processing device, image processing system, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020060824A JP2020060824A (en) | 2020-04-16 |
JP7266985B2 true JP7266985B2 (en) | 2023-05-01 |
Family
ID=70219865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018189662A Active JP7266985B2 (en) | 2018-10-05 | 2018-10-05 | Image processing device, image processing system, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7266985B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015232765A (en) | 2014-06-09 | 2015-12-24 | 住友電気工業株式会社 | Image generation device, computer program, and image generation method |
JP2017158067A (en) | 2016-03-02 | 2017-09-07 | 株式会社東芝 | Monitoring system, monitoring method, and monitoring program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3552269B2 (en) * | 1994-04-27 | 2004-08-11 | 株式会社日立製作所 | License plate detection device |
JPH11306283A (en) * | 1998-04-24 | 1999-11-05 | Chuo Spring Co Ltd | Number plate reader |
-
2018
- 2018-10-05 JP JP2018189662A patent/JP7266985B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015232765A (en) | 2014-06-09 | 2015-12-24 | 住友電気工業株式会社 | Image generation device, computer program, and image generation method |
JP2017158067A (en) | 2016-03-02 | 2017-09-07 | 株式会社東芝 | Monitoring system, monitoring method, and monitoring program |
Non-Patent Citations (2)
Title |
---|
Chunhe Song,Blurred License Plate Recognition based on Single Snapshot from Drive Recorder,2015 IEEE International Conference on Communications ,IEEE,2015年09月10日,<URL:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7249460> |
柴田 剛志,学習型超解像を用いた自動車ナンバープレート画像推定,画像電子学会誌,日本,一般社団法人画像電子学会,2015年,第44巻、第2号,p.363-367 |
Also Published As
Publication number | Publication date |
---|---|
JP2020060824A (en) | 2020-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109767419B (en) | Data generating device, data generating method, and storage medium | |
US9736374B2 (en) | Video/vision based access control method and system for parking occupancy determination, which is robust against camera shake | |
CN103198311B (en) | Image based on shooting recognizes the method and device of character | |
WO2018180562A1 (en) | Image processing system and computer program for carrying out image process | |
JP2007052575A (en) | Metadata applying device and metadata applying method | |
US9025905B2 (en) | Image processing apparatus, recording medium storing image processing program, and method of image processing | |
KR102225753B1 (en) | Deep learning-based panorama image quality evaluation method and device | |
JP2018205800A (en) | Image analysis apparatus, neural network apparatus, learning apparatus, image analysis method and program | |
CN111275051A (en) | Character recognition method, character recognition device, computer equipment and computer-readable storage medium | |
US20200364913A1 (en) | User guided segmentation network | |
KR102327060B1 (en) | Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target | |
Fernández-Caballero et al. | Display text segmentation after learning best-fitted OCR binarization parameters | |
JP7266985B2 (en) | Image processing device, image processing system, image processing method, and image processing program | |
JP5201184B2 (en) | Image processing apparatus and program | |
CN112508000B (en) | Method and equipment for generating OCR image recognition model training data | |
WO2019045101A1 (en) | Image processing device and program | |
EP1211639A2 (en) | Method and apparatus for extracting object from video image | |
JP6645076B2 (en) | Image processing device | |
JP2017111500A (en) | Character recognizing apparatus, and program | |
CN113191942A (en) | Method for generating image, method for training human detection model, program, and device | |
JP7291464B2 (en) | Image processing device, image processing system, image processing method, and image processing program | |
CN111626244B (en) | Image recognition method, device, electronic equipment and medium | |
CN110298229B (en) | Video image processing method and device | |
JP6379664B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2019139383A (en) | Character recognition system, character recognition program, character recognition method, character sharpening system, character sharpening program, and character sharpening method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210430 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7266985 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |