JP7266985B2 - Image processing device, image processing system, image processing method, and image processing program - Google Patents

Image processing device, image processing system, image processing method, and image processing program Download PDF

Info

Publication number
JP7266985B2
JP7266985B2 JP2018189662A JP2018189662A JP7266985B2 JP 7266985 B2 JP7266985 B2 JP 7266985B2 JP 2018189662 A JP2018189662 A JP 2018189662A JP 2018189662 A JP2018189662 A JP 2018189662A JP 7266985 B2 JP7266985 B2 JP 7266985B2
Authority
JP
Japan
Prior art keywords
image
area
sharpening
sharpened
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018189662A
Other languages
Japanese (ja)
Other versions
JP2020060824A (en
Inventor
公佑 松本
勝 和氣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2018189662A priority Critical patent/JP7266985B2/en
Publication of JP2020060824A publication Critical patent/JP2020060824A/en
Application granted granted Critical
Publication of JP7266985B2 publication Critical patent/JP7266985B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、画像処理装置、画像処理システム、画像処理方法、及び、画像処理プログラムに関する。 The present invention relates to an image processing device, an image processing system, an image processing method, and an image processing program.

近年、劣化画像から鮮明化画像を生成する技術が提案されている。例えば特許文献1に記載の装置では、複数の文字の特徴パターンを複数にクラス分けすることで生成された各クラスの代表パターンを予め記憶する。そして、劣化画像の特徴パターンと各クラスの代表パターンとの類似度を評価し、類似度が最大となるクラスに含まれる特徴パターンを評価の対象とする。また、評価の対象となるグループに含まれる特徴パターンと劣化画像の特徴パターンとの類似度を評価し、類似度が最大となる特徴パターンを特定する。そして、こうして特定した特徴パターンに基づいて、劣化画像で失われている細部の情報までを復元するように鮮明化画像を生成し、文字認識を高精度に行うようにしている。 In recent years, techniques for generating a sharpened image from a degraded image have been proposed. For example, in the device described in Patent Document 1, a representative pattern of each class generated by classifying a plurality of characteristic patterns of a plurality of characters into a plurality of classes is stored in advance. Then, the degree of similarity between the characteristic pattern of the degraded image and the representative pattern of each class is evaluated, and the characteristic pattern included in the class with the maximum degree of similarity is evaluated. Also, the degree of similarity between the feature patterns included in the group to be evaluated and the feature pattern of the degraded image is evaluated, and the feature pattern with the highest degree of similarity is specified. Then, based on the characteristic patterns identified in this way, a sharpened image is generated so as to restore even the detailed information lost in the degraded image, and character recognition is performed with high accuracy.

特開2008-251029号公報JP 2008-251029 A

しかしながら、上記文献に記載の装置では、例えばナンバープレートの画像における一部の画像領域から地名等を認識する場合であっても、劣化画像の全体を鮮明化の対象としているため、処理負荷が増大してしまうという問題があった。 However, in the device described in the above document, for example, even when recognizing a place name from a partial image area in a license plate image, the entire degraded image is targeted for sharpening, so the processing load increases. There was a problem that

本発明は、このような実情に鑑みてなされたものであり、その目的は、劣化画像から鮮明化画像を生成する際の処理負荷を低減することのできる画像処理装置、画像処理システム、画像処理方法、及び、画像処理プログラムを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing apparatus, image processing system, and image processing capable of reducing the processing load when generating a sharpened image from a degraded image. An object of the present invention is to provide a method and an image processing program.

上記課題を解決する画像処理装置は、劣化画像に対して鮮明化の対象となる鮮明化エリアを設定するエリア設定部と、前記鮮明化エリアに対応する属性情報に基づいて鮮明化方式を特定し、特定した鮮明化方式を用いて前記鮮明化エリアを鮮明化した鮮明化画像を生成する画像鮮明化部とを備える。 An image processing apparatus that solves the above problems includes an area setting unit that sets a sharpening area to be sharpened for a degraded image, and a sharpening method that specifies a sharpening method based on attribute information corresponding to the sharpening area. and an image sharpening unit for generating a sharpened image in which the sharpened area is sharpened using the specified sharpening scheme.

上記課題を解決する画像処理方法は、劣化画像に対して鮮明化の対象となる鮮明化エリアを設定するエリア設定処理と、前記鮮明化エリアに対応する属性情報に基づいて鮮明化方式を特定し、特定した鮮明化方式を用いて前記鮮明化エリアを鮮明化した鮮明化画像を生成する画像鮮明化処理とを含む。 An image processing method for solving the above problems includes area setting processing for setting a sharpening area to be sharpened for a degraded image, and specifying a sharpening method based on attribute information corresponding to the sharpening area. and an image sharpening process for generating a sharpened image in which the sharpened area is sharpened using the specified sharpening scheme.

上記課題を解決する画像処理プログラムは、コンピュータに、劣化画像に対して鮮明化の対象となる鮮明化エリアを設定するエリア設定処理と、前記鮮明化エリアに対応する属性情報に基づいて鮮明化方式を特定し、特定した鮮明化方式を用いて前記鮮明化エリアを鮮明化した鮮明化画像を生成する画像鮮明化処理とを実行させる。 An image processing program that solves the above problems provides a computer with an area setting process for setting a sharpening area to be sharpened for a degraded image, and a sharpening method based on attribute information corresponding to the sharpening area. and an image sharpening process for generating a sharpened image in which the sharpened area is sharpened using the specified sharpening method.

上記構成によれば、劣化画像に設定した鮮明化エリアを鮮明化の対象とするため、劣化画像の全体を鮮明化の対象とする場合と比較して、劣化画像から鮮明化画像を生成する際の処理負荷を低減することができる。また、鮮明化エリアに対応する鮮明化方式を用いるため、鮮明化画像を好適に生成することができる。 According to the above configuration, since the sharpening area set in the degraded image is the target of sharpening, compared with the case where the entire degraded image is the target of sharpening, when generating the sharpened image from the degraded image, processing load can be reduced. In addition, since a sharpening method corresponding to the sharpened area is used, a sharpened image can be preferably generated.

上記画像処理装置において、前記属性情報は、前記鮮明化エリアの属性を含むことが好ましい。 In the image processing device described above, it is preferable that the attribute information includes an attribute of the sharpening area.

上記構成によれば、鮮明化エリアに含まれる対象領域を好適に鮮明化することができる。 According to the above configuration, it is possible to preferably sharpen the target region included in the sharpening area.

上記画像処理装置において、前記属性情報は、前記劣化画像における前記鮮明化エリアの位置情報を含むことが好ましい。 In the image processing device described above, it is preferable that the attribute information includes position information of the sharpening area in the degraded image.

上記構成によれば、劣化画像における所定の位置に含まれる対象領域を好適に鮮明化することができる。 According to the above configuration, it is possible to preferably sharpen the target area included in the predetermined position in the degraded image.

上記画像処理装置において、前記エリア設定部は、所定の画素単位で前記鮮明化エリアを調節可能であることが好ましい。 In the image processing apparatus described above, it is preferable that the area setting section can adjust the sharpening area in units of predetermined pixels.

上記構成によれば、鮮明化エリアを細かく調節しつつ、鮮明化画像を生成することができる。 According to the above configuration, it is possible to generate a sharpened image while finely adjusting the sharpened area.

上記画像処理装置において、前記劣化画像および前記鮮明化エリアに対応付けて前記鮮明化画像の表示制御を行う表示制御部をさらに備えることが好ましい。 Preferably, the image processing apparatus further includes a display control unit that controls display of the sharpened image in association with the degraded image and the sharpened area.

上記構成によれば、鮮明化エリアに対応付けて鮮明化画像が把握しやすくなる。 According to the above configuration, it becomes easy to grasp the sharpened image in association with the sharpened area.

上記画像処理装置において、前記表示制御部は、第1の鮮明化エリアを鮮明化した第1の鮮明化画像と、第2の鮮明化エリアを鮮明化した第2の鮮明化画像とを並列して表示することが好ましい。 In the above image processing device, the display control unit parallelizes the first sharpened image obtained by sharpening the first sharpened area and the second sharpened image obtained by sharpening the second sharpened area. It is preferable to display

上記構成によれば、複数の鮮明化エリアに対応する鮮明化画像を把握しやすくなる。 According to the above configuration, it becomes easier to grasp the sharpened images corresponding to the plurality of sharpened areas.

上記画像処理装置において、前記第2の鮮明化エリアは、前記第1の鮮明化エリアに基づき設定されたエリアであることが好ましい。 In the above image processing apparatus, it is preferable that the second sharpening area is an area set based on the first sharpening area.

上記構成によれば、調節前後の鮮明化エリアに対応する鮮明化画像を把握しやすくなる。 According to the above configuration, it becomes easier to grasp the sharpened image corresponding to the sharpened area before and after the adjustment.

上記画像処理装置において、前記表示制御部は、前記画像鮮明化部により前記属性情報に基づいて特定される鮮明化方式が複数であるとき、複数の鮮明化方式の中から少なくとも1つの鮮明化方式の選択を受け付け、受け付けた鮮明化方式に対応する鮮明化画像を表示することが好ましい。 In the above image processing apparatus, when there are a plurality of sharpening methods specified by the image sharpening unit based on the attribute information, the display control unit selects at least one sharpening method from among a plurality of sharpening methods. is preferably received and a sharpened image corresponding to the received sharpening method is displayed.

上記構成によれば、鮮明化エリアに対応する属性情報に基づいて複数の鮮明化方式が特定される場合であっても、ユーザの意図に合致した鮮明化方式に対応する鮮明化画像を把握しやすくなる。 According to the above configuration, even if a plurality of sharpening methods are specified based on the attribute information corresponding to the sharpening area, the sharpened image corresponding to the sharpening method that matches the user's intention can be grasped. easier.

上記画像処理装置において、前記表示制御部は、鮮明化の対象となるエリアを指定するための基準画像を表示制御し、前記エリア設定部は、前記基準画像における鮮明化の対象となるエリアを指定し、指定したエリアに基づいて前記鮮明化エリアを設定することが好ましい。 In the image processing device, the display control unit displays and controls a reference image for specifying an area to be sharpened, and the area setting unit specifies an area to be sharpened in the reference image. and setting the sharpening area based on the specified area.

上記構成によれば、基準画像における鮮明化の対象となるエリアを指定することにより鮮明化エリアが設定されるため、鮮明化エリアを設定する際の操作性を向上することができる。 According to the above configuration, since the sharpening area is set by designating the area to be sharpened in the reference image, it is possible to improve the operability when setting the sharpening area.

上記画像処理装置において、前記画像鮮明化部は、前記属性情報に基づいて特定する鮮明化方式が複数であるとき、複数の鮮明化方式の中から少なくとも1つの鮮明化方式の選択を受け付け、受け付けた鮮明化方式を用いて鮮明化画像を生成することが好ましい。 In the above image processing apparatus, when there are a plurality of sharpening methods specified based on the attribute information, the image sharpening unit accepts selection of at least one sharpening method from among the plurality of sharpening methods, and accepts the selection. It is preferable to generate the sharpened image using a sharpening scheme.

上記構成によれば、鮮明化エリアに対応する属性情報に基づいて複数の鮮明化方式が特定される場合であっても、それらの鮮明化方式の中から選択された鮮明化方式を用いて鮮明化画像が生成されるため、鮮明化画像の生成に要する処理負荷をより一層低減することができる。 According to the above configuration, even when a plurality of sharpening methods are specified based on the attribute information corresponding to the sharpening area, the sharpening method selected from among the sharpening methods is used for sharpening. Since the sharpened image is generated, the processing load required for generating the sharpened image can be further reduced.

上記画像処理装置において、前記エリア設定部は、前記劣化画像に対して鮮明化の対象としない非対象エリアを設定し、前記画像鮮明化部は、前記鮮明化エリアと前記非対象エリアとが重複する領域を、鮮明化の対象から除外して前記鮮明化画像を生成することが好ましい。 In the above image processing device, the area setting unit sets a non-target area not to be sharpened for the degraded image, and the image sharpening unit overlaps the sharpening area and the non-target area. Preferably, the sharpened image is generated by excluding the area to be sharpened from the sharpening target.

上記構成によれば、非対象エリアの設定を通じて鮮明化の対象となるエリアが制限されるため、鮮明化画像の生成に要する処理負荷を低減することができる。 According to the above configuration, since the areas to be sharpened are limited by setting the non-target areas, it is possible to reduce the processing load required to generate the sharpened image.

上記画像処理装置において、前記劣化画像は、ナンバープレートの画像であることが好ましい。 In the image processing device described above, it is preferable that the degraded image is an image of a license plate.

上記構成によれば、ナンバープレートの画像を鮮明化した鮮明化画像を好適に生成することができる。 According to the above configuration, it is possible to preferably generate a sharpened image in which the image of the license plate is sharpened.

上記課題を解決する画像処理システムは、上記構成の画像処理装置と、前記画像処理装置により生成される鮮明化画像を表示する表示部とを備える。 An image processing system for solving the above problems includes the image processing device configured as described above, and a display section for displaying a sharpened image generated by the image processing device.

上記構成によれば、劣化画像から生成された鮮明化画像をユーザに提示することができる。 According to the above configuration, a sharpened image generated from a degraded image can be presented to the user.

画像処理システムの第1の実施の形態の概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of an image processing system according to a first embodiment; FIG. 劣化画像を鮮明化するときの処理の流れを説明するための模式図。FIG. 4 is a schematic diagram for explaining the flow of processing when sharpening a degraded image; 鮮明化画像の信頼度を評価するときの処理の流れを説明するための模式図。FIG. 4 is a schematic diagram for explaining the flow of processing when evaluating the reliability of a sharpened image; 鮮明化エリアの設定画面の一例を示す模式図。FIG. 4 is a schematic diagram showing an example of a sharpening area setting screen; 鮮明化画像の出力画面の一例を示す模式図。FIG. 4 is a schematic diagram showing an example of an output screen of a sharpened image; 鮮明化画像の生成処理の処理内容を示すフローチャート。4 is a flow chart showing the details of processing for generating a sharpened image. 鮮明化エリアの設定画面の一例を示す模式図。FIG. 4 is a schematic diagram showing an example of a sharpening area setting screen; 鮮明化画像の出力画面の一例を示す模式図。FIG. 4 is a schematic diagram showing an example of an output screen of a sharpened image; 鮮明化画像の生成処理の処理内容を示すフローチャート。4 is a flow chart showing the details of processing for generating a sharpened image.

(第1の実施の形態)
以下、画像処理システムの第1の実施の形態について図面を参照して説明する。
(First embodiment)
A first embodiment of an image processing system will be described below with reference to the drawings.

本実施の形態の画像処理システムは、屋外に設置されたカメラの撮影画像から、道路を走行している車両のナンバープレートの画像を取得する。ナンバープレートの画像はブレなどにより画質が劣化していることが多いため、こうした劣化画像を鮮明化した鮮明化画像を生成する。鮮明化画像の生成過程では、学習モデルを画像鮮明化部に適用した上で、劣化画像の画像情報を画像鮮明化部に入力し、画像鮮明化部から出力された画像情報を鮮明化画像として取得する。学習モデルは、クラス毎に設定される。クラスとは、文字、数字、記号等を含む。本実施の形態では、クラスは、鮮明化の対象となるナンバープレートの地名を含み、学習モデルは、ナンバープレートの地名毎(例えば、「品川」、「横浜」等)に設定される。また、劣化画像の画像情報は、鮮明化の対象となる地名毎に設定された複数の学習モデルが適用された画像鮮明化部に入力される。また、各々の学習モデルが適用された画像鮮明化部から出力された画像情報を鮮明化の対象に個別に対応する複数の鮮明化画像として取得する。また、劣化画像から生成された複数の鮮明化画像をユーザに表示する。そして、ユーザは、表示された複数の鮮明化画像を視認することにより、ナンバープレートの劣化画像に含まれる地名を判別する。 The image processing system according to the present embodiment acquires an image of a license plate of a vehicle traveling on a road from an image captured by a camera installed outdoors. Since the image quality of the license plate image is often degraded due to blurring or the like, a sharpened image is generated by sharpening such a degraded image. In the process of generating a sharpened image, the learning model is applied to the image sharpening unit, the image information of the degraded image is input to the image sharpening unit, and the image information output from the image sharpening unit is used as the sharpened image. get. A learning model is set for each class. A class includes letters, numbers, symbols, and the like. In this embodiment, the class includes the place name of the license plate to be sharpened, and the learning model is set for each place name of the license plate (for example, "Shinagawa", "Yokohama", etc.). Further, the image information of the degraded image is input to the image sharpening unit to which a plurality of learning models set for each place name to be sharpened are applied. Also, the image information output from the image sharpening unit to which each learning model is applied is acquired as a plurality of sharpened images individually corresponding to the sharpening target. Also, a plurality of sharpened images generated from the degraded image are displayed to the user. Then, the user identifies the place name included in the degraded image of the license plate by visually recognizing the displayed plurality of sharpened images.

図1に示すように、画像処理システム100は、画像処理装置110と、表示部140とを備える。 As shown in FIG. 1 , the image processing system 100 includes an image processing device 110 and a display section 140 .

画像処理装置110は、鮮明化画像の生成処理を制御する制御部120と、制御部120が鮮明化画像の生成処理の際に実行する画像処理プログラムを含めた各種のプログラムや当該プログラムの実行の際に制御部120が読み書きする各種のデータを保存する記憶部130とを有するコンピュータである。記憶部130は、不揮発性のメモリであってもよいし、揮発性のメモリであってもよい。そして、制御部120は、記憶部130に保存された画像処理プログラムを実行することにより、画像取得部121、画像抽出部122、エリア設定部123、画像鮮明化部124、信頼度算出部125、及び、表示制御部126として機能する。 The image processing apparatus 110 includes a control unit 120 that controls the process of generating a sharpened image, various programs including an image processing program that the control unit 120 executes when the process of generating a sharpened image, and execution of the program. It is a computer having a storage unit 130 that saves various data read and written by the control unit 120 at that time. Storage unit 130 may be a non-volatile memory or a volatile memory. By executing the image processing program stored in the storage unit 130, the control unit 120 executes the image acquisition unit 121, the image extraction unit 122, the area setting unit 123, the image sharpening unit 124, the reliability calculation unit 125, And it functions as the display control unit 126 .

画像取得部121は、カメラ10により撮影された動画像から画像フレームを取得する。本実施の形態では、カメラ10が屋外に設置されており、道路を走行している車両を含む動画像を撮影し、当該動画像から画像フレームを取得する。画像取得部121は、動画像の撮影時に、当該動画像から画像フレームを取得してもよいし、動画像の録画後に、録画した動画像から画像フレームを取得してもよい。 The image acquisition unit 121 acquires image frames from the moving image captured by the camera 10 . In this embodiment, the camera 10 is installed outdoors, captures a moving image including a vehicle running on a road, and acquires image frames from the moving image. The image acquisition unit 121 may acquire image frames from a moving image when shooting the moving image, or may acquire image frames from the recorded moving image after recording the moving image.

画像抽出部122は、画像取得部121により取得された画像フレームの画素値のデータに基づいて、画像フレームに含まれる車両を識別する。次に、画像抽出部122は、車両のエリアから車両に取り付けられているナンバープレートを指定する。なお、画像抽出部122は、車両のエリアに含まれる画素値のデータに基づいて、車両に取り付けられているナンバープレートを識別してもよい。 The image extraction unit 122 identifies the vehicle included in the image frame based on the pixel value data of the image frame acquired by the image acquisition unit 121 . Next, the image extraction unit 122 designates a license plate attached to the vehicle from the area of the vehicle. Note that the image extraction unit 122 may identify the license plate attached to the vehicle based on the pixel value data included in the area of the vehicle.

エリア設定部123は、ユーザが操作部20を通じて選択したナンバープレートのエリアを受け付ける。操作部20は、例えばPC(パーソナル・コンピューター)からなり、表示部140に表示されたナンバープレートの画像からナンバープレートのエリアを選択する。この場合、ナンバープレートのエリアは、地名、かな、数字等を含む。より詳細には、表示部140は、ナンバープレートの基準画像と、画像フレームから識別したナンバープレートの劣化画像とを並列して表示する。ナンバープレートの基準画像は、鮮明化の対象となるエリアを指定するための画像である。そして、操作部20は、ナンバープレートの基準画像から鮮明化の対象となるエリアが選択されると、基準画像から選択されたエリアに対応するナンバープレートの劣化画像のエリアをエリア設定部123に出力する。 The area setting unit 123 receives the license plate area selected by the user through the operation unit 20 . The operation unit 20 is composed of, for example, a PC (personal computer), and selects a license plate area from the license plate image displayed on the display unit 140 . In this case, the license plate area includes place names, kana, numbers, and the like. More specifically, the display unit 140 displays the reference image of the license plate and the degraded image of the license plate identified from the image frame side by side. The reference image of the license plate is an image for designating an area to be sharpened. Then, when an area to be sharpened is selected from the reference image of the license plate, the operation unit 20 outputs the area of the degraded image of the license plate corresponding to the area selected from the reference image to the area setting unit 123. do.

エリア設定部123は、操作部20から入力されたナンバープレートの劣化画像のエリアを取得し、取得したエリアを鮮明化の対象となるエリア(以下、「鮮明化エリア」という)として設定する。また、エリア設定部123は、ユーザが操作部20を通じて鮮明化エリアを調節した場合、調節後のエリアを新たな鮮明化エリアとして設定する。 The area setting unit 123 acquires the area of the degraded image of the license plate input from the operation unit 20, and sets the acquired area as an area to be sharpened (hereinafter referred to as "sharpening area"). Also, when the user adjusts the sharpening area through the operation unit 20, the area setting unit 123 sets the adjusted area as a new sharpening area.

画像鮮明化部124は、機械学習のモデルの一種である畳み込みニューラルネットワークを適用したオートエンコーダーにより構成されている。画像鮮明化部124は、記憶部130に保存された学習モデル131を取得し、取得した学習モデル131を用いてエリア設定部123により設定された鮮明化エリアを鮮明化する。 The image sharpening unit 124 is configured by an autoencoder to which a convolutional neural network, which is a kind of machine learning model, is applied. The image sharpening unit 124 acquires the learning model 131 stored in the storage unit 130 and sharpens the sharpening area set by the area setting unit 123 using the acquired learning model 131 .

図2に示す例では、画像抽出部122は、入力画像G0からナンバープレートの領域を抽出する。そして、画像抽出部122は、ナンバープレートの領域に含まれる画素値のデータを劣化画像G1として抽出する。次に、エリア設定部123は、操作部20を通じて受け付けたナンバープレートのエリアを鮮明化エリアS1として設定する。画像鮮明化部124は、クラス毎に設定された学習モデル131が適用されている。図2の画像鮮明化部124の地名は、学習モデル131のクラスを表している。本実施の形態では、クラスは、鮮明化の対象となる地名を示す文字群を1組ずつ含み、学習モデル131は、鮮明化の対象となる地名毎(「品川」、「横浜」、「成田」等)に個別に対応している。また、学習モデル131は、高画質画像とその画像を劣化させた劣化画像G1を教師データとして画像鮮明化部124の学習を行ったときに生成されるパラメータである。学習は、鮮明化の対象となる地名毎に行っておく。各学習モデル131が適用された画像鮮明化部124は、劣化画像G1の鮮明化エリアS1の画像領域G2を鮮明化した鮮明化画像G3を出力する。 In the example shown in FIG. 2, the image extraction unit 122 extracts the license plate area from the input image G0. Then, the image extraction unit 122 extracts the pixel value data included in the license plate area as the degraded image G1. Next, the area setting unit 123 sets the license plate area received through the operation unit 20 as the sharpening area S1. A learning model 131 set for each class is applied to the image sharpening unit 124 . The place names of the image sharpening unit 124 in FIG. 2 represent classes of the learning model 131 . In the present embodiment, each class includes a set of character groups indicating a place name to be sharpened, and the learning model 131 is for each place name to be sharpened ("Shinagawa", "Yokohama", "Narita ”, etc.) are handled individually. The learning model 131 is a parameter generated when the image sharpening unit 124 learns using a high-quality image and a degraded image G1 obtained by degrading the image as teaching data. Learning is performed for each place name to be sharpened. The image sharpening unit 124 to which each learning model 131 is applied outputs a sharpened image G3 obtained by sharpening the image region G2 of the sharpened area S1 of the degraded image G1.

信頼度算出部125は、学習モデル131が適用された画像鮮明化部124により変換された鮮明化画像G3の信頼度を算出する。信頼度とは、鮮明化画像の生成過程において鮮明化された画像の尤もらしさを示している。信頼度とは、例えば0~10などの一定の数値範囲に限定される。 The reliability calculation unit 125 calculates the reliability of the sharpened image G3 converted by the image sharpening unit 124 to which the learning model 131 is applied. The reliability indicates the likelihood of the sharpened image in the process of generating the sharpened image. Reliability is limited to a certain numerical range, such as 0-10.

図3に示す例では、信頼度算出部125は、各地名に対応する学習モデル131が適用された画像鮮明化部124により変換された各鮮明化画像G3と、学習モデル131と同一のクラス(地名)の基準テンプレート132とを比較し、鮮明化画像G3と基準テンプレート132との類似度を評価する。基準テンプレート132は、ナンバープレートのフォントなどの情報を用いて生成される画像である。そして、信頼度算出部125は、基準テンプレート132と鮮明化画像G3との比較により算出される類似度を鮮明化画像G3の信頼度として算出する。 In the example shown in FIG. 3, the reliability calculation unit 125 selects each sharpened image G3 converted by the image sharpening unit 124 to which the learning model 131 corresponding to each name is applied, and the same class as the learning model 131 ( Place name) is compared with the reference template 132, and the degree of similarity between the sharpened image G3 and the reference template 132 is evaluated. The reference template 132 is an image generated using information such as the license plate font. Then, the reliability calculation unit 125 calculates the similarity calculated by comparing the reference template 132 and the sharpened image G3 as the reliability of the sharpened image G3.

表示制御部126は、表示部140による鮮明化画像の表示を制御する。より詳細には、表示制御部126は、第1の表示処理として、鮮明化エリアの設定画面を表示部140に表示する。 The display control unit 126 controls display of the sharpened image by the display unit 140 . More specifically, the display control unit 126 displays a sharpening area setting screen on the display unit 140 as the first display process.

図4に示す例では、表示制御部126は、表示部140の表示領域を左右に分割して、第1の表示領域D1及び第2の表示領域D2を設定する。 In the example shown in FIG. 4, the display control unit 126 divides the display area of the display unit 140 into left and right to set a first display area D1 and a second display area D2.

第1の表示領域D1には、カメラ10により撮影された動画像の画像フレームのうちナンバープレートを示す劣化画像G1と、劣化画像G1における鮮明化エリアS1及び非対象エリアS2とが重ねて表示される。 In the first display area D1, a degraded image G1 representing a license plate in the image frames of the moving image captured by the camera 10, and a sharpened area S1 and a non-object area S2 in the degraded image G1 are displayed in an overlapping manner. be.

第2の表示領域D2には、鮮明化の対象となるナンバープレートの属性を示す選択ボタンF1が表示される。同図に示す例では、ナンバープレートの属性は、地名、分類、かな、一連指定番号を含む。 A selection button F1 indicating the attribute of the license plate to be sharpened is displayed in the second display area D2. In the example shown in the figure, the attributes of the license plate include place name, classification, kana, and serial designation number.

また、第2の表示領域D2には、ナンバープレートの基準画像GSが表示される。ナンバープレートの基準画像GSは、ナンバープレートの属性である地名(「品川」)、分類(「500」)、かな(「あ」)、一連指定番号(「00-00」)の規定位置が定義されている。また、ナンバープレートの基準画像GSには、選択ボタンF1により選択されたナンバープレートの属性に対応する第1の選択枠T1が重ねて表示される。第1の選択枠T1は、劣化画像G1における鮮明化エリアS1と関連付けられている。より詳細には、ナンバープレートの基準画像GSにおける第1の選択枠T1の中心位置の相対座標と、劣化画像G1における鮮明化エリアS1の中心位置の相対座標とが一致している。同図に示す例では、ナンバープレートの属性として「地名」が選択されていることから、ナンバープレートの基準画像GSのうち「地名」に対応する「品川」の画像領域を囲むように第1の選択枠T1が表示される。 A reference image GS of the license plate is displayed in the second display area D2. In the reference image GS of the license plate, the prescribed positions of the place name (“Shinagawa”), classification (“500”), kana (“A”), and serial designation number (“00-00”), which are attributes of the license plate, are defined. It is A first selection frame T1 corresponding to the attribute of the license plate selected by the selection button F1 is superimposed on the reference image GS of the license plate. The first selection frame T1 is associated with the sharpened area S1 in the degraded image G1. More specifically, the relative coordinates of the center position of the first selection frame T1 in the reference image GS of the license plate match the relative coordinates of the center position of the sharpened area S1 in the degraded image G1. In the example shown in the figure, since "place name" is selected as the attribute of the license plate, the first image area is drawn so as to surround the image area of "Shinagawa" corresponding to the "place name" in the reference image GS of the license plate. A selection frame T1 is displayed.

また、ナンバープレートの基準画像GSには、ナンバープレートを車両に取り付けるためのボルトの規定位置が定義されている。また、ナンバープレートの基準画像GSには、ボルトの画像領域を囲むように第2の選択枠T2が重ねて表示される。第2の選択枠T2は、劣化画像G1における非対象エリアS2と関連付けられている。より詳細には、ナンバープレートの基準画像GSにおける第2の選択枠T2の中心位置の相対座標と、劣化画像G1における非対象エリアS2の中心位置の相対座標とが一致している。 Further, in the reference image GS of the license plate, prescribed positions of bolts for attaching the license plate to the vehicle are defined. In addition, a second selection frame T2 is superimposed on the reference image GS of the license plate so as to surround the image area of the bolt. The second selection frame T2 is associated with the non-target area S2 in the degraded image G1. More specifically, the relative coordinates of the center position of the second selection frame T2 in the reference image GS of the license plate match the relative coordinates of the center position of the non-target area S2 in the degraded image G1.

また、第2の表示領域D2には、第1の選択枠T1の位置及び大きさを調節するための調節ボタンF2が表示される。調節ボタンF2は、第1の選択枠T1の調節箇所を選択するための第1の調節ボタンF2Aと、第1の選択枠T1を上下左右に調節するための第2の調節ボタンF2Bとを含む。例えば、第1の調節ボタンF2Aを通じて「左上」を選択した上で、第2の調節ボタンF2Bを通じて「上」を選択すると、第1の選択枠T1の左上隅部の位置が上方に移動する。同図に示す例では、第2の調節ボタンF2Bを通じて第1の選択枠T1の位置座標がナンバープレートの基準画像GSの画素単位で調節される。その結果、劣化画像G1における鮮明化エリアS1の位置座標が画素単位で調節される。 Further, an adjustment button F2 for adjusting the position and size of the first selection frame T1 is displayed in the second display area D2. The adjustment buttons F2 include a first adjustment button F2A for selecting an adjustment portion of the first selection frame T1 and a second adjustment button F2B for adjusting the first selection frame T1 vertically and horizontally. . For example, if "upper left" is selected through the first adjustment button F2A and then "upper" is selected through the second adjustment button F2B, the position of the upper left corner of the first selection frame T1 moves upward. In the example shown in the figure, the position coordinates of the first selection frame T1 are adjusted in pixel units of the reference image GS of the license plate through the second adjustment button F2B. As a result, the position coordinates of the sharpened area S1 in the degraded image G1 are adjusted in units of pixels.

また、表示制御部126は、第1の表示処理に続いて実行される第2の表示処理として、鮮明化画像の出力画面を表示部140に表示する。 In addition, the display control unit 126 displays the output screen of the sharpened image on the display unit 140 as the second display process executed subsequent to the first display process.

図5に示す例では、表示制御部126は、表示部140の表示領域を左右に分割して、第3の表示領域D3及び第4の表示領域D4を設定する。 In the example shown in FIG. 5, the display control unit 126 divides the display area of the display unit 140 into left and right to set a third display area D3 and a fourth display area D4.

第3の表示領域D3には、カメラ10により撮影された動画像の画像フレームのうちナンバープレートを示す劣化画像G1と、劣化画像G1における鮮明化エリアS1及び非対象エリアS2とが重ねて表示される。また、第3の表示領域D3には、劣化画像G1における鮮明化エリアS1を調節するために調節ボタンF2が劣化画像G1と並列して表示される。調節ボタンF2は、図4に示した調節ボタンF2と同様の機能を有しており、劣化画像G1における鮮明化エリアS1の位置座標を画素単位で調節する際に用いられる。また、第3の表示領域D3には、劣化画像G1における鮮明化エリアS1を鮮明化する際に操作される鮮明化ボタンF3が表示される。同図に示す例では、劣化画像G1における鮮明化エリアS1と非対象エリアS2とが部分的に重なっていることから、劣化画像G1における鮮明化エリアS1から非対象エリアS2を除外した領域が鮮明化の対象となる。 In the third display area D3, a degraded image G1 representing a license plate among the image frames of the moving image captured by the camera 10, and the sharpened area S1 and the non-object area S2 in the degraded image G1 are displayed in an overlapping manner. be. Further, in the third display area D3, an adjustment button F2 is displayed in parallel with the deteriorated image G1 in order to adjust the sharpening area S1 in the deteriorated image G1. The adjustment button F2 has the same function as the adjustment button F2 shown in FIG. 4, and is used when adjusting the position coordinates of the sharpened area S1 in the degraded image G1 in units of pixels. A sharpening button F3 that is operated when sharpening the sharpening area S1 in the degraded image G1 is displayed in the third display area D3. In the example shown in the figure, since the sharpened area S1 and the non-target area S2 in the degraded image G1 partially overlap, the area obtained by excluding the non-target area S2 from the sharpened area S1 in the degraded image G1 is clear. subject to change.

第4の表示領域D4には、各地名に対応する学習モデル131が適用された画像鮮明化部124により変換された鮮明化画像G3が信頼度SCと対応付けて一覧表示される。同図に示す例では、一覧表示された鮮明化画像G3のうち、「成田」という地名に対応する信頼度が最も高い値を示す。そのため、第3の表示領域D3には、この地名に対応する鮮明化画像G3が劣化画像G1及び信頼度SCと並列して表示される。 In the fourth display area D4, a list of sharpened images G3 converted by the image sharpening unit 124 to which the learning model 131 corresponding to each name is applied is displayed in association with the reliability SC. In the example shown in the figure, the highest reliability value corresponding to the place name "Narita" is shown among the sharpened images G3 displayed as a list. Therefore, in the third display area D3, the sharpened image G3 corresponding to this place name is displayed in parallel with the degraded image G1 and the reliability SC.

次に、本実施の形態の画像処理システム100が実行する鮮明化画像の生成処理について、その具体的な処理内容を説明する。 Next, specific processing contents of the sharpened image generation processing executed by the image processing system 100 of the present embodiment will be described.

図6に示すように、この鮮明化画像の生成処理ではまず、画像取得部121は、カメラ10により撮影された動画像の画像フレームを取得する(ステップS10)。そして、画像抽出部122は、先のステップS10において取得した画像フレームから所定のエリア(本実施の形態では、ナンバープレート)を対象領域として抽出する(ステップS11)。続いて、エリア設定部123は、先のステップS11において抽出した対象領域から鮮明化の対象となる鮮明化エリアの属性(本実施の形態では、地名)を操作部20から入力される信号に基づいて選択する(ステップS12)。そして、エリア設定部123は、先のステップS12において選択された鮮明化エリアの属性に関連付けられた劣化画像G1のエリアを鮮明化エリアS1として設定する(ステップS13)。そして次に、エリア設定部123は、鮮明化エリアの属性に対応する学習モデル131が適用された画像鮮明化部124を特定する(ステップS14)。続いて、エリア設定部123は、先のステップS14において特定した画像鮮明化部124に対して鮮明化エリアS1の画像情報を入力する(ステップS15)。そして次に、画像鮮明化部124により変換された鮮明化エリアS1の鮮明化画像G3を取得する(ステップS16)。また、信頼度算出部125は、先のステップS16において取得した鮮明化エリアS1の複数の鮮明化画像G3を各々のクラス(地名)に対応する基準テンプレート132と比較することにより、鮮明化画像G3の信頼度を算出する(ステップS17)。そして、表示制御部126は、先のステップS16において取得した鮮明化エリアS1の鮮明化画像G3を、先のステップS17において算出された信頼度の値に対応付けて表示部140に表示する(ステップS18)。 As shown in FIG. 6, in this sharpened image generation process, first, the image acquisition unit 121 acquires image frames of a moving image captured by the camera 10 (step S10). Then, the image extraction unit 122 extracts a predetermined area (a license plate in this embodiment) from the image frame acquired in step S10 as a target area (step S11). Subsequently, area setting unit 123 sets the attribute (place name in this embodiment) of the sharpening area to be sharpened from the target region extracted in step S11 based on a signal input from operation unit 20. to select (step S12). Then, the area setting unit 123 sets the area of the degraded image G1 associated with the attribute of the sharpened area selected in step S12 as the sharpened area S1 (step S13). Next, the area setting unit 123 identifies the image sharpening unit 124 to which the learning model 131 corresponding to the attribute of the sharpening area is applied (step S14). Subsequently, the area setting unit 123 inputs the image information of the sharpening area S1 to the image sharpening unit 124 specified in the previous step S14 (step S15). Then, a sharpened image G3 of the sharpened area S1 converted by the image sharpening unit 124 is acquired (step S16). Further, the reliability calculation unit 125 compares the plurality of sharpened images G3 of the sharpened area S1 acquired in the previous step S16 with the reference template 132 corresponding to each class (place name) to obtain the sharpened images G3 is calculated (step S17). Then, the display control unit 126 displays the sharpened image G3 of the sharpened area S1 acquired in the previous step S16 on the display unit 140 in association with the reliability value calculated in the previous step S17 (step S18).

次に、本実施の形態の画像処理システム100の作用について説明する。 Next, the operation of the image processing system 100 of this embodiment will be described.

従来、ナンバープレートの劣化画像を鮮明化した鮮明化画像を生成する際には、劣化画像の画像全体の画像情報を画像鮮明化部に入力していた。ただし、ナンバープレートにおける所定の属性を視認の対象とする場合には、必ずしもナンバープレートの劣化画像の画像全体を鮮明化することは不要である。なお、ナンバープレートは、属性ごとの位置が規格により定まっている。そのため、ナンバープレートの画像が劣化していたとしても、鮮明化の対象となるナンバープレートの属性の大まかな位置を特定することは可能である。 Conventionally, when generating a sharpened image obtained by sharpening a deteriorated image of a license plate, image information of the entire deteriorated image has been input to an image sharpening unit. However, when a predetermined attribute of the license plate is to be viewed, it is not necessary to sharpen the entire degraded image of the license plate. It should be noted that the position of each attribute of the license plate is determined according to the standard. Therefore, even if the image of the license plate is degraded, it is possible to roughly identify the position of the attribute of the license plate to be sharpened.

そこで、本実施の形態では、ナンバープレートの基準画像GSにおける属性ごとの相対位置と、ナンバープレートの劣化画像G1における属性ごとの相対位置とを予め関連付けておく。相対位置とは、例えば、ナンバープレートの画像の左下隅部を基準とした位置である。また、鮮明化の対象となるナンバープレートの属性が選択されたときには、上述のように関連付けられた情報に基づき、ナンバープレートの基準画像GSとナンバープレートの劣化画像G1との対比により、ナンバープレートの劣化画像G1における選択された属性の相対位置を特定する。そして、鮮明化の対象として特定された属性の位置を鮮明化エリアとして設定する。また、鮮明化の対象として特定された属性に対応する学習モデルを画像鮮明化部に適用する。その後、鮮明化エリアの画像情報を画像鮮明化部に入力することにより、鮮明化画像を生成する。これにより、ナンバープレートの入力画像のうち、鮮明化の対象となるエリアが制限されるため、鮮明化画像の生成の際の処理負荷が低減される。 Therefore, in the present embodiment, the relative position of each attribute in the reference image GS of the license plate and the relative position of each attribute in the degraded image G1 of the license plate are associated in advance. The relative position is, for example, a position based on the lower left corner of the license plate image. Further, when the attribute of the license plate to be sharpened is selected, based on the information associated as described above, the reference image GS of the license plate and the degraded image G1 of the license plate are compared to determine the license plate. Identify the relative position of the selected attribute in the degraded image G1. Then, the position of the attribute identified as the object of sharpening is set as the sharpening area. Also, the learning model corresponding to the attribute specified as the object of sharpening is applied to the image sharpening unit. After that, the sharpened image is generated by inputting the image information of the sharpened area to the image sharpening unit. This limits the area to be sharpened in the input image of the license plate, thereby reducing the processing load when generating the sharpened image.

以上説明したように、上記第1の実施の形態によれば、以下に列挙する効果を得ることができる。 As described above, according to the first embodiment, the following effects can be obtained.

(1)鮮明化エリアS1に対応する属性情報に基づいて学習モデル131を特定し、特定した学習モデル131を適用した画像鮮明化部124を用いて鮮明化エリアS1を鮮明化した鮮明化画像G3を生成する。これにより、劣化画像G1に設定した鮮明化エリアS1を鮮明化の対象とするため、劣化画像の全体を鮮明化の対象とする場合と比較して、劣化画像G1から鮮明化画像G3を生成する際の処理負荷を低減することができる。また、鮮明化エリアS1に対応する学習モデル131を適用した画像鮮明化部124を用いるため、鮮明化画像G3を好適に生成することができる。 (1) A sharpened image G3 obtained by identifying the learning model 131 based on the attribute information corresponding to the sharpened area S1 and sharpening the sharpened area S1 using the image sharpening unit 124 to which the identified learning model 131 is applied. to generate As a result, since the sharpening area S1 set in the degraded image G1 is to be sharpened, the sharpened image G3 is generated from the degraded image G1 compared to the case where the entire degraded image is to be sharpened. It is possible to reduce the processing load during processing. Further, since the image sharpening unit 124 to which the learning model 131 corresponding to the sharpened area S1 is applied is used, the sharpened image G3 can be preferably generated.

(2)鮮明化エリアS1に対応する属性情報は、鮮明化エリアS1の属性を含む。これにより、鮮明化エリアS1に含まれる対象領域を好適に鮮明化することができる。 (2) The attribute information corresponding to the sharpening area S1 includes the attributes of the sharpening area S1. As a result, the target area included in the sharpening area S1 can be suitably sharpened.

(3)エリア設定部123は、所定の画素単位で鮮明化エリアS1を調節する。これにより、鮮明化エリアS1を細かく調節しつつ、鮮明化画像G3を生成することができる。 (3) The area setting unit 123 adjusts the sharpening area S1 in units of predetermined pixels. Thereby, the sharpened image G3 can be generated while finely adjusting the sharpened area S1.

(4)表示制御部126は、基準画像GSを表示し、エリア設定部123は、基準画像GSにおける鮮明化の対象となるエリアを指定し、指定したエリアに基づいて鮮明化エリアS1を設定する。すなわち、基準画像GSにおける鮮明化の対象となるエリアを指定することにより鮮明化エリアS1が設定されるため、鮮明化エリアS1を設定する際の操作性を向上することができる。 (4) The display control unit 126 displays the reference image GS, the area setting unit 123 specifies an area to be sharpened in the reference image GS, and sets the sharpening area S1 based on the specified area. . That is, since the sharpening area S1 is set by specifying the area to be sharpened in the reference image GS, the operability in setting the sharpening area S1 can be improved.

(5)表示制御部126は、劣化画像G1および鮮明化エリアS1に対応付けて鮮明化画像G3の表示制御を行う。これにより、鮮明化エリアS1に対応付けて鮮明化画像G3が把握しやすくなる。 (5) The display control unit 126 performs display control of the sharpened image G3 in association with the degraded image G1 and the sharpened area S1. This makes it easier to grasp the sharpened image G3 in association with the sharpened area S1.

(6)エリア設定部123は、劣化画像G1に対して鮮明化の対象としない非対象エリアS2を設定し、画像鮮明化部124は、鮮明化エリアS1と非対象エリアS2とが重複する領域を、鮮明化の対象から除外して鮮明化画像G3を生成する。これにより、非対象エリアS2の設定を通じて鮮明化の対象となるエリアが制限されるため、鮮明化画像G3の生成に要する処理負荷を低減することができる。 (6) The area setting unit 123 sets a non-target area S2 that is not targeted for sharpening with respect to the degraded image G1, and the image sharpening unit 124 sets a region where the sharpening area S1 and the non-target area S2 overlap. is excluded from the object of sharpening to generate a sharpened image G3. As a result, the area to be sharpened is limited by setting the non-target area S2, so the processing load required to generate the sharpened image G3 can be reduced.

(7)劣化画像G1は、ナンバープレートの画像を含む。そのため、ナンバープレートの画像を鮮明化した鮮明化画像G3を好適に生成することができる。 (7) Degraded image G1 includes an image of a license plate. Therefore, the sharpened image G3 in which the license plate image is sharpened can be preferably generated.

(第2の実施の形態)
次に、画像処理システムの第2の実施の形態について図面を参照して説明する。なお、第2の実施の形態は、調節前後の鮮明化エリアを鮮明化した鮮明化画像を一覧表示する点が第1の実施の形態と異なる。したがって、以下の説明においては、第1の実施の形態と相違する構成について主に説明し、第1の実施の形態と同一の又は相当する構成については重複する説明を省略する。
(Second embodiment)
Next, a second embodiment of the image processing system will be described with reference to the drawings. The second embodiment differs from the first embodiment in that a list of sharpened images obtained by sharpening the sharpened areas before and after adjustment is displayed. Therefore, in the following description, the configuration different from that of the first embodiment will be mainly described, and redundant description of the configuration that is the same as or corresponding to that of the first embodiment will be omitted.

本実施の形態の画像処理システムでは、図7に示すように、表示制御部126が鮮明化エリアS1の設定画面を表示部140に表示する場合、第1の表示領域D1には、調節ボタンF2の操作を通じて調節される前後の鮮明化エリアS1がナンバープレートの劣化画像G1に重ねて表示される。なお、調節後の鮮明化エリアS1は、鮮明化ボタンF3の操作を通じて鮮明化エリアを第1の鮮明化エリアS1Aとして一旦確定させた後に、調節ボタンF2の操作を通じて第1の鮮明化エリアS1Aの位置座標を画素単位で調節した上で鮮明化ボタンF3を再び操作することで第2の鮮明化エリアS1Bとして決定される。 In the image processing system of the present embodiment, as shown in FIG. 7, when the display control unit 126 displays the setting screen of the sharpening area S1 on the display unit 140, the adjustment button F2 is displayed in the first display area D1. The sharpened area S1 before and after adjusted through the operation of . is superimposed on the degraded image G1 of the license plate. The adjusted sharpening area S1 is defined as the first sharpening area S1A by operating the adjusting button F2 after the sharpening area S1A is once determined as the first sharpening area S1A by operating the sharpening button F3. By operating the sharpening button F3 again after adjusting the position coordinates in units of pixels, the area is determined as the second sharpening area S1B.

また、本実施の形態の画像処理システム100では、図8に示すように、表示制御部126が鮮明化画像G3の表示画面を表示部140に表示する場合、第3の表示領域D3には、調節ボタンF2の操作を通じて調節される前後の鮮明化エリアS1A,S1Bがナンバープレートの劣化画像G1に重ねて表示される。また、調節後の鮮明化エリアS1Bは、調節ボタンF2の操作を通じて繰り返し調節することが可能である。第4の表示領域D4には、調節ボタンF2の操作を通じて鮮明化エリアS1Aが調節されつつ鮮明化ボタンF3が操作されるごとに、調節後の鮮明化エリアS1Bを鮮明化した鮮明化画像G3Bが表示される。また、第4の表示領域D4には、各地名に対応する学習モデル131が適用された画像鮮明化部124により変換された鮮明化画像G3Bが信頼度SCBと対応付けて一覧表示される。同図に示す例では、一覧表示された鮮明化画像G3Bのうち、「成田」という地名に対応する信頼度が最も高い値を示す。そのため、第3の表示領域D3には、この地名に対応する鮮明化画像G3Bが劣化画像G1の鮮明化エリアS1B及び信頼度SCAと並列して表示される。なお、第4の表示領域D4には、鮮明化エリアS1が調節されるごとに、最新の鮮明化エリアS1Bを鮮明化した鮮明化画像G3Bの表示に更新される。また、第3の表示領域D3には、鮮明化エリアS1Bが調節されつつ鮮明化画像G3Bが生成されるごとに、生成された鮮明化画像G3Bが鮮明化エリアS1B及び信頼度SCBと対応付けられた状態で追加表示される。同図に示す例では、第3の表示領域D3には、調整前の第1の鮮明化エリアS1Aを鮮明化した第1の鮮明化画像G3Aと、調整後の第2の鮮明化エリアS1Bを鮮明化した第2の鮮明化画像G3Bとが履歴情報として信頼度SCA,SCBとともに上下に並列して表示される。 Further, in the image processing system 100 of the present embodiment, as shown in FIG. 8, when the display control unit 126 displays the display screen of the sharpened image G3 on the display unit 140, the third display area D3 includes: The sharpening areas S1A and S1B before and after being adjusted through the operation of the adjustment button F2 are displayed superimposed on the degraded image G1 of the license plate. Also, the adjusted sharpening area S1B can be repeatedly adjusted through the operation of the adjustment button F2. In the fourth display area D4, each time the sharpening button F3 is operated while the sharpening area S1A is adjusted through the operation of the adjustment button F2, a sharpened image G3B obtained by sharpening the adjusted sharpened area S1B is displayed. Is displayed. Sharpened images G3B converted by the image sharpening unit 124 to which the learning model 131 corresponding to each name is applied are displayed in a list in the fourth display area D4 in association with the reliability SCB. In the example shown in the figure, the highest reliability value corresponding to the place name "Narita" is shown among the sharpened images G3B displayed as a list. Therefore, the sharpened image G3B corresponding to this place name is displayed in the third display area D3 in parallel with the sharpened area S1B and reliability SCA of the degraded image G1. In the fourth display area D4, every time the sharpened area S1 is adjusted, the display is updated to the sharpened image G3B obtained by sharpening the latest sharpened area S1B. Further, in the third display area D3, each time the sharpened image G3B is generated while the sharpened area S1B is adjusted, the generated sharpened image G3B is associated with the sharpened area S1B and the reliability SCB. will be displayed additionally. In the example shown in the figure, in the third display area D3, a first sharpened image G3A obtained by sharpening the first sharpened area S1A before adjustment and a second sharpened area S1B after adjustment are displayed. A second sharpened image G3B that has been sharpened is displayed in parallel vertically as history information together with the degrees of reliability SCA and SCB.

次に、本実施の形態の画像処理システム100が実行する鮮明化画像の生成処理について、その具体的な処理内容を説明する。 Next, specific processing contents of the sharpened image generation processing executed by the image processing system 100 of the present embodiment will be described.

図9に示すように、この鮮明化画像G3A,G3Bの生成処理ではまず、画像取得部121は、カメラ10により撮影された動画像の画像フレームを取得する(ステップS20)。そして、画像抽出部122は、先のステップS20において取得した画像フレームから所定のエリア(本実施の形態では、ナンバープレート)を対象領域として抽出する(ステップS21)。続いて、エリア設定部123は、先のステップS21において抽出した対象領域から鮮明化の対象となる鮮明化エリアの属性(本実施の形態では、地名)を操作者の操作により操作部20から入力される信号に基づいて選択する(ステップS22)。そして、エリア設定部123は、先のステップS22において選択された鮮明化エリアの属性に関連付けられた劣化画像G1のエリアを鮮明化エリアS1Aとして設定する(ステップS23)。そして次に、エリア設定部123は、鮮明化エリアの属性に対応する学習モデル131が適用された画像鮮明化部124を特定する(ステップS24)。続いて、エリア設定部123は、先のステップS24において特定した画像鮮明化部124に対して鮮明化エリアS1の画像情報を入力する(ステップS25)。続いて、エリア設定部123は、先のステップS24において特定した画像鮮明化部124に対して鮮明化エリアS1の画像情報を入力する(ステップS25)。そして次に、画像鮮明化部124により変換された鮮明化エリアS1の鮮明化画像G3Aを取得する(ステップS26)。また、信頼度算出部125は、先のステップS26において取得した鮮明化エリアS1の鮮明化画像G3Aを各々のクラス(地名)に対応する基準テンプレート132と比較することにより、鮮明化画像G3Aの信頼度を算出する(ステップS27)。続いて、エリア設定部123は、操作部20を通じて入力された信号に基づいて、鮮明化エリアS1Aを調整する(ステップS28)。そして次に、画像鮮明化部124は、調整後の鮮明化エリアS1Bの画像情報を入力する(ステップS29)。続いて、画像鮮明化部124により変換された調整後の鮮明化エリアS1Bの鮮明化画像G3Bを取得する(ステップS30)。そして、信頼度算出部125は、先のステップS30において取得した調整後の鮮明化エリアS1Bの鮮明化画像G3Bを各々のクラス(地名)に対応する基準テンプレート132と比較することにより、鮮明化画像G3Bの信頼度を算出する(ステップS31)。その後、表示制御部126は、調整前後の鮮明化画像G3A,G3Bを信頼度SCA,SCBに対応付けて表示部140に一覧表示する(ステップS32)。 As shown in FIG. 9, in the process of generating the sharpened images G3A and G3B, first, the image acquisition unit 121 acquires image frames of moving images captured by the camera 10 (step S20). Then, the image extracting unit 122 extracts a predetermined area (a license plate in this embodiment) from the image frame acquired in step S20 as a target area (step S21). Subsequently, the area setting unit 123 inputs the attribute (place name in this embodiment) of the sharpening area to be sharpened from the target region extracted in the previous step S21 from the operation unit 20 by the operation of the operator. is selected based on the received signal (step S22). Then, the area setting unit 123 sets the area of the degraded image G1 associated with the attribute of the sharpening area selected in the previous step S22 as the sharpening area S1A (step S23). Next, the area setting unit 123 identifies the image sharpening unit 124 to which the learning model 131 corresponding to the attribute of the sharpening area is applied (step S24). Subsequently, the area setting unit 123 inputs the image information of the sharpening area S1 to the image sharpening unit 124 specified in the previous step S24 (step S25). Subsequently, the area setting unit 123 inputs the image information of the sharpening area S1 to the image sharpening unit 124 specified in the previous step S24 (step S25). Then, a sharpened image G3A of the sharpened area S1 converted by the image sharpening unit 124 is obtained (step S26). Further, the reliability calculation unit 125 compares the sharpened image G3A of the sharpened area S1 acquired in the previous step S26 with the reference template 132 corresponding to each class (place name) to calculate the reliability of the sharpened image G3A. degree is calculated (step S27). Subsequently, the area setting section 123 adjusts the sharpening area S1A based on the signal input through the operation section 20 (step S28). Then, the image sharpening unit 124 inputs the image information of the adjusted sharpened area S1B (step S29). Subsequently, a sharpened image G3B of the adjusted sharpened area S1B converted by the image sharpener 124 is obtained (step S30). Then, the reliability calculation unit 125 compares the sharpened image G3B of the adjusted sharpened area S1B acquired in the previous step S30 with the reference template 132 corresponding to each class (place name) to obtain a sharpened image. The reliability of G3B is calculated (step S31). After that, the display control unit 126 displays a list of the sharpened images G3A and G3B before and after the adjustment on the display unit 140 in association with the degrees of reliability SCA and SCB (step S32).

次に、本実施の形態の画像処理システム100の作用について説明する。 Next, the operation of the image processing system 100 of this embodiment will be described.

本実施の形態の画像処理システム100では、第1の鮮明化エリアS1Aを鮮明化した第1の鮮明化画像G3Aと、第2の鮮明化エリアS1Bを鮮明化した第2の鮮明化画像G3Bとを並列して表示する。そのため、複数の鮮明化エリアS1A,S1Bに対応する鮮明化画像G3A,G3Bを並行して確認することができる。また、複数の鮮明化エリアの属性を鮮明化の対象とする場合であっても、各々の属性に対応付けて鮮明化エリアS1A,S1Bを設定することにより、複数の鮮明化エリアの属性を並行して確認することができる。 In the image processing system 100 of the present embodiment, a first sharpened image G3A that sharpens the first sharpened area S1A and a second sharpened image G3B that sharpens the second sharpened area S1B. are displayed side by side. Therefore, sharpened images G3A and G3B corresponding to a plurality of sharpened areas S1A and S1B can be confirmed in parallel. Further, even when the attributes of a plurality of sharpening areas are to be sharpened, by setting the sharpening areas S1A and S1B in association with each attribute, the attributes of the plurality of sharpening areas can be viewed in parallel. can be verified by

特に、本実施の形態では、第1の鮮明化エリアS1A及び第2の鮮明化エリアS1Bが共通の鮮明化エリアの属性を対象としており、第1の鮮明化エリアS1Aが調整前の鮮明化エリアS1に相当し、第2の鮮明化エリアS1Bが調整後の鮮明化エリアS1に相当する。そして、鮮明化エリアS1Aを調整するごとに、調整後の鮮明化エリアS1Bを鮮明化した鮮明化画像G3Bを履歴情報として一覧表示する。そのため、調整前後の鮮明化画像G3A,G3Bの画質を比較することが容易となる。そのため、鮮明化エリアS1A,S1Bの調整が鮮明化画像G3A,G3Bの出力結果に及ぼす影響を確認しつつ、鮮明化エリアS1A,S1Bの調整を行うことが可能となる。 In particular, in the present embodiment, the first sharpening area S1A and the second sharpening area S1B are targeted for common sharpening area attributes, and the first sharpening area S1A is the sharpening area before adjustment. S1, and the second sharpened area S1B corresponds to the adjusted sharpened area S1. Then, each time the sharpened area S1A is adjusted, a list of the sharpened image G3B obtained by sharpening the sharpened area S1B after the adjustment is displayed as history information. Therefore, it becomes easy to compare the image quality of the sharpened images G3A and G3B before and after the adjustment. Therefore, it is possible to adjust the sharpened areas S1A and S1B while confirming the influence of the adjustment of the sharpened areas S1A and S1B on the output results of the sharpened images G3A and G3B.

以上説明したように、上記第2の実施の形態によれば、上記第1の実施の形態の効果(1)~(7)に加えて、以下に列挙する効果を得ることができる。 As described above, according to the second embodiment, in addition to the effects (1) to (7) of the first embodiment, the following effects can be obtained.

(8)表示制御部126は、第1の鮮明化エリアS1Aを鮮明化した第1の鮮明化画像G3Aと、第2の鮮明化エリアS1Bを鮮明化した第2の鮮明化画像G3Bとを並列して表示する。そのため、複数の鮮明化エリアS1A,S1Bに対応する鮮明化画像G3A,G3Bを把握しやすくなる。 (8) The display control unit 126 displays in parallel a first sharpened image G3A that sharpens the first sharpened area S1A and a second sharpened image G3B that sharpens the second sharpened area S1B. to display. Therefore, it becomes easier to grasp the sharpened images G3A and G3B corresponding to the plurality of sharpened areas S1A and S1B.

(9)第2の鮮明化エリアS1Bは、第1の鮮明化エリアS1Aを調節したエリアである。そのため、調節前後の鮮明化エリアS1A,S1Bに対応する鮮明化画像G3A,G3Bを把握しやすくなる。 (9) The second sharpening area S1B is an adjusted area of the first sharpening area S1A. Therefore, it becomes easier to grasp the sharpened images G3A and G3B corresponding to the sharpened areas S1A and S1B before and after the adjustment.

(その他の実施の形態)
なお、上記各実施の形態は、以下のような形態にて実施することもできる。
(Other embodiments)
Each of the above embodiments can also be implemented in the following forms.

・上記各実施の形態においては、鮮明化の対象がナンバープレートの地名である場合を例に挙げて説明した。ただし、鮮明化の対象としてはその他にも、ナンバープレートの数字(「0~9」)、記号(「‐(ハイフン)」)であってもよい。また、鮮明化の対象が地名である場合、鮮明化の対象は、必ずしも地名を示す文字群である必要はなく、一文字ずつ鮮明化を行ってもよい。この場合、鮮明化の対象として、ナンバープレートの地名に含まれる文字を適用することも可能となる。 - In each of the above-described embodiments, an example was described in which the target of sharpening was the place name on the license plate. However, other objects to be sharpened may be numbers (“0 to 9”) and symbols (“- (hyphen)”) on license plates. Further, when the target of sharpening is a place name, the target of sharpening does not necessarily have to be a group of characters indicating the place name, and the sharpening may be performed one by one. In this case, it is also possible to apply characters included in the place name of the license plate as objects of sharpening.

・上記第2の実施の形態においては、表示制御部126は、調整前後の鮮明化エリアS1に対応する鮮明化画像G3を並列して表示していた。これに対し、表示制御部126は、調整後の最新の鮮明化エリアS1に対応する鮮明化画像G3を表示してもよい。 - In the above-described second embodiment, the display control unit 126 displays the sharpened images G3 corresponding to the sharpened areas S1 before and after adjustment in parallel. On the other hand, the display control unit 126 may display the sharpened image G3 corresponding to the latest adjusted sharpened area S1.

・上記第2の実施の形態においては、第1の鮮明化エリアS1A及び第2の鮮明化エリアS1Bが共通のナンバープレートの属性を対象としており、第1の鮮明化エリアS1Aが調整前の鮮明化エリアS1に相当し、第2の鮮明化エリアS1Bが調整後の鮮明化エリアS1に相当していた。これに対し、第1の鮮明化エリアS1A及び第2の鮮明化エリアS1Bが互いに異なるナンバープレートの属性を対象としてもよい。 - In the above-described second embodiment, the first sharpening area S1A and the second sharpening area S1B are intended for the common license plate attribute, and the first sharpening area S1A is the sharpness before adjustment. The second sharpened area S1B corresponded to the adjusted sharpened area S1. On the other hand, the first sharpened area S1A and the second sharpened area S1B may target different license plate attributes.

・上記各実施の形態においては、表示制御部126は、鮮明化の対象となる鮮明化エリアの属性に基づいて特定される学習モデル131が複数であるとき、全ての学習モデル131を個別に適用した画像鮮明化部124から生成される鮮明化画像G3,G3A,G3Bを全て表示していた。これに対し、表示制御部126は、鮮明化エリアの属性に基づいて特定される複数の学習モデル131の中から操作者による少なくとも1つの学習モデル131の選択を受け付け、受け付けた学習モデル131を適用した画像鮮明化部124から生成される鮮明化画像G3,G3A,G3Bを表示してもよい。 - In each of the above embodiments, when there are a plurality of learning models 131 specified based on the attributes of the sharpening area to be sharpened, the display control unit 126 applies all the learning models 131 individually. All the sharpened images G3, G3A, and G3B generated by the image sharpening unit 124 are displayed. On the other hand, the display control unit 126 accepts the operator's selection of at least one learning model 131 from a plurality of learning models 131 specified based on the attributes of the sharpening area, and applies the accepted learning model 131. The sharpened images G3, G3A, and G3B generated by the image sharpening unit 124 may be displayed.

・上記各実施の形態においては、画像鮮明化部124は、鮮明化の対象となる鮮明化エリアの属性に基づいて特定される学習モデル131が複数であるとき、全ての学習モデル131を個別に適用して鮮明化画像G3,G3A,G3Bを生成していた。これに対し、画像鮮明化部124は、鮮明化エリアの属性に基づいて特定される複数の学習モデル131の中から操作者による少なくとも1つの学習モデル131の選択を受け付け、受け付けた学習モデル131を適用して鮮明化画像G3,G3A,G3Bを生成してもよい。 - In each of the above-described embodiments, when there are a plurality of learning models 131 specified based on the attributes of the sharpening area to be sharpened, the image sharpening unit 124 separates all the learning models 131 individually. applied to generate sharpened images G3, G3A, G3B. On the other hand, the image sharpening unit 124 accepts the operator's selection of at least one learning model 131 from a plurality of learning models 131 specified based on the attributes of the sharpening area, and selects the accepted learning model 131. may be applied to generate sharpened images G3, G3A, G3B.

・上記各実施の形態においては、鮮明化エリアS1に対応する属性情報は、鮮明化エリアS1に含まれるナンバープレートの属性であった。これに対し、鮮明化エリアS1に対応する属性情報は、劣化画像G1における鮮明化エリアS1の位置情報であってもよい。この場合、劣化画像G1の基準画像GSからエリアが指定されると、指定されたエリアの位置情報に基づき、劣化画像G1における鮮明化エリアS1の位置が特定される。また、劣化画像G1の基準画像GSにおけるエリアの指定位置が変更されると、変更後のエリアの位置情報を反映するように、劣化画像G1における鮮明化エリアS1の位置が変更される。 - In each of the above embodiments, the attribute information corresponding to the sharpened area S1 was the attribute of the license plate included in the sharpened area S1. On the other hand, the attribute information corresponding to the sharpened area S1 may be position information of the sharpened area S1 in the degraded image G1. In this case, when an area is specified from the reference image GS of the degraded image G1, the position of the sharpened area S1 in the degraded image G1 is specified based on the positional information of the specified area. Further, when the specified position of the area in the reference image GS of the degraded image G1 is changed, the position of the sharpened area S1 in the degraded image G1 is changed so as to reflect the changed position information of the area.

・上記各実施の形態において、教師データを用いて学習した画像鮮明化部124に代えて、ユーザが事前にパラメータを最適化した関数モデルを用いて、劣化画像G1から鮮明化画像G3を生成してもよい。 - In each of the above-described embodiments, the sharpened image G3 is generated from the degraded image G1 using a function model whose parameters are optimized in advance by the user, instead of the image sharpening unit 124 that is trained using the teacher data. may

・上記各実施の形態においては、鮮明化の対象がナンバープレートである場合を例に挙げて説明した。ただし、鮮明化の対象はナンバープレートに限らず、例えば、スキャナにより読み取った文書データ等、文字、数字、記号等を含む劣化画像であれば、鮮明化の対象として適用することは可能である。 - In each of the above-described embodiments, the case where the object to be sharpened is the license plate has been described as an example. However, the object to be sharpened is not limited to the license plate. For example, a degraded image including characters, numbers, symbols, etc. such as document data read by a scanner can be applied as the object to be sharpened.

100…画像処理システム、110…画像処理装置、124…画像鮮明化部(鮮明化方式の一例)、126…表示制御部、140…表示部、G1…劣化画像、G3…鮮明化画像、G3A…第1の鮮明化画像、G3B…第2の鮮明化画像、GS…基準画像、S1…鮮明化エリア、S1A…第1の鮮明化エリア、S1B…第2の鮮明化エリア、S2…非対象エリア。 DESCRIPTION OF SYMBOLS 100... Image processing system 110... Image processing apparatus 124... Image sharpening part (an example of sharpening method) 126... Display control part 140... Display part G1... Degraded image G3... Sharpened image G3A... First sharpened image, G3B... Second sharpened image, GS... Reference image, S1... Sharpened area, S1A... First sharpened area, S1B... Second sharpened area, S2... Non-target area .

Claims (15)

撮影された画像から抽出された劣化画像の一部のエリアであって鮮明化の対象となる鮮明化エリアを、当該鮮明化エリアに対応する属性情報に基づいて前記劣化画像のなかに設定するエリア設定部と、
前記鮮明化エリアに対応する前記属性情報に基づいて当該属性情報に対応するクラスの学習モデルが適用される鮮明化方式を複数の鮮明化方式のなかから特定し、特定した鮮明化方式を用いて前記鮮明化エリアを鮮明化した鮮明化画像を生成する画像鮮明化部と
を備える画像処理装置。
A clearing area, which is a partial area of the degraded image extracted from the photographed image and which is to be sharpened, is set in the degraded image based on the attribute information corresponding to the sharpening area. a setting unit;
identifying , from among a plurality of sharpening methods, a sharpening method to which a learning model of a class corresponding to the attribute information is applied based on the attribute information corresponding to the sharpening area, and using the identified sharpening method; An image processing apparatus comprising: an image sharpening unit that generates a sharpened image in which the sharpened area is sharpened.
前記属性情報は、前記鮮明化エリアの属性を含む
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the attribute information includes attributes of the sharpening area.
前記属性情報は、前記劣化画像における前記鮮明化エリアの位置情報を含む
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the attribute information includes position information of the sharpening area in the degraded image.
前記エリア設定部は、所定の画素単位で前記鮮明化エリアを調節可能である
請求項1~3のいずれか一項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 3, wherein the area setting section can adjust the sharpening area in units of predetermined pixels.
前記劣化画像および前記鮮明化エリアに対応付けて前記鮮明化画像の表示制御を行う表示制御部をさらに備える
請求項1~4のいずれか一項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 4, further comprising a display control unit that performs display control of the sharpened image in association with the degraded image and the sharpened area.
前記表示制御部は、第1の鮮明化エリアを鮮明化した第1の鮮明化画像と、第2の鮮明化エリアを鮮明化した第2の鮮明化画像とを並列して表示する
請求項5に記載の画像処理装置。
6. The display control unit displays side by side a first sharpened image obtained by sharpening the first sharpened area and a second sharpened image obtained by sharpening the second sharpened area. The image processing device according to .
前記第2の鮮明化エリアは、前記第1の鮮明化エリアに基づき設定されたエリアである
請求項6に記載の画像処理装置。
The image processing apparatus according to claim 6, wherein the second sharpening area is an area set based on the first sharpening area.
前記表示制御部は、前記画像鮮明化部により前記属性情報に基づいて特定される鮮明化方式が複数であるとき、複数の鮮明化方式の中から少なくとも1つの鮮明化方式の選択を受け付け、受け付けた鮮明化方式に対応する鮮明化画像を表示する
請求項5~7のいずれか一項に記載の画像処理装置。
When there are a plurality of sharpening methods specified by the image sharpening unit based on the attribute information, the display control unit accepts selection of at least one sharpening method from among the plurality of sharpening methods, and accepts the selection. The image processing device according to any one of claims 5 to 7, wherein a sharpened image corresponding to the sharpening method is displayed.
前記表示制御部は、鮮明化の対象となるエリアを指定するための基準画像を表示制御し、
前記エリア設定部は、前記基準画像における鮮明化の対象となるエリアを指定し、指定したエリアに基づいて前記鮮明化エリアを設定する
請求項5~8のいずれか一項に記載の画像処理装置。
The display control unit displays and controls a reference image for specifying an area to be sharpened,
The image processing device according to any one of claims 5 to 8, wherein the area setting unit specifies an area to be sharpened in the reference image, and sets the sharpening area based on the specified area. .
前記画像鮮明化部は、前記属性情報に基づいて特定する鮮明化方式が複数であるとき、複数の鮮明化方式の中から少なくとも1つの鮮明化方式の選択を受け付け、受け付けた鮮明化方式を用いて鮮明化画像を生成する
請求項1~9のいずれか一項に記載の画像処理装置。
When there are a plurality of sharpening methods specified based on the attribute information, the image sharpening unit receives selection of at least one sharpening method from among the plurality of sharpening methods, and uses the received sharpening method. The image processing device according to any one of claims 1 to 9, wherein the sharpened image is generated by
前記エリア設定部は、前記劣化画像に対して鮮明化の対象としない非対象エリアを設定し、
前記画像鮮明化部は、前記鮮明化エリアと前記非対象エリアとが重複する領域を、鮮明化の対象から除外して前記鮮明化画像を生成する
請求項1~10のいずれか一項に記載の画像処理装置。
The area setting unit sets a non-target area that is not targeted for sharpening with respect to the degraded image,
The image sharpening unit according to any one of claims 1 to 10, wherein the sharpened image is generated by excluding an area where the sharpened area and the non-target area overlap from a sharpening target. image processing device.
前記劣化画像は、ナンバープレートの画像である
請求項1~11のいずれか一項に記載の画像処理装置。
The image processing device according to any one of claims 1 to 11, wherein the degraded image is an image of a license plate.
請求項1~12のいずれか一項に記載の画像処理装置と、
前記画像処理装置により生成される鮮明化画像を表示する表示部と
を備える
画像処理システム。
The image processing device according to any one of claims 1 to 12,
An image processing system, comprising: a display unit that displays a sharpened image generated by the image processing device.
撮影された画像から抽出された劣化画像の一部のエリアであって鮮明化の対象となる鮮明化エリアを、当該鮮明化エリアに対応する属性情報に基づいて前記劣化画像のなかに設定するエリア設定処理と、
前記鮮明化エリアに対応する前記属性情報に基づいて当該属性情報に対応するクラスの学習モデルが適用される鮮明化方式を複数の鮮明化方式のなかから特定し、特定した鮮明化方式を用いて前記鮮明化エリアを鮮明化した鮮明化画像を生成する画像鮮明化処理と
を含む画像処理方法。
A clearing area, which is a partial area of the degraded image extracted from the photographed image and which is to be sharpened, is set in the degraded image based on the attribute information corresponding to the sharpening area. a configuration process;
identifying , from among a plurality of sharpening methods, a sharpening method to which a learning model of a class corresponding to the attribute information is applied based on the attribute information corresponding to the sharpening area, and using the identified sharpening method; and an image sharpening process for generating a sharpened image in which the sharpened area is sharpened.
コンピュータに、
撮影された画像から抽出された劣化画像の一部のエリアであって鮮明化の対象となる鮮明化エリアを、当該鮮明化エリアに対応する属性情報に基づいて前記劣化画像のなかに設定するエリア設定処理と、
前記鮮明化エリアに対応する前記属性情報に基づいて当該属性情報に対応するクラスの学習モデルが適用される鮮明化方式を複数の鮮明化方式のなかから特定し、特定した鮮明化方式を用いて前記鮮明化エリアを鮮明化した鮮明化画像を生成する画像鮮明化処理と
を実行させる画像処理プログラム。
to the computer,
A clearing area, which is a partial area of the degraded image extracted from the photographed image and which is to be sharpened, is set in the degraded image based on the attribute information corresponding to the sharpening area. a configuration process;
identifying , from among a plurality of sharpening methods, a sharpening method to which a learning model of a class corresponding to the attribute information is applied based on the attribute information corresponding to the sharpening area, and using the identified sharpening method; and an image sharpening process for generating a sharpened image in which the sharpened area is sharpened.
JP2018189662A 2018-10-05 2018-10-05 Image processing device, image processing system, image processing method, and image processing program Active JP7266985B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018189662A JP7266985B2 (en) 2018-10-05 2018-10-05 Image processing device, image processing system, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018189662A JP7266985B2 (en) 2018-10-05 2018-10-05 Image processing device, image processing system, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2020060824A JP2020060824A (en) 2020-04-16
JP7266985B2 true JP7266985B2 (en) 2023-05-01

Family

ID=70219865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018189662A Active JP7266985B2 (en) 2018-10-05 2018-10-05 Image processing device, image processing system, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP7266985B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015232765A (en) 2014-06-09 2015-12-24 住友電気工業株式会社 Image generation device, computer program, and image generation method
JP2017158067A (en) 2016-03-02 2017-09-07 株式会社東芝 Monitoring system, monitoring method, and monitoring program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3552269B2 (en) * 1994-04-27 2004-08-11 株式会社日立製作所 License plate detection device
JPH11306283A (en) * 1998-04-24 1999-11-05 Chuo Spring Co Ltd Number plate reader

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015232765A (en) 2014-06-09 2015-12-24 住友電気工業株式会社 Image generation device, computer program, and image generation method
JP2017158067A (en) 2016-03-02 2017-09-07 株式会社東芝 Monitoring system, monitoring method, and monitoring program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Chunhe Song,Blurred License Plate Recognition based on Single Snapshot from Drive Recorder,2015 IEEE International Conference on Communications ,IEEE,2015年09月10日,<URL:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7249460>
柴田 剛志,学習型超解像を用いた自動車ナンバープレート画像推定,画像電子学会誌,日本,一般社団法人画像電子学会,2015年,第44巻、第2号,p.363-367

Also Published As

Publication number Publication date
JP2020060824A (en) 2020-04-16

Similar Documents

Publication Publication Date Title
CN109767419B (en) Data generating device, data generating method, and storage medium
US9736374B2 (en) Video/vision based access control method and system for parking occupancy determination, which is robust against camera shake
CN103198311B (en) Image based on shooting recognizes the method and device of character
WO2018180562A1 (en) Image processing system and computer program for carrying out image process
JP2007052575A (en) Metadata applying device and metadata applying method
US9025905B2 (en) Image processing apparatus, recording medium storing image processing program, and method of image processing
KR102225753B1 (en) Deep learning-based panorama image quality evaluation method and device
JP2018205800A (en) Image analysis apparatus, neural network apparatus, learning apparatus, image analysis method and program
CN111275051A (en) Character recognition method, character recognition device, computer equipment and computer-readable storage medium
US20200364913A1 (en) User guided segmentation network
KR102327060B1 (en) Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target
Fernández-Caballero et al. Display text segmentation after learning best-fitted OCR binarization parameters
JP7266985B2 (en) Image processing device, image processing system, image processing method, and image processing program
JP5201184B2 (en) Image processing apparatus and program
CN112508000B (en) Method and equipment for generating OCR image recognition model training data
WO2019045101A1 (en) Image processing device and program
EP1211639A2 (en) Method and apparatus for extracting object from video image
JP6645076B2 (en) Image processing device
JP2017111500A (en) Character recognizing apparatus, and program
CN113191942A (en) Method for generating image, method for training human detection model, program, and device
JP7291464B2 (en) Image processing device, image processing system, image processing method, and image processing program
CN111626244B (en) Image recognition method, device, electronic equipment and medium
CN110298229B (en) Video image processing method and device
JP6379664B2 (en) Image processing apparatus, image processing method, and image processing program
JP2019139383A (en) Character recognition system, character recognition program, character recognition method, character sharpening system, character sharpening program, and character sharpening method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210430

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230419

R150 Certificate of patent or registration of utility model

Ref document number: 7266985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150