WO2017010058A1 - 識別媒体認識装置および識別媒体認識方法 - Google Patents

識別媒体認識装置および識別媒体認識方法 Download PDF

Info

Publication number
WO2017010058A1
WO2017010058A1 PCT/JP2016/003183 JP2016003183W WO2017010058A1 WO 2017010058 A1 WO2017010058 A1 WO 2017010058A1 JP 2016003183 W JP2016003183 W JP 2016003183W WO 2017010058 A1 WO2017010058 A1 WO 2017010058A1
Authority
WO
WIPO (PCT)
Prior art keywords
identification medium
area
image
super
recognition
Prior art date
Application number
PCT/JP2016/003183
Other languages
English (en)
French (fr)
Inventor
郁雄 渕上
匡夫 濱田
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016017385A external-priority patent/JP6709950B2/ja
Priority claimed from JP2016114315A external-priority patent/JP6846654B2/ja
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to US15/742,375 priority Critical patent/US10853680B2/en
Publication of WO2017010058A1 publication Critical patent/WO2017010058A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Definitions

  • the present disclosure relates to an identification medium recognition apparatus and an identification medium recognition method for recognizing characters and / or numbers included in an identification medium such as a vehicle license plate and an ID card.
  • an automobile number automatic reading device installed on a main road or the like can read a license plate of a vehicle traveling on a road in a predetermined direction. After imaging the identification medium on which letters and numbers are written, such as vehicle license plates and ID cards, and correcting the geometric distortion of the captured image due to the imaging angle, the characters or numbers of the identification medium are extracted from the captured image. Techniques for reading are known (see, for example, Patent Document 1 and Patent Document 2).
  • an identification medium vehicle license plate
  • distortion correction is performed using parameters suitable for the specified size.
  • the area size of the identification medium image needs to have a certain size, and for this purpose, it is necessary to use an identification medium image captured at a short distance. That is, an identification medium image captured at a long distance has a small area size, and thus it is difficult to perform recognition processing. In order to be able to recognize both the identification medium image captured at a short distance and the identification medium image captured at a long distance, it is possible to perform super-resolution processing of the captured identification medium image. In this case, there arises a problem that the processing load of the apparatus becomes large.
  • a clear captured image may not be obtained due to changes in shooting conditions such as bad weather or dirt on the camera lens.
  • a captured image suitable for recognition of the identification medium is not necessarily obtained depending on the resolution of the camera and the photographing conditions (the size of the identification medium in the captured image, the photographing angle, etc.). It may not be obtained.
  • a technique for preventing erroneous recognition (reading error) of a character string in an identification medium image has been developed even for a captured image that is not suitable for recognition of such an identification medium.
  • a technique is known in which a correlation value between a character in an identification medium image and a character pattern for collation is calculated, and the character is recognized only when the correlation value is equal to or greater than a certain value (Patent Literature). 3).
  • the imaging pattern captured by the camera is compared with a plurality of dictionary patterns stored in advance, the similarity is calculated for each dictionary pattern, and the similarity is corrected based on the appearance frequency for each dictionary pattern stored in advance.
  • a technique for calculating the corrected similarity and determining a dictionary pattern having the highest correction similarity is known (see Patent Document 4).
  • This disclosure is intended to recognize both an identification medium image captured at a short distance and an identification medium image captured at a long distance without increasing the processing load of the apparatus. Furthermore, this indication aims at reducing the misrecognition of the character string in the image
  • An identification medium recognition device is an identification medium recognition device that recognizes characters and / or numbers included in an identification medium, an image acquisition unit that acquires a captured image captured by the imaging device, and an identification medium from the captured image
  • An identification medium area detecting unit for detecting the area of the identification medium, an identification medium recognition unit for recognizing characters and / or numbers included in the identification medium from the area of the identification medium, and a super resolution process for selectively performing super-resolution processing of the area of the identification medium
  • a resolution processing unit an area storage unit that stores a preset area in the captured image, an identification medium area determination unit that determines whether the area of the identification medium is located within the preset area, and identification A super-resolution processing selection unit that selects execution of the super-resolution processing by the super-resolution processing unit when it is determined that the area of the medium is located within a preset region;
  • the identification medium recognition device of the present disclosure is an identification medium recognition device that recognizes characters and / or numbers included in an identification medium, and includes an image acquisition unit that acquires a captured image captured by the imaging device, and a captured image
  • An identification medium area detection unit that detects an area of the identification medium, an identification medium recognition unit that recognizes characters and / or numbers included in the identification medium from the area of the identification medium, and super-resolution processing of the area of the identification medium are selectively performed
  • a super-resolution processing selection unit that selects whether or not to perform super-resolution processing by the super-resolution processing unit based on at least one of the degrees of distortion.
  • the identification medium recognition device of the present disclosure is an identification medium recognition device including a processor that executes processing for recognizing a character string in a photographed identification medium image, where the character string is a position in the identification medium image or It is composed of a plurality of characters set in an arrangement order from 1 to x (where x is an integer of 2 or more) according to the relative position between characters, and the processor prepares a character string in the identification medium image in advance.
  • the degree of similarity with each of the plurality of reference images is calculated, and a plurality of characters corresponding to 1 or y characters (where y is an integer of 2 or more smaller than x) in the arrangement order to be evaluated in the character string.
  • an evaluation value including the sum of the similarities is calculated for each reference image with the same reference character, and a character string in the identification medium image is formed based on the evaluation value. Determining at least one character candidate can.
  • An identification medium recognition method of the present disclosure is an identification medium recognition method for recognizing characters and / or numbers included in an identification medium, an image acquisition step of acquiring a captured image captured by an imaging device, and an identification medium from the captured image
  • An identification medium area detecting step for detecting the area of the identification medium
  • an identification medium recognition step for recognizing characters and / or numbers included in the identification medium from the area of the identification medium
  • a super-resolution process for selectively performing the super-resolution processing of the identification medium area.
  • a resolution processing step an area storage step for storing a preset area in the captured image, an identification medium area determination step for determining whether or not the area of the identification medium is located within the preset area, and identification A super-resolution processing selection step for selecting execution of the super-resolution processing step when it is determined that the area of the medium is located within the preset area; That.
  • the identification medium recognition method of the present disclosure is an identification medium recognition method for recognizing characters and / or numbers included in an identification medium, and includes an image acquisition step of acquiring a captured image captured by an imaging device, and a captured image An identification medium area detecting step for detecting an identification medium area, an identification medium recognition step for recognizing characters and / or numbers contained in the identification medium from the identification medium area, and a super-resolution process for the identification medium area are selectively performed.
  • the identification medium recognition method of the present disclosure is an identification medium recognition method by an identification medium recognition device that executes processing for recognizing a character string in a photographed vehicle identification medium image, and the character string is included in the identification medium image.
  • a character string in an identification medium image which is prepared in advance, and is composed of a plurality of characters having an arrangement order from 1 to x (where x is an integer of 2 or more) according to the position of the character or the relative position between characters.
  • an evaluation value including the sum of similarities is calculated for each reference image with the same reference character, and a character string in the identification medium image can be configured based on the evaluation value One of determining the character of the candidate.
  • both the identification medium image captured at a short distance and the identification medium image captured at a long distance can be recognized without increasing the processing load of the apparatus. Furthermore, according to the present disclosure, erroneous recognition of a character string in a license plate image of a photographed vehicle or the like can be reduced.
  • FIG. 1A is a configuration diagram illustrating an outline of an identification medium recognition system according to an embodiment of the present disclosure.
  • FIG. 1B is a block diagram illustrating a hardware configuration of the identification medium recognition device illustrated in FIG. 1A.
  • FIG. 2 is a block diagram illustrating a schematic configuration of the identification medium recognition device according to the first embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating an example of a captured image captured by the imaging apparatus.
  • FIG. 4 is a flowchart showing a flow of identification medium recognition processing by the identification medium recognition apparatus according to the first embodiment of the present disclosure.
  • FIG. 5 is a block diagram illustrating a schematic configuration of an identification medium recognition device according to the second embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating an example of the identification medium region extracted from the captured image.
  • FIG. 7 is a flowchart showing the flow of identification medium recognition processing by the identification medium recognition apparatus according to the second embodiment of the present disclosure.
  • FIG. 8A is a diagram illustrating an example of a captured image captured by the imaging device in the identification medium recognition system according to the third embodiment of the present disclosure, and is a diagram when the host vehicle is traveling in the second travel lane. is there.
  • FIG. 8B is a diagram illustrating an example of a captured image captured by the imaging device in the identification medium recognition system according to the third embodiment of the present disclosure, in which the host vehicle is traveling in the first travel lane. is there.
  • FIG. 8A is a diagram illustrating an example of a captured image captured by the imaging device in the identification medium recognition system according to the third embodiment of the present disclosure, and is a diagram when the host vehicle is traveling in the second travel lane. is there.
  • FIG. 8B is a diagram illustrating an example of a captured
  • FIG. 9 is a configuration diagram illustrating an outline of an identification medium recognition system according to the fourth embodiment of the present disclosure.
  • FIG. 10 is a diagram illustrating an example of a captured image captured by the imaging apparatus.
  • FIG. 11 is a functional block diagram according to the fifth embodiment of the identification medium recognition device shown in FIG. 1A.
  • FIG. 12 is a diagram illustrating an example of a calculation result by the similarity calculation unit in FIG. 11.
  • FIG. 13 is a diagram illustrating an example of extraction of top candidates for correlation values by the similarity evaluation unit in FIG. 11.
  • FIG. 14 is a diagram illustrating an example of an evaluation value calculation result of each digit by the similarity evaluation unit in FIG.
  • FIG. 15 is an explanatory diagram showing a modification of the candidate number extraction method by the similarity evaluation unit in FIG.
  • FIG. 10 is a diagram illustrating an example of a captured image captured by the imaging apparatus.
  • FIG. 11 is a functional block diagram according to the fifth embodiment of the identification medium recognition device shown in FIG. 1A
  • FIG. 16 is a flowchart showing the flow of processing according to the fifth embodiment of the identification medium recognition apparatus shown in FIG. 1A.
  • FIG. 17 is a flowchart showing details of step ST108 in FIG.
  • FIG. 18 is a diagram illustrating an example (upper two digits) of a calculation result by the similarity calculation unit of the identification medium recognition device according to the sixth embodiment.
  • FIG. 19 is a diagram illustrating an example (lower two digits) of a calculation result by the similarity calculation unit of the identification medium recognition device according to the sixth embodiment.
  • FIG. 20 is a diagram illustrating an example of an evaluation value calculation result of each digit by the similarity evaluation unit of the identification medium recognition device according to the sixth embodiment.
  • the present embodiment specifically discloses the identification medium recognition apparatus and the identification medium recognition method according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.
  • the accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the claimed subject matter.
  • a plate or card on which characters or numbers that can be imaged by an imaging device is referred to as an “identification medium”.
  • the characters include hiragana, katakana, kanji, alphabet, and the like.
  • the identification medium is not limited to a plate or card type, for example, a label attached to the surface of an identification object such as a helmet, a seal-like printed material, a display object directly printed on the surface of the identification object, etc. It may be.
  • the characters and numbers of the identification medium are not limited to printed ones, and may be handwritten ones.
  • FIG. 1A is a configuration diagram illustrating an outline of an identification medium recognition system 1 according to an embodiment of the present disclosure.
  • FIG. 1B is a block diagram illustrating a hardware configuration of the identification medium recognition device 3 illustrated in FIG. 1A.
  • This identification medium recognition system 1 is a system for imaging and reading a license plate of a vehicle, for example.
  • the identification medium recognition system 1 includes an imaging device 2, an identification medium recognition device 3, an external storage device 4, and a display device 5.
  • the identification medium recognition system 1 is a system for recognizing a character string in an identification medium image obtained by photographing a license plate of a vehicle or the like as an identification medium
  • the identification medium recognition system 1 Are an imaging device 2 that images a vehicle or the like including an identification medium, an identification medium recognition device 3 that performs a character string recognition process in an identification medium image acquired by the imaging device 2, and processing of the identification medium recognition device 3
  • An external storage device 4 for storing various data relating to the image data
  • a display device 5 for displaying an identification medium image captured by the imaging device 2, a processing result of the identification medium recognition device 3, and the like.
  • the imaging device 2 is a digital still camera or a digital video camera equipped with an image sensor such as a CCD, and images a license plate of a vehicle traveling on a roadway.
  • the captured image includes a vehicle body, surrounding objects, and the like in addition to an identification medium (number plate) as a main subject.
  • the imaging device 2 may be disposed at the entrance / exit of the facility, on the side or above the roadway, or may be mounted on a vehicle such as a police car. When the imaging device 2 is arranged on the side of the roadway, it may be attached to a roadside camera column installed on the roadside of the roadway.
  • a cantilever camera column configured to protrude from the roadway side to the upper side of the roadway or a portal type camera column configured to straddle the roadway It is good to attach to.
  • the imaging device 2 is mounted on a vehicle, it is preferable that the number plate of the vehicle is imaged in a state where the vehicle on which the imaging device 2 is mounted is stopped on the road shoulder. An image (captured image) captured by the imaging device 2 is input to the identification medium recognition device 3.
  • the identification medium recognition device 3 includes a CPU, a RAM, a ROM, a network interface, and the like.
  • the identification medium recognition device 3 extracts an identification medium region from the captured image input from the imaging device 2, recognizes characters and / or numbers included in the identification medium region, and reads the identification medium.
  • a processor 121 that comprehensively executes processing for recognizing a character string in an identification medium image based on a predetermined control program, and a volatilization functioning as a work area of the processor 121.
  • a random-access memory (RAM) 122 and a read-only memory (ROM) 123 that stores control programs and data executed by the processor 121 are connected to the input / output bus 125, respectively.
  • the identification medium recognition device 3 includes peripheral devices such as an input device 124 such as a keyboard and a mouse, a display device 5 including a monitor such as a liquid crystal, and a storage such as an HDD (Hard Disk Drive) and a flash memory.
  • the external storage device 4 is connected.
  • the function of each part of the identification medium recognition device 3 can be realized mainly by the processor 121 executing the control program.
  • the external storage device 4 is, for example, an HDD (Hard Disk Drive) device
  • the display device 5 is, for example, a monitor device.
  • the external storage device 4 and the display device 5 are connected to the identification medium recognition device 3.
  • the image captured by the imaging device 2 and the identification medium read by the identification medium recognition device 3 are stored in the external storage device 4.
  • the image captured by the imaging device 2 and the identification medium read by the identification medium recognition device 3 are displayed on the display device 5.
  • the identification medium image may be temporarily stored in the memory in the imaging apparatus 2 without being directly sent to the identification medium recognition apparatus 3.
  • the connection form of the identification medium recognizing device 3, the imaging device 2, the external storage device 4, and the display device 5 is not particularly limited, and is, for example, via wired or wireless communication such as a LAN (Local Area Network). It may be a connection or a connection via a communication network such as the Internet.
  • the imaging device 2 and the identification medium recognition device 3 may be integrally configured as an imaging device having an identification medium recognition function. In that case, it may be configured to output to the external storage device 4 and the display device 5 via the output interface. Further, a recording medium may be used instead of the external storage device 4.
  • FIG. 2 is a block diagram illustrating a schematic configuration of the identification medium recognition device according to the first embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating an example of a captured image captured by the imaging apparatus.
  • FIG. 4 is a flowchart showing a flow of identification medium recognition processing by the identification medium recognition apparatus according to the first embodiment of the present disclosure.
  • the identification medium recognition device 3 includes an image acquisition unit 11, an identification medium region detection unit 12, an identification medium region determination unit 13, and a region information storage unit 14.
  • the image acquisition unit 11 acquires a captured image 21 (see FIG. 3) captured by the imaging device 2.
  • the captured image 21 in FIG. 3 is a captured image captured by the imaging device 2 disposed on the roadside belt or sidewalk 23 of the roadway 22.
  • the roadway 22 is a one-way, three-lane road, and the vehicle travels from the back side (upper side in the figure) toward the front side (lower side in the figure).
  • the three lanes of the road 22 are referred to as a first traveling lane 24, a second traveling lane 25, and a third traveling lane 26 in order from the shoulder side (the right side in the figure).
  • An area 27 is set on the first travel lane 24, an area 28 is set on the second travel lane 25, and an area 29 is set on the third travel lane 26. Areas 27, 28, and 29 are recognition areas described later.
  • the captured image acquired by the image acquisition unit 11 is input to the identification medium region detection unit 12 and the identification medium image extraction unit 15.
  • the identification medium area detection unit 12 detects an area of the identification medium (hereinafter simply referred to as “identification medium area”) from the captured image using an image recognition technique.
  • the identification medium area detected by the identification medium area detection unit 12 is input to the identification medium area determination unit 13. If the identification medium area is not detected, the identification medium recognition process by the identification medium recognition device 3 is terminated.
  • the identification medium area determination unit 13 determines whether or not the position of the identification medium area in the captured image is located in an area (hereinafter referred to as “recognition area”) in the captured image in which recognition medium recognition processing is performed. To do. This determination is performed with reference to the information regarding the recognition area stored in the area information storage unit 14. Information about the recognition area is set in advance by a user or the like and stored in the area information storage unit 14.
  • the recognition area is divided into an area that requires super-resolution processing and an area that does not require super-resolution processing.
  • the area requiring super-resolution processing corresponds to “a preset area in the captured image” in the claims.
  • the area that requires super-resolution processing is set in advance by the user and stored in the area information storage unit 14.
  • the identification medium area determination unit 13 determines whether the recognition area is an area that requires super-resolution processing or requires super-resolution processing. It is also determined whether the area is not to be used.
  • a region 27 on the first travel lane 24, a region 28 on the second travel lane 25, and a region 29 on the third travel lane 26 are recognition regions.
  • areas that do not require super-resolution processing are areas that require super-resolution processing.
  • the area size of the identification medium image needs to have a certain size. For this reason, the identification medium is desirably imaged at a short distance. Further, if the geometric distortion of the identification medium image is large, the identification medium cannot be recognized. Therefore, the identification medium image needs to have a small geometric distortion.
  • the identification medium image captured at a short distance in the first travel lane 24 and the second travel lane 25 has a geometric distortion. (Ie, suitable for image recognition). Therefore, the region 27 on the first travel lane 24 and the region 28 on the second travel lane 25 where the identification medium is imaged at a short distance are regions that do not require super-resolution processing. Since the third travel lane 26 is far from the imaging device 2, the identification medium image captured at a short distance in the third travel lane 26 has a large geometric distortion (that is, not suitable for image recognition). .
  • an identification medium image captured at a long distance in the third lane 26 has a relatively small geometric distortion (that is, suitable for image recognition).
  • the identification medium image captured at a long distance in the third travel lane 26 has a small area size, it is necessary to perform super-resolution processing. Therefore, the region 29 on the third lane 26 where the identification medium is imaged at a long distance is a region requiring super-resolution processing.
  • the determination result in the identification medium region determination unit 13, that is, information regarding a region requiring super-resolution processing and a region not requiring super-resolution processing is input to the super-resolution processing selection unit 16. If it is determined that the identification medium position is within the recognition area, the identification medium area determination unit 13 instructs the identification medium image extraction unit 15 to extract the identification medium image from the captured image. If it is determined that the identification medium position is not located within the recognition area, the identification medium recognition process by the identification medium recognition device 3 is terminated.
  • identification medium image extraction unit 15 When the identification medium image extraction unit 15 receives a command for extracting the identification medium image from the captured image from the identification medium region determination unit 13, an image of the identification medium region (hereinafter referred to as “identification medium image”) from the captured image. Extract. Specifically, an identification medium image having an area size (image size) appropriate for subsequent recognition processing or the like is cut out from the captured image. The extracted identification medium image is input to the super-resolution processing selection unit 16.
  • the super-resolution processing selection unit 16 receives the determination result received from the identification medium region determination unit 13, that is, based on the information about the region that requires the super-resolution processing and the region that does not require the super-resolution processing. Select whether or not to perform resolution processing. Specifically, when the identification medium area is located in an area that requires super-resolution processing (area 29 in FIG. 3), the super-resolution processing selection unit 16 selects execution of the super-resolution processing. On the other hand, when the identification medium region is located in a region that does not require super-resolution processing (regions 27 and 28 in FIG. 3), the super-resolution processing selection unit 16 selects not to perform super-resolution processing. When execution of super-resolution processing is selected, the identification medium image is input to the super-resolution processing unit 17. When non-execution of super-resolution processing is selected, the identification medium image is input to the identification medium recognition unit 18.
  • the super-resolution processing unit 17 performs super-resolution processing that increases the resolution of the identification medium image.
  • the identification medium image subjected to the super-resolution processing is input to the identification medium recognition unit 18.
  • the region size (image size) of the identification medium image and the degree of geometric distortion are limited. That is, the character size and geometric distortion pattern of the identification medium image are limited. Therefore, since the pattern of the template image (reference image) used in the template-type super-resolution processing technique is limited, the data size can be made compact, and as a result, the processing speed can be increased. .
  • the identification medium recognition unit 18 receives the identification medium image that has not been subjected to the super-resolution processing input from the super-resolution processing selection unit 16 or the super-resolution processing that has been input from the super-resolution processing unit 17.
  • the identification medium is read by recognizing characters and / or numbers included in the identification medium from the identification medium image.
  • the identification medium read by the identification medium recognition unit 18 is stored in the external storage device 4 or displayed on the display device 5.
  • the image acquisition unit 11 acquires a captured image captured by the imaging device 2 (ST101). Subsequently, the identification medium area detection unit 12 detects the identification medium area from the captured image (ST102). Next, the identification medium area detection unit 12 detects the position of the identification medium area in the captured image (ST103).
  • the identification medium area determination unit 13 determines whether or not the identification medium area is located in an area (recognition area) where recognition medium recognition processing is performed. Further, when it is determined that the identification medium area is located within the recognition area, the identification medium area determination unit 13 determines whether the recognition area is an area that requires super-resolution processing or performs super-resolution processing. It is also determined whether the area is not necessary.
  • step ST104 If it is determined in step ST104 that the identification medium area is located in the recognition area (ST104: Yes), the process proceeds to step ST105. If it is determined that the identification medium area is not located within the recognition area (ST104: No), the process is terminated.
  • step ST105 the identification medium image extraction unit 15 extracts an image of the identification medium area (identification medium image) from the captured image.
  • the super-resolution processing selection unit 16 is based on the information regarding the region that requires super-resolution processing and the region that does not require super-resolution processing, which are input from the identification medium region determination unit 13. Select whether to perform super-resolution processing or not. If the identification medium area is located in an area requiring super-resolution processing (hereinafter referred to as “super-resolution area”) (ST106: Yes), the process proceeds to step ST107. If the identification medium area is located in an area that does not require super-resolution processing (ST106: No), the process proceeds to step ST108.
  • the super-resolution processing unit 17 performs super-resolution processing of the identification medium image.
  • the identification medium recognition unit 18 receives the identification medium image that has not been subjected to the super-resolution processing input from the super-resolution processing selection unit 16 or the super-resolution input from the super-resolution processing unit 17.
  • the identification medium is read by recognizing characters and / or numbers included in the identification medium from the identification medium image subjected to the resolution processing.
  • the identification medium recognition device 3 it is possible to select whether or not to perform the super-resolution processing based on the position of the identification medium area in the captured image. Therefore, the super-resolution processing is performed on the identification medium image picked up at a long distance by setting the area of the identification medium image picked up at a long distance, that is, the area where the size of the picked-up image is small as the super-resolution area. This makes it possible to recognize both the identification medium image captured at a short distance and the identification medium image captured at a long distance without increasing the processing load of the apparatus.
  • FIG. 5 is a block diagram illustrating a schematic configuration of the identification medium recognition device 3 according to the second embodiment
  • FIG. 6 is a diagram illustrating an example of an identification medium area extracted from a captured image
  • FIG. It is a flowchart which shows the flow of the identification medium recognition process by the identification medium recognition apparatus 3 which concerns on 2 embodiment.
  • the identification medium recognition device 3 does not include the identification medium region determination unit 13 and the region information storage unit 14, and instead, the distortion degree calculation unit 31, the region size calculation unit 32, the recognition The point which is provided with the area
  • the degree-of-distortion calculation unit 31 and the region size calculation unit 32 correspond to a region parameter calculation unit in the claims. Since other points are the same as those in the first embodiment, description thereof is omitted.
  • the distortion degree calculation unit 31 calculates a distortion degree that is a value indicating the degree of geometric distortion of the identification medium region. As shown in FIG. 6, the identification medium area 41 has a substantially rectangular shape.
  • the degree of distortion can be obtained from the following formula (1) using the angles of the inner angles A1 to A4 of the four corners of the identification medium area 41.
  • the degree of distortion calculated by the degree-of-distortion calculation unit 31 is input to the recognition area designation unit 33.
  • the area size calculation unit 32 calculates the area size of the identification medium area.
  • the number of pixels at the height of the longer side in the four sides defining the outline of the substantially rectangular identification medium region is defined as the region size.
  • the region size In FIG. 6, the height of the vertical side on the right side in the figure is the region size.
  • the area size calculated by the area size calculation unit 32 is input to the recognition area specifying unit 33.
  • the recognition area designating unit 33 uses the degree of distortion calculated by the degree-of-distortion calculating unit 31 and the area size calculated by the area size calculating unit 32 to balance the area size and the degree of distortion in the identification medium area.
  • An evaluation value that is a value for evaluating is calculated.
  • the evaluation value can be obtained from the following mathematical formula (2).
  • is a predetermined coefficient.
  • the recognition area designating unit 33 designates the identification medium area detected by the identification medium area detection unit 12 as a recognition area that is an area for performing recognition processing of the identification medium. It is determined whether or not. This determination is performed with reference to the information regarding the evaluation value stored in the evaluation value information storage unit 34. Information regarding the evaluation value is set in advance by a user or the like and stored in the evaluation value information storage unit 34. Specifically, when the evaluation value exceeds a predetermined threshold value T1, the identification medium area is designated as the recognition area.
  • the threshold value T1 is a value for which it is determined that the balance between the area size and the degree of distortion in the identification medium area is appropriate for carrying out the recognition medium recognition process.
  • the identification medium recognition process by the identification medium recognition device 3 is terminated.
  • the recognition area designation unit 33 inputs the area size of the identification medium area to the super-resolution processing selection unit 16. Further, the recognition area designating unit 33 instructs the identification medium image extracting unit 15 to extract the identification medium image from the captured image.
  • the identification medium image extraction unit 15 When the identification medium image extraction unit 15 receives a command for extracting the identification medium image from the captured image from the recognition area designating unit 33, the identification medium image extraction unit 15 extracts the identification medium image from the captured image. The extracted identification medium image is input to the super-resolution processing selection unit 16.
  • the super-resolution process selection unit 16 selects whether or not to perform the super-resolution process based on the area size of the identification medium area received from the recognition area designating unit 33. Specifically, when the area size of the identification medium area falls below a predetermined threshold value T2, the super-resolution process selection unit 16 selects execution of the super-resolution process. If the area size is small, the size of characters and / or numbers on the identification medium is small, so that recognition by the identification medium recognition unit 18 becomes difficult, and it is determined that super-resolution processing is necessary.
  • the super-resolution processing selection unit 16 selects non-execution of the super-resolution processing.
  • the identification medium image is input to the super-resolution processing unit 17.
  • the identification medium image is input to the identification medium recognition unit 18.
  • the super-resolution processing unit 17 performs super-resolution processing of the identification medium image.
  • the identification medium image subjected to the super-resolution processing is input to the identification medium recognition unit 18.
  • the identification medium recognition unit 18 receives the identification medium image that has not been subjected to the super-resolution processing input from the super-resolution processing selection unit 16 or the super-resolution processing that has been input from the super-resolution processing unit 17.
  • the identification medium is read by recognizing characters and / or numbers included in the identification medium from the performed identification medium image.
  • the identification medium read by the identification medium recognition unit 18 is stored in the external storage device 4 or displayed on the display device 5.
  • the above-described calculation method or evaluation method in the distortion degree calculation unit 31, the region size calculation unit 32, and the recognition region designation unit 33 is an example, and is not limited thereto, and other various calculation methods or An evaluation method can be used.
  • the degree of distortion can be calculated using the length of each side that defines the substantially rectangular outline of the identification medium area, not the angle of the inner angle of the identification medium area.
  • whether or not to designate the identification medium area as a recognition area that is an identification medium recognition process is determined using both the degree of distortion and the area size. The determination can also be performed using only one of the degree of distortion and the region size.
  • the image acquisition unit 11 acquires a captured image captured by the imaging device 2 (ST201). Subsequently, the identification medium area detection unit 12 detects the identification medium area from the captured image (ST202).
  • step ST203 the distortion degree calculation unit 31 calculates the distortion degree of the identification medium area.
  • step ST204 the area size calculation unit 32 calculates the area size of the identification medium area.
  • the recognition area designating unit 33 uses the degree of distortion and area size of the identification medium area to calculate an evaluation value that is a value representing the balance between the degree of distortion of the identification medium area and the area size.
  • step ST206 the recognition area designating unit 33 determines whether or not the evaluation value exceeds a predetermined threshold value T1. If it is determined in step ST206 that the evaluation value exceeds the threshold value T1 (ST206: Yes), the process proceeds to step ST207. If it is determined that the evaluation value is equal to or less than the threshold value T1 (ST206: NO), the process is performed. finish.
  • step ST207 the identification medium image extraction unit 15 extracts an identification medium image from the captured image.
  • step ST208 the super-resolution process selection unit 16 determines whether or not the area size of the identification medium area is smaller than a predetermined threshold T2. If it is determined in step ST208 that the region size is smaller than the threshold value T2 (ST208: Yes), the process proceeds to step ST209. If it is determined that the region size is greater than or equal to the threshold value T2 (ST208: NO), step ST210 is performed. Proceed to
  • step ST209 the super-resolution processing unit 17 performs super-resolution processing of the identification medium image.
  • step ST210 the identification medium recognition unit 18 recognizes characters and / or numbers included in the identification medium from an identification medium image that has been subjected to super-resolution processing or an identification medium image that has not been subjected to super-resolution processing. Read the identification medium.
  • the identification medium recognition device 3 it is possible to select whether or not to perform the super-resolution processing based on the area size and the degree of distortion of the identification medium area. Therefore, by detecting the region of the identification medium image captured at a long distance, that is, the region where the region size in the captured image is small, based on the degree of distortion and the region size, the identification medium image captured at a long distance can be It is possible to perform resolution processing, and thereby it is possible to recognize both the identification medium image captured at a short distance and the identification medium image captured at a long distance without increasing the processing load of the apparatus. .
  • the identification plate recognition system 1 according to the third embodiment of the present disclosure will be described using a license plate as an example of the identification medium.
  • the identification medium recognition system 1 according to the third embodiment of the present disclosure has the same configuration as the identification medium recognition system 1 shown in FIGS. 1A and 1B described above.
  • the imaging device 2 is mounted on the host vehicle rather than on the side or above the roadway, and the number plate of the other vehicle is imaged while the host vehicle is traveling. Different from the embodiment. Since other points are the same as those in the first embodiment, description thereof is omitted.
  • the imaging device 2 is installed in the vicinity of the upper end of the windshield of the host vehicle (for example, the back side of the room mirror), and images an area that spreads in a predetermined angle range in front of the host vehicle. Thereby, the number plate of the other vehicle which exists ahead of the own vehicle can be imaged while the own vehicle is traveling.
  • Other vehicles include a preceding vehicle that travels in the same direction as the traveling direction of the host vehicle, an oncoming vehicle that travels in a direction opposite to the traveling direction of the host vehicle, and a stopped vehicle that stops in front of the host vehicle.
  • an in-vehicle camera for a drive recorder can be used as the imaging device 2.
  • the type, number, arrangement position, and the like of the imaging device 2 are not particularly limited, and can be variously modified.
  • the imaging device 2 may be installed at the rear part of the host vehicle, and the license plate of another vehicle existing behind the host vehicle may be imaged.
  • FIGS. 8A and 8B are diagrams illustrating an example of a captured image 51 captured by the imaging device 2.
  • the captured image 51 includes a roadway 52 in front of the host vehicle.
  • the roadway 52 is a one-way, two-lane road having a median strip 53, and the host vehicle travels from the front side (lower side in the figure) to the inner side (upper side in the figure).
  • the lane on the roadside zone 54 side (left side in the figure) is referred to as a first travel lane 55
  • the lane on the center separation zone 53 side is referred to as a second travel lane 56.
  • the first travel lane 55 is a lane between the roadway outer line 61 and the lane boundary line 62
  • the second travel lane 56 is a lane between the lane boundary line 62 and the roadway center line 63.
  • the host vehicle is traveling in the second travel lane 56
  • the host vehicle is traveling in the first travel lane 55.
  • the recognition area 71 is on the side closer to the own vehicle (lower side in the figure), and the recognition area 71 is on the side farther from the own vehicle (upper side in the figure).
  • 72 is set.
  • a recognition area 73 is set in the opposite lane 57 with the central separation band 53 interposed therebetween.
  • the recognition area 71 is an area that does not require super-resolution processing
  • the recognition area 72 and the recognition area 73 are areas that require super-resolution processing.
  • the area size of the identification medium image needs to have a certain size in order to recognize the license plate of the vehicle.
  • the identification medium image captured in the recognition area 71 close to the imaging device 2 has a certain size, the super-resolution processing is not required.
  • the identification medium images captured in the recognition areas 72 and 73 that are far from the imaging device 2 require a super-resolution process because the area size is small.
  • the recognition areas 71, 72, and 73 change as the host vehicle travels. Therefore, the recognition areas 71, 72, 73 need to be set as needed when the host vehicle is traveling. Specifically, first, the first traveling lane 55, the second traveling lane 56, and the opposite lane 57 are recognized. The first lane 55, the second lane 56, and the opposite lane 57 are recognized based on lane markings such as the road outer line 61, the lane boundary 62, and the road center line 63 drawn on the road surface 52. Good.
  • a predetermined range and shape area on the side close to the own vehicle on both the first lane 55 and the second lane 56 are set as a recognition area 71, and a predetermined range and shape on the side far from the own vehicle are set. Is set as a recognition area 72. Further, a region having a predetermined range and shape on the oncoming lane 57 is set as a recognition region 73. Information regarding the ranges and shapes of the recognition areas 71, 72, and 73 is set in advance by a user or the like, and is stored in, for example, a storage unit.
  • the positions, shapes, and inclination angles of the partition lines 61, 62, 63 in the captured image 51 are recognized, and the ranges and shapes of the recognition areas 71, 72, 73 are set according to the recognition result.
  • Information regarding the ranges and shapes of the recognition areas 71, 72, and 73 corresponding to the positions of the lane markings 61, 62, and 63 in the captured image 51 is set in advance by a user or the like, and is stored, for example, in a storage unit.
  • the oncoming lane 57 may be recognized based on a motion vector of another vehicle. When the direction of the motion vector of the other vehicle is a direction approaching the host vehicle, it can be determined that the other vehicle is traveling on the oncoming lane 57.
  • the identification medium recognition process is performed in the same manner as described in the first embodiment. That is, when the identification medium area detected from the captured image 51 is located in the recognition areas 72 and 73 that require super-resolution processing, the execution of super-resolution processing is selected and super-resolution processing is required. If it is located in the recognition area 71 not to be supervised, the execution of the super-resolution processing is not selected.
  • the number plate of the other vehicle is imaged by the imaging device 2 mounted on the own vehicle while the host vehicle is traveling, and the identification in the captured image 51 is performed. Based on the position of the medium area, execution or non-execution of the super-resolution processing can be selected. Thereby, even when the license plate of another vehicle is imaged from the traveling own vehicle, the identification medium image captured at a short distance and the identification medium image captured at a long distance can be obtained without increasing the processing load of the apparatus. Both can be recognized.
  • the description has been given by taking a two-lane road on one side as an example, but the present invention is not limited to this.
  • This third embodiment can also be applied to a road with one lane on one side, a road with three or more lanes on one side, a one-lane road, and the like.
  • the road surface in front of the host vehicle is detected as the roadway 52, and a predetermined range and shape on the side near the host vehicle on the roadway 52 are detected.
  • This area may be set as the recognition area 71, and a predetermined area and shape area far from the host vehicle may be set as the recognition area 72.
  • the identification medium recognition system 1 according to the fourth embodiment of the present disclosure has the same configuration as the identification medium recognition system 1 shown in FIGS. 1A and 1B described above. However, the identification medium recognition system 1 according to the fourth embodiment is different from the first embodiment described above in that it recognizes an ID card worn by a person rather than a vehicle license plate. Since other points are the same as those in the first embodiment, description thereof is omitted.
  • FIG. 9 is a configuration diagram illustrating an outline of the identification medium recognition system 1 according to the fourth embodiment of the present disclosure.
  • the identification medium recognition system 1 according to the fourth embodiment is a system for imaging and reading an ID card for personal authentication. In the fourth embodiment, it is assumed that ID authentication using an ID card is performed in order to manage entry into and exit from a room in a building.
  • a security gate 82 is installed in the hallway 81 in the building for managing entry / exit to the next room, and the ceiling or wall near the upper part of the security gate 82 or in the vicinity thereof.
  • An imaging device 2 is arranged.
  • persons 83 and 84 exist, and the persons 83 and 84 wear ID cards 85 and 86 on their chests.
  • the ID cards 85 and 86 may be hung from the neck instead of being attached to the chest.
  • the number of persons is two, but the number of persons is not particularly limited.
  • the imaging device 2 captures an area extending in a predetermined angle range in front of the security gate 82. Thereby, the ID cards 85 and 86 worn by the persons 83 and 84 on the chest can be imaged.
  • a box camera is used as the imaging device 2, but the imaging device 2 is not particularly limited.
  • the imaging device 2 may be an omnidirectional camera.
  • FIG. 10 is a diagram illustrating an example of a captured image 91 captured by the imaging device 2.
  • the captured image 91 includes ID cards 85 and 86 worn by the persons 83 and 84 on the chest.
  • a recognition area 92 is set on the side closer to the imaging apparatus 2 (lower side in the figure) in the captured image 91, and a recognition area 93 is set on the side farther from the imaging apparatus 2 (upper side in the figure).
  • the recognition area 92 is an area that does not require super-resolution processing
  • the recognition area 93 is an area that requires super-resolution processing.
  • the recognition areas 92 and 93 are set in advance by the user and are stored in the area information storage unit 14 of the identification medium recognition apparatus 3.
  • the area size of the identification medium image needs to have a certain size. Since the ID card image captured in the recognition area 92 that is close to the imaging apparatus 2 has a certain area size, super-resolution processing is not required. On the other hand, the ID card image captured in the recognition area 93 that is far from the imaging apparatus 2 requires a super-resolution process because the area size is small. Further, if the geometric distortion of the identification medium image is large, the identification medium cannot be recognized. Therefore, the identification medium image needs to have a small geometric distortion. As shown in FIG. 9, when the imaging device 2 is above the security gate 82, if the identification medium is too close to the security gate 82, the geometric distortion of the identification medium image may increase.
  • the recognition area 92 is set to an area slightly behind the security gate 82 and having a small geometric distortion.
  • an identification medium image with a small geometric distortion can be picked up relatively close to the security gate 82. You can set up close.
  • the ID card recognition process is performed in the same manner as described in the first embodiment. In other words, when the identification medium area detected from the captured image 91 is located in the recognition area 93 that requires super-resolution processing, recognition that does not require super-resolution processing is selected by selecting super-resolution processing. When located in the area 92, the execution of the super-resolution processing is not selected.
  • the imaging device 2 captures the ID cards 85 and 86 worn by the persons 83 and 84 on the chest, and the ID card area in the captured image 91 is captured. Based on the position, execution or non-execution of the super-resolution processing can be selected. As a result, even when an ID card is captured for ID authentication, both the ID card image captured at a short distance and the ID card image captured at a long distance are recognized without increasing the processing load of the apparatus. It becomes possible to do.
  • ID authentication is possible not only in the recognition area 92 that is close to the imaging apparatus 2 but also in the recognition area 93 that is far from the imaging apparatus 2. Therefore, even when there are a plurality of persons subject to ID authentication, ID authentication of a plurality of persons can be performed quickly and efficiently by performing ID authentication in both the recognition areas 92 and 93. In addition, if ID authentication is possible in both the recognition area 92 close to the security gate 82 and the recognition area 93 remote from the security gate 82, the chances of performing ID authentication increase, making it easier to find suspicious persons. It is also possible to prevent a person who has not undergone ID authentication from entering together with a person who has undergone ID authentication illegally.
  • face authentication may be performed in addition to ID authentication by the ID cards 85 and 86, and the authentication result of face authentication and the authentication result of ID authentication may be collated.
  • ID authentication and face authentication are combined, it is possible to prevent spoofing, improve visibility of entry / exit records, record suspicious persons, and the like.
  • Authentication should be performed.
  • a method for collating the images of the face regions 87 and 88 with the face image of the person to be authenticated is not particularly limited, and various techniques such as a method based on similarity can be used. .
  • the identification medium recognition system 1 according to the fourth embodiment can be applied not only to personal authentication in the security gate 82 but also to ID authentication for various other purposes.
  • a construction site a construction site, or the like
  • an identification medium in which worker information such as a worker's name and identification number is written is attached to a helmet worn by the worker.
  • the worker information can be read from the identification medium attached to the helmet by applying the identification medium recognition system 1 according to the fourth embodiment.
  • various states such as a work state and a health state, for every worker. For example, by extracting biological information such as a pulse wave and a pulse from the skin color area of the worker, the health state can be managed for each worker.
  • the identification plate recognition system 1 according to the fifth embodiment of the present disclosure will be described using a license plate as an example of the identification medium.
  • the identification medium recognition system 1 according to the fifth embodiment of the present disclosure has the same configuration as the identification medium recognition system 1 shown in FIGS. 1A and 1B described above.
  • a license plate used in Japan that is, an automobile registration number mark will be described as an example of the identification medium.
  • a series of designated numbers is displayed as a character string to be recognized by the identification medium recognition device 3.
  • This series designation number is mainly composed of 4-digit Arabic numerals with a hyphen “-” inserted between the upper two digits and the lower two digits.
  • a middle point “ ⁇ ” is displayed in place of “0” (or a blank) in the upper digit (in this case, the middle point “ ⁇ ”). Is treated as a number).
  • the character string in the identification medium image recognized by the identification medium recognition system 1 is preferably composed of characters (particularly numbers), but is not strictly limited to characters (including numbers). It may include symbols and simple figures. Further, the number of characters in such a character string is not limited to four (here, four digits), and may be at least plural. Further, the characters in such a character string are not limited to those arranged in a single line such as a multi-digit number, and constitute at least a character group, and positions in the identification medium image or relative positions between characters. Any arrangement can be used as long as the arrangement order can be substantially set according to the position.
  • the imaging device 2 is composed of a digital still camera equipped with an image sensor such as a CCD or a digital video camera, and acquires an identification medium image by imaging a vehicle equipped with a license plate as an identification medium.
  • the identification medium image is a captured image including the identification medium as a main subject, but usually includes a vehicle body other than the identification medium, surrounding objects, and the like.
  • a monitoring camera installed at a road or an entrance of a facility, an in-vehicle camera mounted on a vehicle, or the like can be used.
  • the identification medium image captured by the imaging device 2 is sequentially sent to the identification medium recognition device 3 so as to be displayed on the display device 5 and stored in the external storage device 4.
  • the identification medium image may be temporarily stored in the memory in the imaging apparatus 2 without being directly sent to the identification medium recognition apparatus 3.
  • the identification medium recognition device 3 is, for example, a PC (Personal Computer). As shown in FIG. 1B, in the identification medium recognition apparatus 3, a processor 121 that comprehensively executes processing for recognizing a character string in an identification medium image based on a predetermined control program, and a volatilization functioning as a work area of the processor 121. A random access memory (RAM) 122 and a read only memory (ROM) 123 that stores control programs and data executed by the processor 121 are connected to the input / output bus 25, respectively.
  • RAM random access memory
  • ROM read only memory
  • the identification medium recognition device 3 includes peripheral devices such as an input device 24 such as a keyboard and a mouse, a display device 5 including a monitor such as a liquid crystal, and a storage such as an HDD (Hard Disk Drive) and a flash memory.
  • the external storage device 4 is connected.
  • the function of each unit of the identification medium recognition device 3 can be realized mainly by the processor 121 executing the control program.
  • the connection form of the identification medium recognizing device 3, the imaging device 2, the external storage device 4, and the display device 5 is not particularly limited.
  • the identification medium recognizing device 3 may be directly connected by a communication cable, or may be a LAN (Local Area). (Network) or the like may be in a network connection form via wired or wireless communication.
  • the identification medium recognition device 3 is not limited to a PC, and can also be realized as a server having a similar function, a digital camera, or the like.
  • reference characters image data of individual characters that can form a character string of the identification medium to be recognized. It is remembered.
  • the reference image includes image data of all the Arabic numerals (here, “1”-“9”) and the midpoint “•” constituting the series designation number as image data of reference characters. included.
  • FIG. 11 is a functional block diagram according to the fifth embodiment of the identification medium recognition device 3 shown in FIG. 1A.
  • FIG. 12 is a diagram illustrating an example of a calculation result by the similarity calculation unit 136 in FIG. 11, and
  • FIG. 13 is a diagram illustrating an example of extraction of higher candidates for correlation values by the similarity evaluation unit 137 in FIG. .
  • FIG. 14 is a diagram illustrating an example of an evaluation value calculation result of each digit by the similarity evaluation unit 137 in FIG.
  • FIG. 15 is an explanatory diagram showing a modification of the candidate number extraction method by the similarity evaluation unit 137. In FIG. 15, for each digit, an evaluation value is shown on the vertical axis and a number is shown on the horizontal axis.
  • the reference image generation unit 131 acquires the reference character image stored in the external storage device 4 and appropriately combines these reference character images to obtain the recognition target image.
  • a reference image of all character strings that can be displayed on the identification medium (number plate) is sequentially generated.
  • a fourth digit character string “5775” (more precisely, a hyphen “-” is inserted between the upper 2 digits and the lower 2 digits. The same applies hereinafter) is generated as the reference image.
  • 9999 reference images from “... 1” to “9999” constituting a series designation number (a character string to be recognized) are actually generated sequentially.
  • the projective transformation matrix acquisition unit 132 acquires an identification medium (number plate) image to be evaluated stored in the external storage device 4 and detects corner portions (four corners) of the identification medium (number plate) in the image. Thus, a plane projective transformation matrix is calculated from the coordinates of these four points.
  • the projective transformation processing unit 133 sequentially performs projective transformation on the reference image generated by the reference image generating unit 131 using the planar projective transformation matrix. As a result, a reference image (hereinafter referred to as “converted image”) deformed in the same manner as the identification medium (number plate) of the captured image is obtained.
  • the image degradation processing unit 134 performs an image degradation process (hereinafter referred to as “degraded image”) by performing a simulated degradation process by image processing such as downsampling of the converted image and blurring process. Generate sequentially.
  • the similarity calculation unit 136 acquires the identification medium (number plate) image to be evaluated stored in the external storage device 4, and sequentially calculates the similarity between each character string in the image and each deteriorated image.
  • the following image correlation coefficient hereinafter referred to as “correlation value” is used as the similarity indicating the degree of similarity between images.
  • the similarity evaluation unit 137 is a series in which the order of the correlation values is within a threshold value (here, the top 80), as shown in FIG. Extract the specified number.
  • FIG. 13 shows an example in which a series designation number “5025” in which the correlation value is 80th is extracted from a series designation number “5575” in which the correlation value is maximum. Note that instead of extracting a predetermined number (80 in this case) of sequential designation numbers as described above, the similarity evaluation unit 137 extracts a series of designation numbers whose correlation value is equal to or greater than a predetermined threshold value. It may be configured to.
  • the similarity evaluation unit 137 is similar to the serial designation number in the reference image in which the number (here, one numeral) is the same for each digit (arrangement order) to be evaluated in the extracted serial designation number. Find the sum of degrees. Further, the similarity evaluation unit 137 obtains a value obtained by dividing the sum of the similarities by the number of extracted serial designation numbers as an evaluation value. More specifically, the similarity evaluation unit 37 relates to each digit (here, the first digit to the fourth digit) for each number (10 numbers including “1” to “9” and “•”). The sum of the similarities of the series designation numbers (that is, the similarity of the fourth digit number) is obtained, and a value obtained by dividing the sum by 80 is set as the evaluation value.
  • the similarity evaluation unit 137 obtains an evaluation value for the number “5” of the fourth digit (indicated by reference numeral 40 in FIG. 13) in the series designation number
  • the correlation value 0 of the series designation number “5575” is obtained.
  • correlation value 0.3575 of series designation number “5725” correlation value 0.3537 of series designation number “5715”
  • correlation value 0.3534 of series designation number “5375” is used as the evaluation value.
  • the similarity evaluation unit 137 can obtain evaluation values for the numbers “0” to “9” and “•” of the first digit to the fourth digit, respectively, as shown in FIG. Further, the similarity evaluation unit 37 extracts the number having the maximum value for the evaluation value of each digit in FIG. 14 as a character candidate (first candidate) that can form a character string in the identification medium (number plate) image ( decide.
  • the number “5” is the maximum evaluation value in the fourth digit
  • the number “7” is the maximum evaluation value in the third digit
  • the number “7” is the maximum evaluation value in the second digit.
  • the number “5” is the maximum evaluation value.
  • the similarity evaluation unit 137 determines the series designation number “5775” as the first candidate number of the character string in the identification medium (number plate) image, outputs it to the display device 5, and outputs it to the external storage device. 4 memorize.
  • the similarity evaluation unit 137 considers the difference between the evaluation value of the first candidate number and other evaluation values, for example, A plurality of candidate numbers less than or equal to the second candidate number can be determined. Based on the evaluation value of each digit in each digit, the similarity evaluation unit 37 determines one number having the smallest difference from the evaluation value of each digit of the series designation number “5775” as a number constituting the second candidate number. can do. More specifically, in the example of FIG. 15, the evaluation value of “5” having the highest evaluation value (0.135) in the fourth digit and “9” having the second highest evaluation value (0.055).
  • the similarity evaluation unit 137 can set “9775” obtained by replacing the fourth digit “9” with the corresponding fourth digit “5” in the series designation number “5775” as the second candidate number. .
  • the similarity evaluation unit 137 may extract further candidate numbers (such as “5375” and “5725” in the example of FIG. 15) equal to or less than the third candidate number by the same method as described above. In the present embodiment, the similarity evaluation unit 137 determines all candidates for four-digit numbers, but only a part of the candidates may be determined.
  • the evaluation value for each digit is calculated, but at least a number smaller than the number of characters constituting the character string to be recognized (for example, two digits). It can be set as the structure which calculates evaluation value with respect to.
  • FIG. 16 is a flowchart showing the flow of processing of the identification medium recognition device 3 shown in FIG.
  • the reference image generated in step ST302 is projectively transformed to generate a converted image (ST303).
  • the converted image generated in step ST303 is subjected to a deterioration process, whereby a deteriorated image is generated. Is generated (ST304). Further, the similarity (here, the correlation value) between the deteriorated image generated in step ST304 and the character string in the recognition medium (license plate) image to be recognized is calculated (ST305).
  • the series designation number n finally exceeds 9999 (ST306: No)
  • a similarity evaluation process described in detail later is executed (ST308). This completes the character string recognition process.
  • FIG. 17 is a flowchart showing details of step ST308 in FIG.
  • a character string having a similarity from a larger one (maximum value) to a number within a predetermined threshold here, , A series designated number
  • ST401 a character string having a similarity from a larger one (maximum value) to a number within a predetermined threshold (here, , A series designated number)
  • ST401 a character string having a similarity from a larger one (maximum value) to a number within a predetermined threshold
  • the character arrangement order d regarding step ST402 is set according to the character arrangement in the identification medium (number plate) image.
  • the digits of the serial designation number from the first digit to the fourth digit). One of these).
  • the arrangement order is determined according to the position of the character in the identification medium (number plate) image or the relative position between the characters. For example, when the character strings are displayed in one line in the left-right direction in the identification medium (number plate) image, the arrangement number of the character located on the rightmost side is 1, and 2, 3,... X (where x is an integer) and arrangement number can be set.
  • the character number s related to step ST403 is the type of character located in a predetermined character arrangement order, and here corresponds to a digit of each digit.
  • the character number s can be set based on the character code, for example.
  • Ns total number of characters
  • s total number of characters
  • step ST404 is again performed for the next character number. Execute.
  • the character number s finally exceeds Ns (ST406: No)
  • the arrangement order d finally exceeds 4 (ST408: No)
  • the normalization process is executed for each of the similarities calculated in step ST404 (ST410), and the similarity evaluation process ends.
  • the normalization processing in step ST410 for example, an operation of dividing each of the sums of similarities calculated in step ST404 by the number of high-order candidates extracted in step ST401 can be executed.
  • the evaluation values as shown in FIG. 14 are calculated by such similarity evaluation processing, and are output to the display device 5 and stored in the external storage device 4. Further, as described above, the identification medium recognition device 3 can determine at least one character candidate that can form a character string in the identification medium (number plate) image based on the evaluation values, and displays it as a display device. 5 and stored in the external storage device 4. The identification medium recognizing device 3 displays the upper candidates of the character strings in the identification medium (number plate) image based on the similarity as shown in FIG. Can be output.
  • the identification medium recognition system 1 recognizes not only the vehicle license plate but also the ID card worn by the person at the security gate 82 described in the fourth embodiment.
  • the present invention can also be applied to ID authentication for various purposes such as personal authentication.
  • the identification medium recognition system 1 according to the sixth embodiment of the present disclosure has the same configuration as the identification medium recognition system 1 according to the fifth embodiment illustrated in FIGS. 1A, 1B, and 11 described above.
  • the similarity calculation unit 136 calculates the similarity of the entire character string (series designation number), whereas in the sixth embodiment, the similarity calculation unit 136 calculates the character string. Similarity is calculated for a part of (but consisting of at least a plurality of characters).
  • matters not particularly mentioned below are the same as those of the fifth embodiment described above.
  • FIGS. 18 and 19 are diagrams each illustrating an example of the calculation result (upper 2 digits and lower 2 digits) of the similarity calculation unit 136 of the identification medium recognition device 3 according to the sixth embodiment of the present disclosure. These are figures which show an example of the evaluation value calculation result of each digit by the similarity evaluation part 137 of an identification medium recognition apparatus.
  • the similarity calculation unit 136 includes the upper two digits (up to “••”-“99”) and the lower two digits (“• 1”) of the serial designation number. “-99” and “00”-“09”), the correlation value is calculated.
  • the similarity evaluation unit 137 extracts a series designation number (upper two digits) in which the order of the correlation value is within the threshold based on the correlation values shown in FIG. For each digit number to be evaluated in (digits), the sum of similarities is calculated for a series of specified numbers (the upper two digits) that contain the same number, and the value obtained by dividing the sum by the number of extracted series specified numbers is evaluated. Calculate as a value. In this way, the similarity evaluation unit 137 can obtain the evaluation value for each upper two-digit number as shown in FIG. Although the detailed description is omitted, similarly, the similarity evaluation unit 137 can obtain the evaluation value of each lower two-digit number based on the correlation value shown in FIG.
  • the identification medium recognition system 1 recognizes not only the vehicle license plate but also the ID card worn by the person at the security gate 82 described in the fourth embodiment.
  • the present invention can also be applied to ID authentication for various purposes such as personal authentication.
  • the identification medium recognition device of the present disclosure when the area of the identification medium in the captured image is located within a preset area in the captured image, the super-resolution processing is selected. Since it comprised as mentioned above, based on the position of the area
  • the identification medium recognition device of the present disclosure since it is configured to select whether or not to perform the super-resolution processing based on at least one of the degree of distortion and the area size of the area of the identification medium, Based on at least one of the degree of distortion and the region size, execution or non-execution of the super-resolution processing can be selected. Therefore, by detecting the region of the identification medium image captured at a long distance based on at least one of the degree of distortion and the region size, the identification medium image captured at a long distance can be super-resolved. Thereby, it is possible to recognize both the identification medium image captured at a short distance and the identification medium image captured at a long distance without increasing the processing load of the apparatus.
  • the identification medium recognition device of the present disclosure when the r evaluation value exceeds a predetermined value and the area size falls below a predetermined value, the super resolution processing is selected to be performed. Therefore, the region of the identification medium image captured at a long distance can be detected based on the degree of distortion and the region size of the region of the identification medium.
  • Photographing is performed to calculate an evaluation value including the sum of similarities for each reference image having the same reference character, and to determine at least one character candidate that can form a character string in the license plate image based on the evaluation value It is possible to reduce erroneous recognition of character strings in the identified identification medium image.
  • the identification medium recognition device of the present disclosure it is possible to obtain a more appropriate evaluation value by excluding a reference image having a relatively low similarity in calculating an evaluation value.
  • the identification medium recognition device of the present disclosure by calculating an evaluation value including the sum of similarities for each reference image in which a plurality of adjacent reference characters are the same, the evaluation value calculation process is facilitated. Become.
  • the identification medium recognition device of the present disclosure by focusing on one character included in the character string, it is possible to appropriately evaluate the similarity of individual characters and obtain a more appropriate evaluation value. Become.
  • the identification medium recognition device of the present disclosure since the evaluation values are calculated for all the arrangement orders, it is possible to appropriately determine all the character candidates that can form the character string in the license plate image.
  • the identification medium recognition device of the present disclosure it is possible to acquire an appropriate evaluation value by a simple process by using the correlation coefficient as the similarity.
  • the user can easily estimate the character string in the license plate image with reference to at least one character candidate based on the evaluation value and the character string candidate based on the similarity. Is possible.
  • An identification medium recognition apparatus and an identification medium recognition method recognize both an identification medium image captured at a short distance and an identification medium image captured at a long distance without increasing the processing load of the apparatus. It is useful as an identification medium recognition device and an identification medium recognition method that enable the above.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Character Discrimination (AREA)
  • Character Input (AREA)

Abstract

識別媒体認識装置(3)は、撮像装置により撮像された撮像画像を取得する画像取得部(11)と、撮像画像から識別媒体領域を検出する識別媒体領域検出部(12)と、識別媒体領域から識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識部(18)と、識別媒体領域の超解像処理を選択的に行う超解像処理部(17)と、撮像画像における予め設定された領域を記憶する領域記憶部(14)と識別媒体領域が前記予め設定された領域内に位置するか否かを判定する識別媒体領域判定部(13)と、識別媒体領域が予め設定された領域内に位置すると判定された場合には、超解像処理部による超解像処理の実施を選択する超解像処理選択部(16)とを備える。

Description

識別媒体認識装置および識別媒体認識方法
 本開示は、車両のナンバープレートやIDカード等の識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識装置および識別媒体認識方法に関する。
 セキュリティ環境の充実や、顧客管理などを目的として、道路や施設の出入口などに設置されたカメラで撮影された車両の画像からナンバープレートを読み取るための技術が普及している。例えば、幹線道路等に設置される自動車ナンバー自動読取装置では、所定方向に車道を走行する車両のナンバープレートを読み取ることが可能である。車両のナンバープレートやIDカード等の文字や数字が記された識別媒体を撮像し、撮像角度に起因する撮像画像の幾何学的な歪みを補正した後に、撮像画像から識別媒体の文字または数字を読み取る技術が知られている(例えば、特許文献1および特許文献2参照)。特許文献1に開示されている技術では、識別媒体(車両のナンバープレート)の画像上のサイズを特定し、特定されたサイズに適したパラメータを用いて歪み補正を行っている。また、特許文献2に開示されている技術では、遠距離で撮像した幾何学的歪みがより小さい識別媒体画像(ナンバープレート画像)を基準画像として利用して、近距離で撮像した幾何学的歪みがより大きな識別媒体画像の歪み補正を行っている。
 歪み補正を行うためには識別媒体画像の領域サイズがある程度の大きさを有している必要があり、そのためには、近距離で撮像した識別媒体画像を使用する必要がある。つまり、遠距離で撮像した識別媒体画像は、領域サイズが小さいため、認識処理を行うのが困難である。近距離で撮像された識別媒体画像および遠距離で撮像された識別媒体画像を両方とも認識できるようにするために、撮像された識別媒体画像の超解像処理を行うことも考えられるが、その場合は、装置の処理負荷が大きくなるという問題が生じる。
 一方、識別媒体の読み取りに特化した装置であっても、悪天候やカメラのレンズの汚れなどの撮影状況の変化により、明瞭な撮像画像が得られない場合がある。また、店舗や街頭などに設置された監視カメラでは、カメラの解像度や、撮影条件(撮像画像中の識別媒体のサイズや、撮影角度等)によっては、必ずしも識別媒体の認識に適した撮像画像が得られない場合がある。
 そこで、そのような識別媒体の認識に適さない撮像画像であっても、識別媒体画像における文字列の誤認識(読取ミス)を防止するための技術が開発されている。例えば、識別媒体画像における文字と、照合用の文字パターンとの相関値を算出し、その相関値が一定値以上となる場合にのみ文字を認識するようにした技術が知られている(特許文献3参照)。
 また、カメラにより撮影した撮像パターンを、予め記憶された複数の辞書パターンと比較し、辞書パターンごとに類似度を算出し、予め記憶されている辞書パターンごとの出現頻度に基づきその類似度を補正した補正類似度を算出し、その補整類似度が最も高い辞書パターンを決定する技術が知られている(特許文献4参照)。
 しかしながら、識別媒体に一連指定番号のような文字列(複数桁の数字や一連の文字など)が記載され、その文字列を認識する場合、その文字列全体と照合用のパターンとの類似度を評価するだけでは、文字列を構成する個々の数字や文字と照合用のパターンに含まれる個々の数字や文字との間の類似性が適切に反映されないという問題がある。
 本開示は、装置の処理負荷を大きくすることなく、近距離で撮像された識別媒体画像および遠距離で撮像された識別媒体画像を両方とも認識することを目的とする。さらに本開示は、撮影された識別媒体画像における文字列の誤認識を低減することを目的とする。
特開2014-006854号公報 特開2012-063869号公報 特開昭64-74700号公報 特開平10-63786号公報
 本開示の識別媒体認識装置は、識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識装置であって、撮像装置により撮像された撮像画像を取得する画像取得部と、撮像画像から識別媒体の領域を検出する識別媒体領域検出部と、識別媒体の領域から識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識部と、識別媒体の領域の超解像処理を選択的に行う超解像処理部と、撮像画像における予め設定された領域を記憶する領域記憶部と、識別媒体の領域が予め設定された領域内に位置するか否かを判定する識別媒体領域判定部と、識別媒体の領域が予め設定された領域内に位置すると判定された場合には、超解像処理部による超解像処理の実施を選択する超解像処理選択部とを備える。
 さらに、本開示の識別媒体認識装置は、識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識装置であって、撮像装置により撮像された撮像画像を取得する画像取得部と、撮像画像から識別媒体の領域を検出する識別媒体領域検出部と、識別媒体の領域から識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識部と、識別媒体の領域の超解像処理を選択的に行う超解像処理部と、識別媒体の領域の領域サイズ、および幾何学的歪みの度合いを示す値である歪み度の少なくとも一方を算出する領域パラメータ算出部と、識別媒体の領域の領域サイズおよび歪み度の少なくとも一方に基づいて、超解像処理部による超解像処理の実施、不実施を選択する超解像処理選択部とを備える。
 さらに、本開示の識別媒体認識装置は、撮影された識別媒体画像における文字列を認識する処理を実行するプロセッサを備えた識別媒体認識装置であって、文字列は、識別媒体画像中の位置または文字間の相対位置に応じて1からx(ただし、xは2以上の整数)までの配置順位が設定された複数の文字から構成され、プロセッサは、識別媒体画像中の文字列と、予め準備された複数の基準画像との類似度をそれぞれ算出し、文字列において評価対象となる配置順位にある1またはy(ただし、yはxよりも小さい2以上の整数)個の文字に対応する複数の基準画像にそれぞれ含まれる参照用文字について、当該参照用文字が同一となる基準画像ごとに類似度の和を含む評価値を算出し、評価値に基づき、識別媒体画像における文字列を構成し得る少なくとも1つの文字の候補を決定する。
 本開示の識別媒体認識方法は、識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識方法であって、撮像装置により撮像された撮像画像を取得する画像取得ステップと、撮像画像から識別媒体の領域を検出する識別媒体領域検出ステップと、識別媒体の領域から識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識ステップと、識別媒体の領域の超解像処理を選択的に行う超解像処理ステップと、撮像画像における予め設定された領域を記憶する領域記憶ステップと、識別媒体の領域が予め設定された領域内に位置するか否かを判定する識別媒体領域判定ステップと、識別媒体の領域が予め設定された領域内に位置すると判定された場合には、超解像処理ステップの実施を選択する超解像処理選択ステップとを有する。
 さらに、本開示の識別媒体認識方法は、識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識方法であって、撮像装置により撮像された撮像画像を取得する画像取得ステップと、撮像画像から識別媒体の領域を検出する識別媒体領域検出ステップと、識別媒体の領域から識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識ステップと、識別媒体の領域の超解像処理を選択的に行う超解像処理ステップと、識別媒体の領域の領域サイズ、および幾何学的歪みの度合いを示す値である歪み度の少なくとも一方を算出する領域パラメータ算出ステップと、識別媒体の領域の領域サイズおよび歪み度の少なくとも一方に基づいて、超解像処理ステップの実施、不実施を選択する超解像処理選択ステップとを有する。
 さらに、本開示の識別媒体認識方法は、撮影された車両の識別媒体画像における文字列を認識する処理を実行する識別媒体認識装置による識別媒体認識方法であって、文字列は、識別媒体画像中の位置または文字間の相対位置に応じて1からx(ただし、xは2以上の整数)までの配置順位が設定された複数の文字から構成され、識別媒体画像中の文字列と、予め準備された基準画像との類似度を算出し、文字列において評価対象となる配置順位にある1またはy(ただし、yはxよりも小さい2以上の整数)個の文字に対応する複数の基準画像にそれぞれ含まれる参照用文字について、当該参照用文字が同一となる基準画像ごとに類似度の和を含む評価値を算出し、評価値に基づき、識別媒体画像における文字列を構成し得る少なくとも1つの文字の候補を決定する。
 本開示によれば、装置の処理負荷を大きくすることなく、近距離で撮像された識別媒体画像および遠距離で撮像された識別媒体画像を両方とも認識できる。さらに、本開示によれば、撮影された車両等のナンバープレート画像における文字列の誤認識を低減できる。
図1Aは、本開示の実施形態に係る識別媒体認識システムの概略を示す構成図である。 図1Bは、図1Aに示した識別媒体認識装置のハードウェア構成を示すブロック図である。 図2は、本開示の第1実施形態に係る識別媒体認識装置の概略構成を示すブロック図である。 図3は、撮像装置により撮像された撮像画像の一例を示す図である。 図4は、本開示の第1実施形態に係る識別媒体認識装置による識別媒体認識処理の流れを示すフロー図である。 図5は、本開示の第2実施形態に係る識別媒体認識装置の概略構成を示すブロック図である。 図6は、撮像画像から抽出した識別媒体領域の一例を示す図である。 図7は、本開示の第2実施形態に係る識別媒体認識装置による識別媒体認識処理の流れを示すフロー図である。 図8Aは、本開示の第3実施形態に係る識別媒体認識システムにおいて撮像装置により撮像された撮像画像の一例を示す図であり、自車両が第2走行車線を走行している場合の図である。 図8Bは、本開示の第3実施形態に係る識別媒体認識システムにおいて撮像装置により撮像された撮像画像の一例を示す図であり、自車両が第1走行車線を走行している場合の図である。 図9は、本開示の第4実施形態に係る識別媒体認識システムの概略を示す構成図である。 図10は、撮像装置により撮像された撮像画像の一例を示す図である。 図11は、図1Aに示した識別媒体認識装置の第5実施形態に係る機能ブロック図である。 図12は、図11中の類似度演算部による演算結果の一例を示す図である。 図13は、図11中の類似評価部による相関値の上位候補の抽出例を示す図である。 図14は、図11中の類似評価部による各桁の評価値算出結果の一例を示す図である。 図15は、図11中の類似評価部による候補番号の抽出方法の変形例を示す説明図である。 図16は、図1Aに示した識別媒体認識装置の第5実施形態に係る処理の流れを示すフロー図である。 図17は、図16中のステップST108の詳細を示すフロー図である。 図18は、第6実施形態に係る識別媒体認識装置の類似度演算部による演算結果の一例(上位2桁)を示す図である。 図19は、第6実施形態に係る識別媒体認識装置の類似度演算部による演算結果の一例(下位2桁)を示す図である。 図20は、第6実施形態に係る識別媒体認識装置の類似評価部による各桁の評価値算出結果の一例を示す図である。
 以下、適宜図面を参照しながら、本開示に係る識別媒体認識装置および識別媒体認識方法を具体的に開示した実施形態(以下、「本実施形態」という)を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより請求の範囲に記載の主題を限定することは意図されていない。本明細書では、車両のナンバープレートやIDカード等の、撮像装置で撮像可能な文字や数字が記されたプレートやカード等を「識別媒体」と称することとする。文字には、平仮名、片仮名、漢字、アルファベット等が含まれる。なお、識別媒体は、プレートやカード状のものに限らず、例えばヘルメット等の識別対象物の表面に添付されるラベルやシール状の印刷物や、識別対象物の表面に直接印刷された表示物等であってもよい。また、識別媒体の文字や数字は、印刷されたものに限らず、手書きのものであってもよい。
 図1Aは、本開示の実施形態に係る識別媒体認識システム1の概略を示す構成図である。図1Bは、図1Aに示した識別媒体認識装置3のハードウェア構成を示すブロック図である。この識別媒体認識システム1は例えば、車両のナンバープレート等を撮像して読み取るためのシステムである。図1A及び図1Bに示すように、識別媒体認識システム1は、撮像装置2と、識別媒体認識装置3と、外部記憶装置4と、表示装置5とを備えて構成される。例えば図1A及び図1Bに示す識別媒体認識システム1が車両等のナンバープレートを識別媒体として撮影して得られた識別媒体画像における文字列を認識するためのシステムである場合、識別媒体認識システム1は、識別媒体を含む車両等を撮像する撮像装置2と、この撮像装置2によって取得された識別媒体画像における文字列の認識処理を実行する識別媒体認識装置3と、識別媒体認識装置3の処理に関わる各種データを記憶する外部記憶装置4と、撮像装置2により撮像された識別媒体画像や、識別媒体認識装置3の処理結果等を表示する表示装置5とを備える。
 撮像装置2は、CCD等のイメージセンサを備えたデジタルスチルカメラやデジタルビデオカメラであり、車道を走行する車両のナンバープレートを撮像する。撮像された画像には、主要な被写体としての識別媒体(ナンバープレート)の他に、車体や、周辺の物体等が含まれる。撮像装置2は、施設の出入口、車道の側方または上方に配置してもよいし、警察車両等の車両に搭載してもよい。撮像装置2を車道の側方に配置する場合は、車道の路側に設置された路側式のカメラ柱に取り付けるとよい。また、撮像装置2を車道の上方に配置する場合は、車道の路側から車道の上方に突出するように構成された片持式のカメラ柱または車道を跨ぐように構成された門型式のカメラ柱に取り付けるとよい。撮像装置2を車両に搭載する場合は、撮像装置2を搭載した車両が車道の路肩に停止した状態で、車両のナンバープレートを撮像するようにするとよい。撮像装置2により撮像された画像(撮像画像)は、識別媒体認識装置3に入力される。
 識別媒体認識装置3は、CPU、RAM、ROM、ネットワークインタフェースなどから構成される。識別媒体認識装置3は、撮像装置2から入力された撮像画像から識別媒体の領域を抽出し、識別媒体の領域に含まれている文字およびまたは数字を認識して識別媒体を読み取る。図1Bに示すように、識別媒体認識装置3では、所定の制御プログラムに基づき識別媒体画像における文字列を認識する処理を統括的に実行するプロセッサ121、このプロセッサ121のワークエリア等として機能する揮発性メモリであるRAM(Random Access Memory)122、プロセッサ121が実行する制御プログラムやデータを格納する不揮発性メモリであるROM(Read Only Memory)123が、それぞれ入出力バス125に接続されている。また、識別媒体認識装置3には、周辺機器として、キーボード及びマウス等の入力デバイスである入力装置124、液晶等のモニタからなる表示装置5、ならびにHDD(Hard Disk Drive)やフラッシュメモリ等のストレージである外部記憶装置4などが接続されている。なお、後述する図2,図5,図11の機能ブロック図において、識別媒体認識装置3の各部の機能は、主としてプロセッサ121が制御プログラムを実行することによって実現可能である。
 外部記憶装置4は、例えばHDD(Hard Disk Drive)装置であり、表示装置5は、例えばモニタ装置である。外部記憶装置4および表示装置5は、識別媒体認識装置3に接続されている。撮像装置2により撮像された画像、および識別媒体認識装置3で読み取られた識別媒体は、外部記憶装置4に記憶される。また、撮像装置2により撮像された画像、および識別媒体認識装置3で読み取られた識別媒体は、表示装置5に表示される。識別媒体画像は、識別媒体認識装置3に直接送られずに撮像装置2内のメモリに一旦記憶される構成であってもよい。
 識別媒体認識装置3と、撮像装置2、外部記憶装置4および表示装置5との接続形態は、特に限定されるものではなく、例えば、LAN(Local Area Network)などの有線または無線通信を介した接続であってもよいし、またはインターネットなどの通信ネットワークを介した接続であってよい。また、撮像装置2と識別媒体認識装置3は、識別媒体認識機能を備えた撮像装置として一体的に構成してもよい。その場合は、出力インターフェースを介して、外部記憶装置4および表示装置5に出力するように構成するとよい。また、外部記憶装置4の代わりに記録媒体を用いてもよい。
 (第1実施形態)
 次に、本開示の第1実施形態に係る識別媒体認識装置について、ナンバープレートを識別媒体の例として説明する。本開示の第1実施形態に係る識別媒体認識システム1は、上述の図1A,図1Bに示した識別媒体認識システム1と同様の構成を有している。図2は、本開示の第1実施形態に係る識別媒体認識装置の概略構成を示すブロック図である。図3は、撮像装置により撮像された撮像画像の一例を示す図である。図4は、本開示の第1実施形態に係る識別媒体認識装置による識別媒体認識処理の流れを示すフロー図である。
 図2に示すように、本開示の第1実施形態に係る識別媒体認識装置3は、画像取得部11と、識別媒体領域検出部12と、識別媒体領域判定部13と、領域情報記憶部14と、識別媒体画像抽出部15と、超解像処理選択部16と、超解像処理部17と、識別媒体認識部18とを備えている。
 画像取得部11は、撮像装置2により撮像された撮像画像21(図3参照)を取得する。図3の撮像画像21は、車道22の路側帯または歩道23に配置された撮像装置2により撮像された撮像画像である。車道22は片道3車線の道路であり、車両は図中の奥側(図中上側)から手前側(図中下側)に向かって走行する。車道22の3車線は、路肩側(図中右側)から順に、第1走行車線24、第2走行車線25、第3走行車線26と称することとする。そして、第1走行車線24上に領域27が、第2走行車線25上に領域28が、第3走行車線26上に領域29が設定されている。領域27、28、29は、後述する認識領域である。画像取得部11が取得した撮像画像は、識別媒体領域検出部12および識別媒体画像抽出部15に入力される。
 識別媒体領域検出部12は、画像認識技術を用いて、撮像画像から識別媒体の領域(以降、単に「識別媒体領域」と称する)を検出する。識別媒体領域検出部12で検出された識別媒体領域は、識別媒体領域判定部13に入力される。なお、識別媒体領域が検出されなかった場合は、識別媒体認識装置3による識別媒体認識処理を終了する。
 識別媒体領域判定部13は、撮像画像における識別媒体領域の位置が、撮像画像における、識別媒体の認識処理を実施する領域(以降、「認識領域」と称する)内に位置するか否かを判定する。この判定は、領域情報記憶部14に記憶されている認識領域に関する情報を参照して行う。認識領域に関する情報は、ユーザ等により予め設定されており、領域情報記憶部14に記憶されている。
 また、認識領域は、超解像処理を必要とする領域と、超解像処理を必要としない領域とに分けられている。超解像処理を必要とする領域は、請求の範囲における「撮像画像における予め設定された領域」に相当する。超解像処理を必要とする領域は、ユーザにより予め設定されており、領域情報記憶部14に記憶されている。識別媒体領域判定部13は、識別媒体位置が認識領域内に位置すると判定された場合に、その認識領域が、超解像処理を必要とする領域であるか、または超解像処理を必要としない領域であるかも判定する。
 図3に示す撮像画像21では、第1走行車線24上の領域27、第2走行車線25上の領域28、および第3走行車線26上の領域29が認識領域であり、領域27と領域28が超解像処理を必要としない領域、領域29が超解像処理を必要とする領域である。前述したように、識別媒体を認識するためには、識別媒体画像の領域サイズがある程度の大きさを有している必要がある。そのため、識別媒体は、近距離で撮像されることが望ましい。また、識別媒体画像の幾何学的歪みが大きいと、識別媒体を認識することができなくなる。そのため、識別媒体画像は、幾何学的歪みが小さいものである必要がある。第1走行車線24および第2走行車線25は撮像装置2との距離が近いため、第1走行車線24および第2走行車線25において近距離で撮像された識別媒体画像は、幾何学的歪みが小さくなる(すなわち、画像認識に適している)。したがって、識別媒体が近距離で撮像される第1走行車線24上の領域27および第2走行車線25上の領域28は、超解像処理を必要としない領域となる。第3走行車線26は撮像装置2との距離が遠いため、第3走行車線26において近距離で撮像された識別媒体画像は、幾何学的歪みが大きくなる(すなわち、画像認識に適していない)。一方、第3走行車線26において遠距離で撮像された識別媒体画像は、幾何学的歪みが比較的小さくなる(すなわち、画像認識に適している)。しかし、第3走行車線26において遠距離で撮像された識別媒体画像は、領域サイズが小さいので、超解像処理を実施する必要がある。したがって、識別媒体が遠距離で撮像される第3走行車線26上の領域29は、超解像処理を必要とする領域となる。
 識別媒体領域判定部13での判定結果、すなわち超解像処理を必要とする領域、および超解像処理を必要としない領域に関する情報は、超解像処理選択部16に入力される。また、識別媒体位置が認識領域内に位置すると判定された場合は、識別媒体領域判定部13は、識別媒体画像抽出部15に対して、撮像画像から識別媒体画像を抽出することを命令する。なお、識別媒体位置が認識領域内に位置しないと判定された場合は、識別媒体認識装置3による識別媒体認識処理を終了する。
 識別媒体画像抽出部15は、識別媒体領域判定部13から、撮像画像から識別媒体画像を抽出する命令を受け取ると、撮像画像から識別媒体領域の画像(以降、「識別媒体画像」と称する)を抽出する。具体的には、その後の認識処理等に適切な領域サイズ(画像サイズ)の識別媒体画像を、撮像画像から切り出す。抽出された識別媒体画像は、超解像処理選択部16に入力される。
 超解像処理選択部16は、識別媒体領域判定部13から受け取った、判定結果、すなわち超解像処理を必要とする領域、および超解像処理を必要としない領域に関する情報に基づいて、超解像処理の実施、不実施を選択する。具体的には、識別媒体領域が超解像処理を必要とする領域(図3の領域29)内に位置する場合は、超解像処理選択部16は超解像処理の実施を選択する。一方、識別媒体領域が超解像処理を必要としない領域(図3の領域27、28)内に位置する場合は、超解像処理選択部16は超解像処理の不実施を選択する。超解像処理の実施が選択された場合は、識別媒体画像は、超解像処理部17に入力される。超解像処理の不実施が選択された場合は、識別媒体画像は、識別媒体認識部18に入力される。
 超解像処理部17は、識別媒体画像の解像度を高める超解像処理を行う。超解像処理が行われた識別媒体画像は、識別媒体認識部18に入力される。本開示では、撮像画像における超解像処理を必要とする領域が予め定められているため、識別媒体画像の領域サイズ(画像サイズ)や幾何学的歪みの度合いが限定される。すなわち、識別媒体画像の文字サイズや幾何学的歪みのパターンが限定される。したがって、テンプレート型の超解像処理技術に使用されるテンプレート画像(参照画像)のパターンが限定されるので、データサイズをコンパクトにすることができ、その結果、処理速度を高めることが可能となる。
 識別媒体認識部18は、超解像処理選択部16から入力された超解像処理が行われていない識別媒体画像、または、超解像処理部17から入力された超解像処理が行われた識別媒体画像から、識別媒体に含まれる文字およびまたは数字を認識して、識別媒体を読み取る。識別媒体認識部18で読み取られた識別媒体は、外部記憶装置4に記憶されるか、または表示装置5に表示される。
 次に、図2に示した第1実施形態に係る識別媒体認識装置3による識別媒体認識処理の流れを、図4を参照して説明する。
 まず、画像取得部11は、撮像装置2により撮像された撮像画像を取得する(ST101)。続いて、識別媒体領域検出部12は、撮像画像から識別媒体領域を検出する(ST102)。次に、識別媒体領域検出部12は、撮像画像における識別媒体領域の位置を検出する(ST103)。
 続くステップST104では、識別媒体領域判定部13は、識別媒体領域が、識別媒体の認識処理を実施する領域(認識領域)内に位置するか否かを判定する。また、識別媒体領域判定部13は、識別媒体領域が認識領域内に位置すると判定された場合に、その認識領域が、超解像処理を必要とする領域であるか、または超解像処理を必要としない領域であるかも判定する。
 ステップST104で、識別媒体領域が認識領域内に位置すると判定された場合(ST104:Yes)は、ステップST105へ進む。識別媒体領域が認識領域内に位置しないと判定された場合(ST104:No)は、処理を終了する。
 ステップST105では、識別媒体画像抽出部15は、撮像画像から識別媒体領域の画像(識別媒体画像)を抽出する。続くステップST106では、超解像処理選択部16は、識別媒体領域判定部13から入力された、超解像処理を必要とする領域、および超解像処理を必要としない領域に関する情報に基づいて、超解像処理の実施、不実施を選択する。識別媒体領域が超解像処理を必要とする領域(以降、「超解像領域」と称する)内に位置する場合(ST106:Yes)は、ステップST107に進む。識別媒体領域が超解像処理を必要としない領域内に位置する場合(ST106:No)は、ステップST108に進む。
 ステップST107では、超解像処理部17は、識別媒体画像の超解像処理を行う。そして、ステップST108では、識別媒体認識部18は、超解像処理選択部16から入力された超解像処理が行われていない識別媒体画像、または、超解像処理部17から入力された超解像処理が行われた識別媒体画像から識別媒体に含まれる文字およびまたは数字を認識して、識別媒体を読み取る。
 このようにして、第1実施形態に係る識別媒体認識装置3によれば、撮像画像における識別媒体領域の位置に基づいて、超解像処理の実施、不実施を選択することが可能となる。したがって、遠距離で撮像された識別媒体画像の領域、すなわち撮像画像における領域サイズが小さくなる領域を超解像領域として設定することにより、遠距離で撮像された識別媒体画像を超解像処理することができ、これにより、装置の処理負荷を大きくすることなく、近距離で撮像された識別媒体画像および遠距離で撮像された識別媒体画像を両方とも認識することが可能となる。
 (第2実施形態)
 次に、本開示の第2実施形態に係る識別媒体認識システム1について、ナンバープレートを識別媒体の例として説明する。本開示の第2実施形態に係る識別媒体認識システム1は、上述の図1A,図1Bに示した識別媒体認識システム1と同様の構成を有している。図5は、第2実施形態に係る識別媒体認識装置3の概略構成を示すブロック図であり、図6は、撮像画像から抽出した識別媒体領域の一例を示す図であり、図7は、第2実施形態に係る識別媒体認識装置3による識別媒体認識処理の流れを示すフロー図である。
 この第2実施形態は、識別媒体認識装置3が、識別媒体領域判定部13および領域情報記憶部14を備えておらず、それらの代わりに、歪み度算出部31、領域サイズ算出部32、認識領域指定部33、および評価値情報記憶部34を備えている点が、上記した第1実施形態と異なる。歪み度算出部31および領域サイズ算出部32は、請求の範囲における領域パラメータ算出部に相当する。それ以外の点については、第1実施形態と同様であるため、説明は省略する。
 歪み度算出部31は、識別媒体領域の幾何学的歪みの度合いを示す値である歪み度を算出する。図6に示すように、識別媒体領域41は、略四角形の形状を有している。歪み度は、識別媒体領域41の四隅の内角A1~A4の角度を用いて、下記の数式(1)から求めることができる。歪み度算出部31で算出された歪み度は、認識領域指定部33に入力される。
Figure JPOXMLDOC01-appb-M000001
 領域サイズ算出部32は、識別媒体領域の領域サイズを算出する。略四角形状の識別媒体領域の輪郭を画定する4つの辺における、長さが長い方の縦方向の辺の高さのピクセル数を、領域サイズとする。図6では、図中右側の縦の辺の高さが、領域サイズとなる。領域サイズ算出部32で算出された領域サイズは、認識領域指定部33に入力される。
 認識領域指定部33は、まず、歪み度算出部31で算出された歪み度と、領域サイズ算出部32で算出された領域サイズとを用いて、識別媒体領域における領域サイズと歪み度とのバランスを評価する値である評価値を算出する。評価値は、下記の数式(2)から求めることができる。αは、予め定められた係数である。
 評価値=領域サイズ-α×歪み度   …数式(2)
 認識領域指定部33は、次に、算出された評価値に基づいて、識別媒体領域検出部12で検出された識別媒体領域を、識別媒体の認識処理を実施する領域である認識領域に指定するか否かを判定する。この判定は、評価値情報記憶部34に記憶されている評価値に関する情報を参照して行う。評価値に関する情報は、ユーザ等により予め設定されており、評価値情報記憶部34に記憶されている。具体的には、評価値が予め定められた閾値T1を超える場合は、識別媒体領域を認識領域に指定する。閾値T1は、識別媒体領域における領域サイズと歪み度とのバランスが、識別媒体の認識処理を実施するのに適切と判断される値とする。評価値が閾値T1以下である場合は、識別媒体認識装置3による識別媒体認識処理を終了する。識別媒体領域が認識領域に指定された場合は、認識領域指定部33は、識別媒体領域の領域サイズを超解像処理選択部16に入力する。また、認識領域指定部33は、識別媒体画像抽出部15に対して、撮像画像から識別媒体画像を抽出することを命令する。
 識別媒体画像抽出部15は、認識領域指定部33から、撮像画像から識別媒体画像を抽出する命令を受け取ると、撮像画像から識別媒体画像を抽出する。抽出された識別媒体画像は、超解像処理選択部16に入力される。
 超解像処理選択部16は、認識領域指定部33から受け取った識別媒体領域の領域サイズに基づいて、超解像処理の実施、不実施を選択する。具体的には、識別媒体領域の領域サイズが予め定められた閾値T2を下回った場合は、超解像処理選択部16は超解像処理の実施を選択する。領域サイズが小さいと、識別媒体の文字およびまたは数字の大きさが小さいことから、識別媒体認識部18での認識が困難になるため、超解像処理が必要と判断される。一方、領域サイズが閾値T2以上であった場合は、領域サイズが大きいことから超解像処理が不要と判断されるため、超解像処理選択部16は超解像処理の不実施を選択する。超解像処理の実施が選択された場合は、識別媒体画像は、超解像処理部17に入力される。超解像処理の不実施が選択された場合は、識別媒体画像は、識別媒体認識部18に入力される。
 超解像処理部17は、識別媒体画像の超解像処理を行う。超解像処理が行われた識別媒体画像は、識別媒体認識部18に入力される。そして、識別媒体認識部18は、超解像処理選択部16から入力された超解像処理が行われていない識別媒体画像、または、超解像処理部17から入力された超解像処理が行われた識別媒体画像から、識別媒体に含まれる文字およびまたは数字を認識して、識別媒体を読み取る。識別媒体認識部18で読み取られた識別媒体は、外部記憶装置4に記憶されるか、または表示装置5に表示される。
 なお、上述した、歪み度算出部31、領域サイズ算出部32および認識領域指定部33での算出方法または評価方法は一例であり、これに限定されるものではなく、他の様々な算出方法または評価方法を用いることが可能である。例えば、歪み度は、識別媒体領域の内角の角度ではなく、識別媒体領域の略四角形状の輪郭を画定する各辺の長さを用いて算出することも可能である。また、本実施形態では、識別媒体領域を、識別媒体の認識処理を実施する領域である認識領域に指定するか否かを判定は、歪み度および領域サイズの両方を用いて行ったが、前記判定は、歪み度および領域サイズの一方だけを用いて行うことも可能である。
 次に、図5に示した第2実施形態に係る識別媒体認識装置3による識別媒体認識処理の流れを、図7を参照して説明する。
 まず、画像取得部11は、撮像装置2により撮像された撮像画像を取得する(ST201)。続いて、識別媒体領域検出部12は、撮像画像から識別媒体領域を検出する(ST202)。
 次に、ステップST203では、歪み度算出部31は、識別媒体領域の歪み度を算出する。続くステップST204では、領域サイズ算出部32は、識別媒体領域の領域サイズを算出する。次のステップST205では、認識領域指定部33は、識別媒体領域の歪み度および領域サイズを用いて、識別媒体領域の歪み度と領域サイズとのバランスを表す値である評価値を算出する。
 そして、次のステップST206では、認識領域指定部33は、評価値が、予め定められた閾値T1を上回るか否かを判定する。ステップST206で、評価値が閾値T1を上回ると判定された場合(ST206:Yes)は、ステップST207へ進み、評価値が閾値T1以下であると判定された場合(ST206:NO)は、処理を終了する。
 ステップST207では、識別媒体画像抽出部15は、撮像画像から識別媒体画像を抽出する。続くステップST208では、超解像処理選択部16は、識別媒体領域の領域サイズが、予め定められた閾値T2を下回るか否かを判定する。ステップST208で、領域サイズが閾値T2を下回ると判定された場合(ST208:Yes)は、ステップST209へ進み、領域サイズが閾値T2以上であると判定された場合(ST208:NO)は、ステップST210に進む。
 ステップST209では、超解像処理部17は、識別媒体画像の超解像処理を行う。そして、ステップST210では、識別媒体認識部18は、超解像処理が行われた識別媒体画像または超解像処理が行われていない識別媒体画像から識別媒体に含まれる文字およびまたは数字を認識して、識別媒体を読み取る。
 このようにして、第2実施形態に係る識別媒体認識装置3によれば、識別媒体領域の領域サイズおよび歪み度に基づいて、超解像処理の実施、不実施を選択することができる。したがって、遠距離で撮像された識別媒体画像の領域、すなわち撮像画像における領域サイズが小さくなる領域を、歪み度および領域サイズに基づいて検出することにより、遠距離で撮像された識別媒体画像を超解像処理することができ、これにより、装置の処理負荷を大きくすることなく、近距離で撮像された識別媒体画像および遠距離で撮像された識別媒体画像を両方とも認識することが可能となる。
 (第3実施形態)
 次に、本開示の第3実施形態に係る識別媒体認識システム1について、ナンバープレートを識別媒体の例として説明する。本開示の第3実施形態に係る識別媒体認識システム1は、上述の図1A,図1Bに示した識別媒体認識システム1と同様の構成を有している。ただし、この第3実施形態は、撮像装置2が車道の側方または上方ではなく自車両に搭載されており、自車両の走行中に他車両のナンバープレートを撮像する点が、上記した第1実施形態と異なる。それ以外の点については、第1実施形態と同様であるため、説明は省略する。
 撮像装置2は、自車両のフロントガラスの上端付近(例えばルームミラーの裏側)に設置されており、自車両の前方に所定の角度範囲で広がる領域を撮像する。これにより、自車両の走行中に、自車両の前方に存在する他車両のナンバープレートを撮像することができる。他車両には、自車両の走行方向と同一方向に走行する先行車両、自車両の走行方向と反対方向に走行する対向車両、自車両の前方で停止している停止車両などが含まれる。撮像装置2としては、ドライブレコーダ用の車載カメラを使用することができる。なお、撮像装置2の種類、数、配置位置等は、特に限定されるものではなく、様々に改変可能である。例えば、撮像装置2を自車両の後部に設置し、自車両の後方に存在する他車両のナンバープレートを撮像するように構成してもよい。
 図8Aおよび図8Bは、撮像装置2により撮像された撮像画像51の一例を示す図である。図8Aおよび図8Bに示すように、撮像画像51には、自車両の前方の車道52が含まれる。車道52は中央分離帯53を有する片道2車線の道路であり、自車両は図中の手前側(図中下側)から奥側(図中上側)に向かって走行する。車道52の2車線は、路側帯54側(図中左側)の車線を第1走行車線55、中央分離帯53側の車線を第2走行車線56と称することとする。すなわち、第1走行車線55は、車道外側線61と車線境界線62との間の車線であり、第2走行車線56は、車線境界線62と車道中央線63との間の車線である。図8Aでは、自車両は第2走行車線56を走行しており、図8Bでは、自車両は第1走行車線55を走行している。
 そして、第1走行車線55および第2走行車線56の両車線上には、自車両に近い側(図中下側)に認識領域71が、自車両から遠い側(図中上側)に認識領域72がそれぞれ設定されている。また、中央分離帯53を挟んだ対向車線57には、認識領域73が設定されている。認識領域71は、超解像処理を必要としない領域であり、認識領域72および認識領域73は、超解像処理を必要とする領域である。第1実施形態において前述したように、車両のナンバープレートを認識するためには、識別媒体画像の領域サイズがある程度の大きさを有している必要がある。撮像装置2との距離が近い認識領域71において撮像された識別媒体画像は、領域サイズがある程度の大きさを有しているため、超解像処理を必要としない。一方、撮像装置2との距離が遠い認識領域72、73において撮像された識別媒体画像は、領域サイズが小さいため、超解像処理を必要とする。
 撮像装置2は自車両に搭載されているので、認識領域71、72、73は自車両の走行に伴い変化する。したがって、自車両の走行時には、認識領域71、72、73は随時設定する必要がある。具体的には、まず、第1走行車線55、第2走行車線56、対向車線57を認識する。第1走行車線55、第2走行車線56、対向車線57の認識は、車道52の路面に描かれた車道外側線61、車線境界線62、車道中央線63等の区画線に基づき行うようにするとよい。そして、第1走行車線55および第2走行車線56の両車線上における自車両に近い側の所定の範囲および形状の領域を認識領域71と設定し、自車両から遠い側の所定の範囲および形状の領域を認識領域72と設定する。また、対向車線57上の所定の範囲および形状の領域を認識領域73と設定する。認識領域71、72、73の範囲および形状に関する情報は、ユーザ等により予め設定されており、例えば記憶部に記憶される。
 あるいは、撮像画像51中における区画線61、62、63の位置、形状、傾斜角度を認識し、その認識結果に応じて、認識領域71、72、73の範囲および形状を設定するようにしてもよい。撮像画像51中における区画線61、62、63の位置等に対応する認識領域71、72、73の範囲および形状に関する情報は、ユーザ等により予め設定されており、例えば記憶部に記憶される。また、対向車線57の認識は、他車両の動きベクトルに基づき行うようにしてもよい。他車両の動きベクトルの向きが自車両に近づく方向である場合は、その他車両は対向車線57を走行していると判断することができる。
 識別媒体の認識処理は、第1実施形態において説明したのと同様にして行う。つまり、撮像画像51から検出された識別媒体領域が超解像処理を必要とする認識領域72、73内に位置する場合は、超解像処理の実施を選択し、超解像処理を必要としない認識領域71内に位置する場合は、超解像処理の実施を選択しない。
 このようにして、第3実施形態に係る識別媒体認識システム1によれば、自車両の走行中に自車両に搭載された撮像装置2により他車両のナンバープレートを撮像し、撮像画像51における識別媒体領域の位置に基づいて、超解像処理の実施、不実施を選択することができる。これにより、走行中の自車両から他車両のナンバープレートを撮像した場合でも、装置の処理負荷を大きくすることなく、近距離で撮像された識別媒体画像および遠距離で撮像された識別媒体画像を両方とも認識することが可能となる。
 なお、この第3実施形態では片側2車線の道路を例に挙げて説明したが、これに限定されるものではない。この第3実施形態は、片側1車線の道路、片側3車線以上の道路、一車線道路等にも適用可能である。また、一車線道路等で車道52の路面に区画線が描かれていない場合は、自車両の前方の路面を車道52として検出し、車道52上における自車両に近い側の所定の範囲および形状の領域を認識領域71と設定し、自車両から遠い側の所定の範囲および形状の領域を認識領域72と設定するとよい。
 (第4実施形態)
 次に、本開示の第4実施形態に係る識別媒体認識システム1について説明する。本開示の第4実施形態に係る識別媒体認識システム1は、上述の図1A,図1Bに示した識別媒体認識システム1と同様の構成を有している。ただし、この第4実施形態に係る識別媒体認識システム1は、車両のナンバープレートではなく人物が身につけているIDカードを認識する点が、上記した第1実施形態と異なる。それ以外の点については、第1実施形態と同様であるため、説明は省略する。
 図9は、本開示の第4実施形態に係る識別媒体認識システム1の概略を示す構成図である。この第4実施形態に係る識別媒体認識システム1は、個人認証を行うためにIDカードを撮像して読み取るためのシステムである。この第4実施形態では、建物内のある部屋への入退室を管理するために、IDカードによるID認証を行うことを想定している。
 図9に示すように、建物内の廊下81に、その先の部屋への入退室を管理するためのセキュリティゲート82が設置されており、セキュリティゲート82の上部またはその近傍の天井もしくは壁には撮像装置2が配置されている。セキュリティゲート82の前には、人物83、84が存在しており、人物83、84は胸にIDカード85、86をつけている。なお、IDカード85、86は、胸につけるのではなく、首からぶら下げるようにしてもよい。また、この第4実施形態では、人物の人数は2名であるが、人物の人数は、特に限定されるものではない。
 撮像装置2は、セキュリティゲート82の前方に所定の角度範囲で広がる領域を撮像する。これにより、人物83、84が胸につけているIDカード85、86を撮像することができる。この第4実施形態では、撮像装置2としてボックスカメラを用いているが、撮像装置2は特に限定されるものではない。例えば、撮像装置2は、全方位型カメラであってもよい。
 図10は、撮像装置2により撮像された撮像画像91の一例を示す図である。図10に示すように、撮像画像91には、人物83、84が胸につけているIDカード85、86が含まれる。また、図10に示すように、撮像画像91における撮像装置2に近い側(図中下側)には認識領域92が、撮像装置2から遠い側(図中上側)には認識領域93が設定されている。認識領域92は、超解像処理を必要としない領域であり、認識領域93は、超解像処理を必要とする領域である。認識領域92、93は、ユーザにより予め設定されており、識別媒体認識装置3の領域情報記憶部14に記憶されている。
 第1実施形態において前述したように、IDカードを認識するためには、識別媒体画像の領域サイズがある程度の大きさを有している必要がある。撮像装置2との距離が近い認識領域92において撮像されたIDカード画像は、領域サイズがある程度の大きさを有しているため、超解像処理を必要としない。一方、撮像装置2との距離が遠い認識領域93において撮像されたIDカード画像は、領域サイズが小さいため、超解像処理を必要とする。また、識別媒体画像の幾何学的歪みが大きいと、識別媒体を認識することができなくなる。そのため、識別媒体画像は、幾何学的歪みが小さいものである必要がある。図9に示すように撮像装置2がセキュリティゲート82の上方にある場合、識別媒体がセキュリティゲート82にあまりにも近いと、識別媒体画像の幾何学的歪みが大きくなることがある。その場合、認識領域92は、セキュリティゲート82よりも少し後方の、幾何学的歪みが小さい領域に設定されることが望ましい。これに対して、撮像装置2がセキュリティゲート82の横にある場合など、セキュリティゲート82の比較的近くまで幾何学的歪みが小さい識別媒体画像を撮像することができれば、認識領域92をセキュリティゲート82近くにまで設定することができる。
 IDカードの認識処理は、第1実施形態において説明したのと同様にして行う。つまり、撮像画像91から検出された識別媒体領域が超解像処理を必要とする認識領域93内に位置する場合は、超解像処理の実施を選択し、超解像処理を必要としない認識領域92内に位置する場合は、超解像処理の実施を選択しない。
 このようにして、第4実施形態に係る識別媒体認識システム1によれば、撮像装置2により人物83、84が胸につけているIDカード85、86を撮像し、撮像画像91におけるIDカード領域の位置に基づいて、超解像処理の実施、不実施を選択することができる。これにより、ID認証を行うためにIDカードを撮像した場合でも、装置の処理負荷を大きくすることなく、近距離で撮像されたIDカード画像および遠距離で撮像されたIDカード画像を両方とも認識することが可能となる。
 また、この第4実施形態に係る識別媒体認識システム1によれば、撮像装置2との距離が近い認識領域92だけでなく、撮像装置2との距離が遠い認識領域93においてもID認証が可能なので、ID認証の対象者が複数存在する場合でも、認識領域92、93の両領域においてID認証を行うことにより、複数の人物のID認証を迅速かつ効率的に行うことが可能となる。また、セキュリティゲート82に近い認識領域92と、セキュリティゲート82から離れた認識領域93との両領域におけるID認証が可能になるとID認証の実施機会が増えるため不審者を発見しやすくなり、これにより、ID認証を受けていない人物がID認証を受けた人物と共に不正に入室する共連れを防止することも可能となる。
 また、IDカード85、86によるID認証に加えて顔認証も行い、顔認証の認証結果とID認証の認証結果とを照合するようにしてもよい。このように、ID認証と顔認証とを組み合わせると、なりすましの防止、入退記録の視認性向上、不審者の記録等を実現することができる。この場合は、撮像画像91における人物83、84の顔領域87、88(図9および図10参照)の画像を、記憶部に予め記憶された認証対象者の顔画像と照合することにより、顔認証を行うとよい。なお、顔領域87、88の画像と、認証対象者の顔画像とを照合する方法は、特に限定されるものではなく、類似度に基づく方法等の、様々な技術を用いることが可能である。
 また、この第4実施形態に係る識別媒体認識システム1は、セキュリティゲート82での個人認証だけでなく、他の様々な用途でのID認証にも適用可能である。例えば、工事現場や建設現場等において、作業者が着用するヘルメットに、作業者の名前や認識番号等の作業者情報が記された識別媒体が取り付けられる場合がある。このような場合、この第4実施形態に係る識別媒体認識システム1を適用することにより、ヘルメットに取り付けられた識別媒体から、作業人情報を読み取ることができる。これにより、作業者毎に、作業状態や健康状態等の様々な状態を管理することが可能となる。例えば、作業者の肌色領域から脈波や脈拍等の生体情報を抽出することにより、作業者毎に健康状態を管理することが可能となる。
 (第5実施形態)
 次に、本開示の第5実施形態に係る識別媒体認識システム1について、ナンバープレートを識別媒体の例として説明する。本開示の第5実施形態に係る識別媒体認識システム1は、上述の図1A,図1Bに示した識別媒体認識システム1と同様の構成を有している。
 本開示の第5実施形態では、識別媒体として、日本国内で使用されるナンバープレート、すなわち自動車登録番号標を例として説明する。自動車登録番号標には、識別媒体認識装置3による認識処理の対象となる文字列として一連指定番号が表示されている。この一連指定番号は、主として上位2桁および下位2桁の間にハイフン「-」が挿入された4桁のアラビア数字から構成される。また、一連指定番号が3桁以下の数となる場合には、その上位の桁に「0」(または空白)の代わりに中点「・」が表示される(ここでは、中点「・」は数字として扱う)。
 なお、識別媒体認識システム1で認識される識別媒体画像における文字列は、文字(特に、数字)から構成されることが好ましいが、厳密に文字(数字を含む)に限定されるものではなく、記号や簡易な図形を含むものであってもよい。また、そのような文字列の文字数は、4個(ここでは、4桁)に限定されるものではなく、少なくとも複数であればよい。さらに、そのような文字列における文字は、複数桁の数字のように一列に配置されるものに限定されるものではなく、少なくとも文字群を構成し、識別媒体画像中の位置または文字間の相対位置に応じて実質的に配置順位を設定可能なものであればよい。
 撮像装置2は、CCD等のイメージセンサを備えたデジタルスチルカメラや、デジタルビデオカメラから構成され、識別媒体としてのナンバープレートを備えた車両等を撮像することにより、識別媒体画像を取得する。識別媒体画像は、主要な被写体として識別媒体を含む撮像画像であるが、通常は識別媒体以外の車体や、周辺の物体等が含まれる。撮像装置2としては、例えば、道路や施設の出入口などに設置された監視カメラや、車両等に搭載される車載カメラなどを用いることができる。撮像装置2で撮像された識別媒体画像は、識別媒体認識装置3に順次送られることにより、表示装置5に表示されるとともに、外部記憶装置4に記憶される。また、識別媒体画像は、識別媒体認識装置3に直接送られずに撮像装置2内のメモリに一旦記憶される構成であってもよい。
 識別媒体認識装置3は、例えばPC(Personal Computer)である。図1Bに示すように、識別媒体認識装置3では、所定の制御プログラムに基づき識別媒体画像における文字列を認識する処理を統括的に実行するプロセッサ121、このプロセッサ121のワークエリア等として機能する揮発性メモリであるRAM(Random Access Memory)122、プロセッサ121が実行する制御プログラムやデータを格納する不揮発性メモリであるROM(Read Only Memory)123が、それぞれ入出力バス25に接続されている。また、識別媒体認識装置3には、周辺機器として、キーボード及びマウス等の入力デバイスである入力装置24、液晶等のモニタからなる表示装置5、ならびにHDD(Hard Disk Drive)やフラッシュメモリ等のストレージである外部記憶装置4などが接続されている。なお、後述する図11の機能ブロック図において、識別媒体認識装置3の各部の機能は、主としてプロセッサ121が制御プログラムを実行することによって実現可能である。
 識別媒体認識装置3と、撮像装置2、外部記憶装置4、及び表示装置5との接続形態は特に限定されるものではなく、例えば、通信ケーブルによって直接接続してもよいし、LAN(Local Area Network)などの有線もしくは無線通信を介したネットワーク接続の形態でもよい。また、識別媒体認識装置3は、PCに限らず、同様の機能を有するサーバや、デジタルカメラ等として実現することもできる。
 外部記憶装置4には、撮像装置2で撮像された識別媒体画像とともに、認識対象となる識別媒体の文字列を構成し得る個々の文字(以下、「参照用文字」という。)の画像データが記憶されている。本実施形態では、基準画像には、参照用文字の画像データとして、一連指定番号を構成する全てのアラビア数字(ここでは、「1」-「9」)および中点「・」の画像データが含まれる。
 図11は、図1Aに示した識別媒体認識装置3の第5実施形態に係る機能ブロック図である。図12は、図11中の類似度演算部136による演算結果の一例を示す図であり、図13は、図11中の類似評価部137による相関値の上位候補の抽出例を示す図である。図14は、図11中の類似評価部137による各桁の評価値算出結果の一例を示す図である。図15は類似評価部137による候補番号の抽出方法の変形例を示す説明図である。図15では、各桁に関し、縦軸に評価値、横軸に数字がそれぞれ示されている。
 図11に示す識別媒体認識装置3において、基準画像生成部131は、外部記憶装置4に記憶された参照用文字の画像を取得し、それら参照用文字の画像を適宜組み合わせることにより、認識対象となる識別媒体(ナンバープレート)に表示され得る全ての文字列の基準画像を順次生成する。図11では、基準画像として第4桁の文字列「5775」(より厳密には、上位2桁および下位2桁の間にハイフン「-」が挿入されている。以下同様。)が生成された場合を示しているが、実際には、一連指定番号(認識対象の文字列)を構成する「・・・1」~「9999」までの9999通りの基準画像が順次生成される。
 また、射影変換行列取得部132は、外部記憶装置4に記憶された評価対象の識別媒体(ナンバープレート)画像を取得し、その画像における識別媒体(ナンバープレート)のコーナー部(四隅)を検出することにより、それら4点の座標から平面射影変換行列を算出する。射影変換処理部133は、その平面射影変換行列を用いて、基準画像生成部131で生成された基準画像を順次射影変換する。これにより、撮像画像の識別媒体(ナンバープレート)と同様に変形した基準画像(以下、「変換画像」という。)が得られる。画像劣化処理部134は、変換画像のダウンサンプリングや、ぼかし処理等の画像処理による模擬的な劣化処理を実行することにより、変換画像を劣化させた画像(以下、「劣化画像」という。)を順次生成する。
 類似度演算部136は、外部記憶装置4に記憶された評価対象の識別媒体(ナンバープレート)画像を取得し、その画像中の文字列について、各劣化画像との類似度を順次算出する。本実施形態では、画像間の類似性の高さを示す類似度として、以下のような画像相関係数(以下、「相関値」という。)を用いる。
Figure JPOXMLDOC01-appb-M000002
 類似度演算部136による類似度の演算処理結果として、図12に示すように、「・・・1」~「9999」までの一連指定番号の各々に対する相関値が求められる。それらの相関値は、表示装置5に表示されるとともに、外部記憶装置4に記憶される。
 類似評価部137は、図12に示した一連指定番号の各々に対する相関値に基づき、図13に示すように、相関値の大きさの順序が閾値(ここでは、上位80個)以内となる一連指定番号を抽出する。図13では、相関値が最大となる一連指定番号「5575」から相関値の大きさが80番目となる一連指定番号「5025」までが抽出された例が示されている。なお、類似評価部137は、上述のように所定数(ここでは、80個)の一連指定番号を抽出する代わりに、相関値の大きさが所定の閾値以上の値となる一連指定番号を抽出する構成であってもよい。
 また、類似評価部137は、抽出した一連指定番号において評価対象となる各桁(配置順位)の数字について、当該数字(ここでは、1つの数字)が同一となる基準画像における一連指定番号の類似度の和を求める。さらに、類似評価部137は、その類似度の和を一連指定番号の抽出数で除した値を評価値として求める。より詳細には、類似評価部37は、各桁(ここでは、第1桁-第4桁)に関し、各数字(「1」-「9」及び「・」を含む10個の数字)についてそれぞれ一連指定番号の類似度(すなわち、第4桁の数字の類似度)の和を求め、その和を80で除した値を評価値とする。
 例えば、類似評価部137は、一連指定番号における第4桁(図13中の符号40で示す)の数字「5」についての評価値を求める場合には、一連指定番号「5575」の相関値0.3993、一連指定番号「5725」の相関値0.3575、一連指定番号「5715」の相関値0.3537、一連指定番号「5375」の相関値0.3534、・・・・、一連指定番号「5175」の相関値0.3007、一連指定番号「5777」の相関値0.3009、及び一連指定番号「5025」の相関値0.2985の和を80で除した値を評価値とする。
 このようにして類似評価部137は、図14に示すように、第1桁-第4桁の各数字「0」-「9」、「・」に対する評価値をそれぞれ求めることができる。また、類似評価部37は、図14中の各桁の評価値に関して最大値をとる数字を、識別媒体(ナンバープレート)画像における文字列を構成し得る文字の候補(第1候補)として抽出(決定)する。図14の例では、第4桁では数字「5」が最大の評価値となり、第3桁では数字「7」が最大の評価値となり、第2桁では数字「7」が最大の評価値となり、第1桁では数字「5」が最大の評価値となる。これにより、類似評価部137は、識別媒体(ナンバープレート)画像中の文字列の第1の候補番号として一連指定番号「5775」を決定し、それを表示装置5に出力するとともに、外部記憶装置4に記憶する。
 なお、本実施形態では、第1の候補番号のみを求める例を示したが、類似評価部137は、例えば、第1の候補番号の評価値と他の評価値との差を考慮して、第2の候補番号以下の複数の候補番号を決定することができる。類似評価部37は、各桁における各数字の評価値に基づき、一連指定番号「5775」の各桁の評価値との差が最も小さい1つの数字を第2の候補番号を構成する数字として決定することができる。より詳細には、図15の例では、第4桁における最も高い評価値(0.135)を有する「5」と2番目に高い評価値(0.055)を有する「9」との評価値の差(0.080)が、他の桁における同様の評価値の差(例えば、第3桁における「7」と「3」の評価値の差(0.085)、第2桁における「7」と「2」の評価値の差(0.088)、第1桁における「5」と「3」の評価値の差(0.239))よりも小さい。そこで、類似評価部137は、その第4桁の「9」を一連指定番号「5775」において対応する第4桁の「5」と入れ替えた「9775」を第2の候補番号とすることができる。類似評価部137は、上記と同様の方法により、第3の候補番号以下の更なる候補番号(図15の例では、「5375」、「5725」等)を抽出してもよい。また、本実施形態では、類似評価部137は、4桁の数字の全ての候補を決定したが、その一部のみを決定する構成としてもよい。
 また、本実施形態では、各桁(すなわち、1つの桁)についての評価値を算出する構成としたが、少なくとも認識対象となる文字列を構成する文字数よりも小さい数(例えば、2つの桁)に対して評価値を算出する構成とすることができる。
 図16は、図1に示した識別媒体認識装置3の処理の流れを示すフロー図である。
 識別媒体認識装置3による文字列の認識処理では、まず、一連指定番号nが1(n=1)に設定され(ST301)、その一連指定番号に対応する参照用文字から構成される基準画像(すなわち、「・・・1」等)が生成される(ST302)。
 その後、ステップST302で生成された基準画像が射影変換されることにより、変換画像が生成され(ST303)、続いて、ステップST303で生成された変換画像に劣化処理が施されることにより、劣化画像が生成される(ST304)。さらに、ステップST304で生成された劣化画像と、認識対象の識別媒体(ナンバープレート)画像中の文字列との類似度(ここでは、相関値)が算出される(ST305)。
 そこで、一連指定番号nが9999以下(n≦9999)であるか(すなわち、類似度を算出すべき基準画像が残されているか)否かが判定され(ST306)、類似度を算出すべき基準画像が残されている場合(Yes)には、nに1を加算(n=n+1)し(ST307)、再びステップST302に戻って上述と同様の処理を実行する。最終的に一連指定番号nが9999を越えると(ST306:No)、ステップST305において各一連指定番号に対して算出された類似度に基づき、後に詳述する類似評価処理が実行され(ST308)、これにより文字列の認識処理が終了する。
 図17は、図16中のステップST308の詳細を示すフロー図である。このステップST308における類似評価処理では、まず、図16中のステップST305で算出された類似度に関し、より大きいもの(最大値)から所定の閾値以内の数までの類似度を有する文字列(ここでは、一連指定番号)からなる上位候補が抽出される(ST401)。そこで、文字列における文字の配置順位dが1(d=1)に設定され(ST402)、また、文字番号sが1(s=1)に設定される(ST403)。
 ここで、ステップST402に関する文字の配置順位dは、識別媒体(ナンバープレート)画像における文字の配置に応じて設定されるものであり、ここでは、一連指定番号の桁(第1桁から第4桁のいずれか)に相当する。認識対象である文字列に数字以外の文字等が含まれる場合でも、識別媒体(ナンバープレート)画像における文字の位置またはそれら文字間の相対位置に応じて配置順位が定められる。例えば、識別媒体(ナンバープレート)画像において文字列が左右方向に1列に表示されている場合、最も右側に位置する文字の配置番号を1とし、左方に向けて2、3、・・・・x(ただし、xは整数)と配置番号を設定することができる。
 また、ステップST403に関する文字番号sは、所定の文字の配置順位に位置する文字の種類であり、ここでは、各桁の数字に相当する。認識対象とする文字列に数字以外の文字等が含まれる場合には、例えば文字コードに基づき、文字番号sを設定することができる。
 そこで、ステップST402で設定された文字の配置順位において、ステップST403で設定された文字番号と一致する文字を含む全ての文字列(ST401で抽出されたもの)の類似度を加算する(ST404)。その加算結果は、外部記憶装置4に順次記憶される。
 その後、文字番号sがNs(全文字数)以下であるか(すなわち、所定の配置順位における全ての文字の各々に関し、類似度の加算が終了していない文字が残されているか)否かが判定され(ST406)、類似度の加算が終了していない文字が残されている場合(Yes)には、sに1を加算(s=s+1)し(ST407)、次の文字番号に関して再びステップST404を実行する。最終的に文字番号sがNsを越えると(ST406:No)、配置順位dが4以下(d≦4)であるか(すなわち、配置順位dがその最大値以下であるか)否かが判定される(ST408)。
 そこで、d≦4を満たす場合(ST408:Yes)には、dに1を加算(d=n+1)し(ST409)、再びステップST403に戻って次の桁(配置順位)に関して上述と同様の処理を実行する。最終的に配置順位dが4を越えると(ST408:No)、ステップST404で算出された類似度の和の各々について正規化処理が実行され(ST410)、これにより類似評価処理が終了する。ステップST410の正規化処理としては、例えば、ステップST404で算出された類似度の和の各々を、ステップST401で抽出された上位候補の数で除する演算を実行することができる。
 このような類似評価処理により、図14に示したような評価値が算出され、それらは、表示装置5に出力されるとともに、外部記憶装置4に記憶される。さらに、識別媒体認識装置3は、上述のように、それら評価値に基づき識別媒体(ナンバープレート)画像における文字列を構成し得る少なくとも1つの文字の候補を決定することができ、それを表示装置5に出力するとともに、外部記憶装置4に記憶する。なお、識別媒体認識装置3は、そのような評価値に基づく文字の候補とともに、図13に示したような類似度に基づく識別媒体(ナンバープレート)画像中の文字列の上位候補を表示装置5に出力することができる。
 以上に述べた本第5実施形態に係る識別媒体認識システム1は、車両のナンバープレートのみならず、第4実施形態で述べたセキュリティゲート82での人物が身につけているIDカードを認識して個人認証を行う場合などの、様々な用途でのID認証にも適用可能である。
 (第6実施形態)
 本開示の第6実施形態に係る識別媒体認識システム1は、上述の図1A,図1B及び図11に示した第5実施形態に係る識別媒体認識システム1と同様の構成を有している。ただし、上述の第5実施形態では、類似度演算部136が、文字列(一連指定番号)全体の類似度を算出するのに対し、第6実施形態では、類似度演算部136は、文字列の一部(ただし、少なくとも複数の文字からなる)について類似度を算出する。なお、第6実施形態に関し、以下で特に言及しない事項については、上述の第5実施形態と同様とする。
 図18および図19は、それぞれ本開示の第6実施形態に係る識別媒体認識装置3の類似度演算部136による演算結果の一例(上位2桁および下位2桁)を示す図であり、図20は、識別媒体認識装置の類似評価部137による各桁の評価値算出結果の一例を示す図である。
 第6実施形態では、類似度演算部136は、それぞれ図18および図19に示すように、一連指定番号の上位2桁(「・・」-「99」まで)および下位2桁(「・1」-「99」および「00」-「09」まで)の各々の数についてそれぞれ相関値を算出する。
 その後、類似評価部137は、図18に示した相関値に基づき、相関値の大きさの順序が閾値以内となる一連指定番号(上位2桁)を抽出し、さらに、一連指定番号(上位2桁)において評価対象となる各桁の数字について、同一の数字を含む一連指定番号(上位2桁)についての類似度の和を求め、その和を一連指定番号の抽出数で除した値を評価値として算出する。このようにして類似評価部137は、図20に示すように、上位2桁の各数字についての評価値を取得することができる。なお、詳細な説明は省略するが、同様に、類似評価部137は、図20に示した相関値に基づき、下位2桁の各数字の評価値を求めることができる。
 以上に述べた本第6実施形態に係る識別媒体認識システム1は、車両のナンバープレートのみならず、第4実施形態で述べたセキュリティゲート82での人物が身につけているIDカードを認識して個人認証を行う場合などの、様々な用途でのID認証にも適用可能である。
 以上に説明したように、本開示の識別媒体認識装置によれば、撮像画像における識別媒体の領域が、撮像画像における予め設定された領域内に位置する場合に超解像処理の実施を選択するように構成したので、撮像画像における識別媒体の領域の位置に基づいて、超解像処理の実施、不実施を選択することができる。したがって、遠距離で撮像された識別媒体画像の領域、すなわち撮像画像における領域サイズが小さくなる領域を「撮像画像における予め設定された領域」として設定することにより、遠距離で撮像された識別媒体画像を超解像処理することができ、これにより、装置の処理負荷を大きくすることなく、近距離で撮像された識別媒体画像および遠距離で撮像された識別媒体画像を両方とも認識することが可能となる。
 本開示の識別媒体認識装置によれば、識別媒体の領域の歪み度および領域サイズの少なくとも一方に基づいて超解像処理の実施、不実施を選択するように構成したので、識別媒体の領域の歪み度および領域サイズの少なくとも一方に基づいて、超解像処理の実施、不実施を選択することができる。したがって、遠距離で撮像された識別媒体画像の領域を、歪み度および領域サイズの少なくとも一方に基づいて検出することにより、遠距離で撮像された識別媒体画像を超解像処理することができ、これにより、装置の処理負荷を大きくすることなく、近距離で撮像された識別媒体画像および遠距離で撮像された識別媒体画像を両方とも認識することが可能となる。
 本開示の識別媒体認識装置によれば、r評価値が予め定められた値を上回り、かつ領域サイズが予め定められた値を下回った場合に、超解像処理の実施を選択するように構成したので、遠距離で撮像された識別媒体画像の領域を、識別媒体の領域の歪み度および領域サイズに基づいて検出することが可能となる。
 本開示の識別媒体認識装置によれば、識別媒体画像中の文字列において評価対象となる配置順位にある1またはy個の文字に対応する複数の基準画像にそれぞれ含まれる参照用文字について、当該参照用文字が同一となる基準画像ごとに類似度の和を含む評価値を算出し、その評価値に基づきナンバープレート画像における文字列を構成し得る少なくとも1つの文字の候補を決定するため、撮影された識別媒体画像における文字列の誤認識を低減可能となる。
 本開示の識別媒体認識装置によれば、評価値の算出において、類似度が比較的低い基準画像を排除することにより、より適切な評価値を取得することが可能となる。
 本開示の識別媒体認識装置によれば、隣接配置された複数の参照用文字が同一となる基準画像ごとに類似度の和を含む評価値を算出することにより、評価値の算出処理が容易となる。
 本開示の識別媒体認識装置によれば、文字列に含まれる1個の文字に注目することにより、個々の文字の類似性が適切に評価され、より適切な評価値を取得することが可能となる。
 本開示の識別媒体認識装置によれば、全ての配置順位に関して評価値が算出されるため、ナンバープレート画像における文字列を構成し得る全ての文字の候補を適切に決定することが可能となる。
 本開示の識別媒体認識装置によれば、類似度として相関係数を用いることにより、簡易な処理により適切な評価値を取得することが可能となる。
 本開示の識別媒体認識装置によれば、ユーザは、評価値に基づく少なくとも1つの文字の候補および類似度に基づく文字列の候補を参照して、ナンバープレート画像における文字列を容易に推定することが可能となる。
 以上、本開示を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本開示はこれらの実施形態によって限定されるものではない。なお、上記実施形態に示した本開示に係る識別媒体認識装置および識別媒体認識方法の各構成要素は、必ずしも全てが必須ではなく、少なくとも本開示の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。
 本開示に係る識別媒体認識装置および識別媒体認識方法は、装置の処理負荷を大きくすることなく、近距離で撮像された識別媒体画像および遠距離で撮像された識別媒体画像を両方とも認識することを可能とする識別媒体認識装置および識別媒体認識方法などとして有用である。
1  識別媒体認識システム
2  撮像装置
3  識別媒体認識装置
4  外部記憶装置
5  表示装置
11  画像取得部
12  識別媒体領域検出部
13  識別媒体領域判定部
14  領域情報記憶部
15  識別媒体画像抽出部
16  超解像処理選択部
17  超解像処理部
18  識別媒体認識部
121  プロセッサ
124  入力装置
125  入出力バス
131  基準画像生成部
132  射影変換行列取得部
133  射影変換処理部
134  画像劣化処理部
136  類似度演算部
137  類似評価部

Claims (14)

  1.  識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識装置であって、
     撮像装置により撮像された撮像画像を取得する画像取得部と、
     前記撮像画像から前記識別媒体の領域を検出する識別媒体領域検出部と、
     前記識別媒体の領域から前記識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識部と、
     前記識別媒体の領域の超解像処理を選択的に行う超解像処理部と、
     前記撮像画像における予め設定された領域を記憶する領域記憶部と、
     前記識別媒体の領域が前記予め設定された領域内に位置するか否かを判定する識別媒体領域判定部と、
     前記識別媒体の領域が前記予め設定された領域内に位置すると判定された場合には、前記超解像処理部による超解像処理の実施を選択する超解像処理選択部と
     を備えたことを特徴とする識別媒体認識装置。
  2.  識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識装置であって、
     撮像装置により撮像された撮像画像を取得する画像取得部と、
     前記撮像画像から前記識別媒体の領域を検出する識別媒体領域検出部と、
     前記識別媒体の領域から前記識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識部と、
     前記識別媒体の領域の超解像処理を選択的に行う超解像処理部と、
     前記識別媒体の領域の領域サイズ、および幾何学的歪みの度合いを示す値である歪み度の少なくとも一方を算出する領域パラメータ算出部と、
     前記識別媒体の領域の前記領域サイズおよび歪み度の少なくとも一方に基づいて、前記超解像処理部による超解像処理の実施、不実施を選択する超解像処理選択部と
     を備えたことを特徴とする識別媒体認識装置。
  3.  前記超解像処理選択部は、前記識別媒体の領域の前記領域サイズおよび歪み度に基づく値である評価値が予め定められた値を上回り、かつ前記領域サイズが予め定められた値を下回った場合に、前記超解像処理部による超解像処理の実施を選択することを特徴とする請求項2に記載の識別媒体認識装置。
  4.   撮影されたナンバープレート画像における文字列を認識する処理を実行するプロセッサを備えた請求項1又は請求項2に記載の識別媒体認識装置であって、
      前記識別媒体に含まれる文字およびまたは数字からなる文字列は、前記識別媒体画像中の位置または文字間の相対位置に応じて1からx(ただし、xは2以上の整数)までの配置順位が設定された複数の文字から構成され、
      前記プロセッサは、
      前記識別媒体画像中の前記文字列と、予め準備された複数の基準画像との類似度をそれぞれ算出し、
      前記文字列において評価対象となる配置順位にある1またはy(ただし、yはxよりも小さい2以上の整数)個の文字に対応する前記複数の基準画像にそれぞれ含まれる参照用文字について、当該参照用文字が同一となる前記基準画像ごとに前記類似度の和を含む評価値を算出し、
      前記評価値に基づき、前記識別媒体画像における文字列を構成し得る少なくとも1つの文字の候補を決定することを特徴とする識別媒体認識装置。
  5.   前記プロセッサは、複数の前記類似度のうちより大きいものから所定の閾値以内の数までの類似度のみを用いて前記評価値を算出することを特徴とする請求項4に記載の識別媒体認識装置。
  6.   前記y個の文字は、互いに連続する前記配置順位にあることを特徴とする請求項4に記載の識別媒体認識装置。
  7.   前記参照用文字は、1個の文字からなることを特徴とする請求項4に記載の識別媒体認識装置。
  8.   前記プロセッサは、全ての前記配置順位に関し、前記参照用文字が同一となる前記基準画像ごとに前記類似度の和を含む評価値を算出することを特徴とする請求項7に記載の識別媒体認識装置。
  9.   前記類似度は、前記識別媒体画像中の前記文字列と、前記基準画像との相関係数であることを特徴とする請求項4に記載の識別媒体認識装置。
  10.   前記プロセッサは、前記類似度に基づき、前記識別媒体画像中の前記文字列の候補を決定し、
      前記少なくとも1つの文字の候補および前記文字列の候補を表示する表示装置を更に備えたことを特徴とする請求項4に記載の識別媒体認識装置。
  11.  請求項1又は請求項2に記載のナンバープレート認識装置と、前記ナンバープレート画像を撮影する撮像装置とを備えたことを特徴とする識別媒体認識方法。
  12.  識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識方法であって、
     撮像装置により撮像された撮像画像を取得する画像取得ステップと、
     前記撮像画像から前記識別媒体の領域を検出する識別媒体領域検出ステップと、
     前記識別媒体の領域から前記識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識ステップと、
     前記識別媒体の領域の超解像処理を選択的に行う超解像処理ステップと、
     前記撮像画像における予め設定された領域を記憶する領域記憶ステップと、
     前記識別媒体の領域が前記予め設定された領域内に位置するか否かを判定する識別媒体領域判定ステップと、
     前記識別媒体の領域が前記予め設定された領域内に位置すると判定された場合には、前記超解像処理ステップの実施を選択する超解像処理選択ステップと
     を有することを特徴とする識別媒体認識方法。
  13.  識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識方法であって、
     撮像装置により撮像された撮像画像を取得する画像取得ステップと、
     前記撮像画像から前記識別媒体の領域を検出する識別媒体領域検出ステップと、
     前記識別媒体の領域から前記識別媒体に含まれる文字およびまたは数字を認識する識別媒体認識ステップと、
     前記識別媒体の領域の超解像処理を選択的に行う超解像処理ステップと、
     前記識別媒体の領域の領域サイズ、および幾何学的歪みの度合いを示す値である歪み度の少なくとも一方を算出する領域パラメータ算出ステップと、
     前記識別媒体の領域の前記領域サイズおよび歪み度の少なくとも一方に基づいて、前記超解像処理ステップの実施、不実施を選択する超解像処理選択ステップと
     を有することを特徴とする識別媒体認識方法。
  14.  請求項12又は請求項13に記載の識別媒体認識方法であって、
     前記識別媒体に含まれる文字およびまたは数字からなる文字列は、前記識別媒体画像中の位置または文字間の相対位置に応じて1からx(ただし、xは2以上の整数)までの配置順位が設定された複数の文字から構成され、
     前記識別媒体画像中の前記文字列と、予め準備された基準画像との類似度を算出し、
     前記文字列において評価対象となる配置順位にある1またはy(ただし、yはxよりも小さい2以上の整数)個の文字に対応する前記複数の基準画像にそれぞれ含まれる参照用文字について、当該参照用文字が同一となる前記基準画像ごとに前記類似度の和を含む評価値を算出し、
     前記評価値に基づき、前記識別媒体画像における文字列を構成し得る少なくとも1つの文字の候補を決定することを特徴とする識別媒体認識方法。
PCT/JP2016/003183 2015-07-14 2016-07-04 識別媒体認識装置および識別媒体認識方法 WO2017010058A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/742,375 US10853680B2 (en) 2015-07-14 2016-07-04 Identification medium recognition device and identification medium recognition method

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2015140393 2015-07-14
JP2015-140393 2015-07-14
JP2016017385A JP6709950B2 (ja) 2016-02-01 2016-02-01 ナンバープレート認識装置及びナンバープレート認識システム並びにナンバープレート認識方法
JP2016114315A JP6846654B2 (ja) 2015-07-14 2016-06-08 識別媒体認識装置および識別媒体認識方法
JP2016-114315 2016-06-08
JP2016-017385 2016-08-15

Publications (1)

Publication Number Publication Date
WO2017010058A1 true WO2017010058A1 (ja) 2017-01-19

Family

ID=57756875

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/003183 WO2017010058A1 (ja) 2015-07-14 2016-07-04 識別媒体認識装置および識別媒体認識方法

Country Status (1)

Country Link
WO (1) WO2017010058A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9868721B2 (en) 2015-05-20 2018-01-16 Amgen Inc. Triazole agonists of the APJ receptor
CN109145891A (zh) * 2018-06-27 2019-01-04 上海携程商务有限公司 客户端及其识别身份证的方法、识别身份证的系统
CN109409245A (zh) * 2018-09-30 2019-03-01 江苏满运软件科技有限公司 身份核验方法、系统、电子设备和存储介质
CN111662934A (zh) * 2020-06-12 2020-09-15 湖北大学 一种利用毕赤酵母发酵纤维素生产乙醇的方法及应用
WO2022154093A1 (ja) * 2021-01-14 2022-07-21 富士フイルム株式会社 真正性照合システム及び真正性照合方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008251029A (ja) * 2008-05-12 2008-10-16 Mitsubishi Heavy Ind Ltd 文字認識装置、ナンバープレート認識システム
JP2014238636A (ja) * 2013-06-06 2014-12-18 住友電工システムソリューション株式会社 バスロケーションシステムおよび中央装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008251029A (ja) * 2008-05-12 2008-10-16 Mitsubishi Heavy Ind Ltd 文字認識装置、ナンバープレート認識システム
JP2014238636A (ja) * 2013-06-06 2014-12-18 住友電工システムソリューション株式会社 バスロケーションシステムおよび中央装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9868721B2 (en) 2015-05-20 2018-01-16 Amgen Inc. Triazole agonists of the APJ receptor
CN109145891A (zh) * 2018-06-27 2019-01-04 上海携程商务有限公司 客户端及其识别身份证的方法、识别身份证的系统
CN109145891B (zh) * 2018-06-27 2022-08-02 上海携程商务有限公司 客户端及其识别身份证的方法、识别身份证的系统
CN109409245A (zh) * 2018-09-30 2019-03-01 江苏满运软件科技有限公司 身份核验方法、系统、电子设备和存储介质
CN111662934A (zh) * 2020-06-12 2020-09-15 湖北大学 一种利用毕赤酵母发酵纤维素生产乙醇的方法及应用
WO2022154093A1 (ja) * 2021-01-14 2022-07-21 富士フイルム株式会社 真正性照合システム及び真正性照合方法

Similar Documents

Publication Publication Date Title
WO2017010058A1 (ja) 識別媒体認識装置および識別媒体認識方法
US10853680B2 (en) Identification medium recognition device and identification medium recognition method
KR101756849B1 (ko) 노상 무인정산 주차관제 시스템
US20190066492A1 (en) License Plate Recognition
JP6846654B2 (ja) 識別媒体認識装置および識別媒体認識方法
Nguyen et al. On-line boosting for car detection from aerial images
WO2007080133A2 (en) Method for determining and fingerprinting a key frame of a video sequence
Yousef et al. SIFT based automatic number plate recognition
Hinz et al. Car detection in aerial thermal images by local and global evidence accumulation
KR102089298B1 (ko) 범용 문자 시퀀스 검출을 통한 다국적 차량번호판 인식 시스템 및 그 방법
JP6709950B2 (ja) ナンバープレート認識装置及びナンバープレート認識システム並びにナンバープレート認識方法
CN117542223B (zh) 基于计算机视觉的停车管理方法及系统
Ho et al. Intelligent speed bump system with dynamic license plate recognition
CN113033348A (zh) 行人重识别的俯视图像校正方法、存储介质和电子设备
CN113033353A (zh) 基于俯视图像的行人轨迹生成方法、存储介质和电子设备
Ahmad et al. A Review of Automatic Number Plate Recognition
Zamir et al. Visual business recognition: a multimodal approach.
Srikanth et al. Automatic vehicle number plate detection and recognition systems: Survey and implementation
JP2013033406A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Azzaoui et al. Segmentation of crescent sand dunes in high resolution satellite images using a support vector machine for allometry
Abadleh et al. Deep Neural Network-based Approach to Identifying Road Lanes
Kim et al. Real Time multi-lane detection using relevant lines based on line labeling method
Gupta et al. An Automated Number Plate Recognition System based on Optical Character Recognition
Musthafa et al. Smart Authentication System Using Deep Learning Techniques Based on Face and License Plate Recognition
CN113033350A (zh) 基于俯视图像的行人重识别方法、存储介质和电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16824044

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16824044

Country of ref document: EP

Kind code of ref document: A1