JP2010020622A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2010020622A
JP2010020622A JP2008181733A JP2008181733A JP2010020622A JP 2010020622 A JP2010020622 A JP 2010020622A JP 2008181733 A JP2008181733 A JP 2008181733A JP 2008181733 A JP2008181733 A JP 2008181733A JP 2010020622 A JP2010020622 A JP 2010020622A
Authority
JP
Japan
Prior art keywords
image
recognition result
character
recognition
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008181733A
Other languages
Japanese (ja)
Other versions
JP5339581B2 (en
Inventor
Minoru Takakura
穂 高倉
Mariko Takenouchi
磨理子 竹之内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008181733A priority Critical patent/JP5339581B2/en
Priority to EP09752712.1A priority patent/EP2154664A4/en
Priority to US12/601,989 priority patent/US8509571B2/en
Priority to CN200980000390.XA priority patent/CN101689328B/en
Priority to PCT/JP2009/001981 priority patent/WO2009150783A1/en
Publication of JP2010020622A publication Critical patent/JP2010020622A/en
Priority to US13/715,166 priority patent/US8620094B2/en
Application granted granted Critical
Publication of JP5339581B2 publication Critical patent/JP5339581B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor and image processing method for selectively recording an image which includes significant information without restricting an object to a license plate. <P>SOLUTION: A plurality of images and additional information about the images are stored to an image data temporary storage part 111, character recognition in an image is performed by a character recognition part 114, the result of recognition corresponding to the plurality of images held by the image data temporary storage part 111 is held by a recognition result storage part 115, timing of a change of image content is detected by a recognition result evaluation part 117, and the image of the image data temporary storage part 111 is recorded to an external image accumulation medium 103 only when a change has occurred in an image content. Thus, the change of image content can be detected even for a figure image putting on a name plate or an image which does not always have the whole license plate, and the external image accumulation medium is effectively used. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、例えば監視カメラ等により撮影された画像に記録された対象物の変化を、同時に記録された文字情報を用いて解析する画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for analyzing changes in an object recorded in an image photographed by, for example, a monitoring camera using character information recorded at the same time.

監視カメラ等により連続して撮影される画像には、対象物が何も記録されていない画像や、同じ対象を連続して記録した画像が含まれる。記録メディアの容量は有限なので、これらの膨大な画像の中から対象物が記録されており、かつ対象物ごとに1画像を選択して記録メディアに格納すれば、記録メディアを有効に利用することができる。   Images continuously captured by a surveillance camera or the like include images in which no object is recorded and images in which the same object is continuously recorded. Since the capacity of the recording medium is finite, the object is recorded from among these enormous images, and if one image is selected for each object and stored in the recording medium, the recording medium can be used effectively. Can do.

従来の画像処理装置としては、画像入力手段とは別の物理センサを設けて対象物を検知し、そのセンサからの信号をきっかけとして画像を出力するものがある。また、物理センサを設けないで、撮影された画像中の文字を読み取り、連続する画像で読み取られた文字が一致するか否かで、連続して撮像された対象物が同一か否かを判定するものもある。   2. Description of the Related Art Some conventional image processing apparatuses include a physical sensor that is different from an image input unit, detects an object, and outputs an image using a signal from the sensor as a trigger. Also, without providing a physical sensor, the characters in the captured images are read, and it is determined whether or not the successively captured objects are the same based on whether or not the characters read in the consecutive images match. Some will do.

また、文字読み取りの誤りを考慮し、読み取られた文字が一致するか否かの判断と、対象物の形状が一致するか否かの判断を併せて行うものがある(例えば、特許文献1参照)。図15は、特許文献1に記載された従来の画像処理装置の概略構成を示すブロック図である。同図において、カメラ10によって撮像された画像はADC12でデジタル変換された後、画像メモリ14に格納される。画像メモリ14には常に最新の画像データが保持される。2値化回路16は画像メモリ14上のデータを2値化し、プレート切出部18はナンバープレート画像を切り出し、文字切出部20はナンバープレート画像中の文字画像を切り出し、文字認識部22は文字認識処理を行い、その結果をメモリ38に記憶する。   In addition, in consideration of character reading errors, there is a method that determines whether or not the read characters match and determines whether or not the shapes of the objects match (for example, see Patent Document 1). ). FIG. 15 is a block diagram showing a schematic configuration of a conventional image processing apparatus described in Patent Document 1. In FIG. In the figure, an image captured by the camera 10 is digitally converted by the ADC 12 and then stored in the image memory 14. The image memory 14 always holds the latest image data. The binarization circuit 16 binarizes the data on the image memory 14, the plate cutout unit 18 cuts out the license plate image, the character cutout unit 20 cuts out the character image in the license plate image, and the character recognition unit 22 Character recognition processing is performed and the result is stored in the memory 38.

一方、中心計算部30はナンバープレート位置を計算し、座標計算部32はエッジを検出する座標を計算し、エッジ検出部34はエッジ画像を生成し、マトリクス生成部36は指定座標におけるエッジの有無により形状判定用マトリクスを生成し、その結果をメモリ40に記憶する。判定部42は、得られた車番とマトリクスを前回の結果と比較し、対象物が同一であるか否かを判定し、車番の出力の制御を行う。   On the other hand, the center calculation unit 30 calculates the license plate position, the coordinate calculation unit 32 calculates the coordinates for detecting the edge, the edge detection unit 34 generates an edge image, and the matrix generation unit 36 determines whether there is an edge at the designated coordinates. To generate a shape determination matrix and store the result in the memory 40. The determination unit 42 compares the obtained vehicle number and matrix with the previous result, determines whether or not the object is the same, and controls the output of the vehicle number.

特開平7−272189号公報Japanese Patent Laid-Open No. 7-272189

しかしながら、上述した従来の構成では、対象物がナンバープレートを備えた車両に限定されるため、道路や駐車場といった特定の場所でナンバープレート全体が映るようにカメラが設定されている状況でのみ使用が可能であり、それ以外での使用が不可能であるという問題がある。   However, in the conventional configuration described above, the object is limited to a vehicle with a license plate, so it is used only in situations where the camera is set to show the entire license plate at a specific location such as a road or parking lot. However, there is a problem that it cannot be used in other cases.

本発明は、かかる事情に鑑みてなされたものであり、対象物をナンバープレートに限定することなく、有意な情報を持つ画像を選択的に記録することができる画像処理装置及び画像処理方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and provides an image processing apparatus and an image processing method capable of selectively recording an image having significant information without limiting an object to a license plate. The purpose is to do.

本発明の画像処理装置は、画像及び該画像に付帯する付帯情報を連続して入力する画像入力手段と、前記画像入力手段で入力された画像を一時記憶する画像一時記憶手段と、前記画像一時記憶手段に記憶された画像から文字を抽出する文字抽出手段と、前記文字抽出手段で抽出された文字を認識し、認識した文字に対する1ないし複数の候補文字と夫々の評価値とを認識結果として得る文字認識手段と、前記文字認識手段で得られた前記認識結果を記憶する認識結果記憶手段と、前記認識結果記憶手段に記憶された前記認識結果に基づき、前記画像一時記憶手段に記憶された画像を出力するか否かを判定する認識結果評価手段と、前記認識評結果評価手段で出力すると判定された画像を該画像の付帯情報及び前記認識結果と共に出力する画像出力制御手段と、を備え、前記画像一時記憶手段は、複数の画像を夫々の付帯情報と共に一時的に記憶し、前記認識結果記憶手段は、前記画像一時記憶手段に記憶されている複数の画像の夫々の文字の認識結果を記憶し、前記認識結果評価手段は、前記認識結果記憶手段に記憶されている複数の画像の夫々の文字の認識結果を調べ、前記複数の画像の認識結果中に同一文字列が含まれる場合には認識結果の評価値が最も良い画像を選択し、前記画像出力制御手段は、前記認識結果評価手段で選択された画像を該画像の付帯情報及び認識結果と共に出力する。   The image processing apparatus according to the present invention includes an image input unit that continuously inputs an image and supplementary information attached to the image, an image temporary storage unit that temporarily stores an image input by the image input unit, and the image temporary storage unit. A character extraction unit that extracts characters from an image stored in the storage unit, a character extracted by the character extraction unit is recognized, and one or a plurality of candidate characters and respective evaluation values for the recognized character are used as recognition results. Character recognition means, recognition result storage means for storing the recognition result obtained by the character recognition means, and based on the recognition result stored in the recognition result storage means, stored in the image temporary storage means A recognition result evaluation unit for determining whether or not to output an image, and an image for outputting the image determined to be output by the recognition evaluation result evaluation unit together with the auxiliary information of the image and the recognition result Force control means, wherein the image temporary storage means temporarily stores a plurality of images together with respective supplementary information, and the recognition result storage means stores a plurality of images stored in the image temporary storage means. The recognition result evaluation unit examines the recognition result of each character of the plurality of images stored in the recognition result storage unit, and includes the recognition result of the plurality of images in the recognition result of the plurality of images. If the same character string is included, the image with the best evaluation value of the recognition result is selected, and the image output control means outputs the image selected by the recognition result evaluation means together with the auxiliary information of the image and the recognition result. To do.

この構成によれば、認識結果評価手段で認識結果の同一性を判断する際、単一の認識結果のみでなく、候補文字の組み合わせで判断するため、同一対象物を認識の誤りにより同一でないと判断することを防止できる。これにより、対象物の同一性の判断に文字認識結果以外の特徴を用いる必要が無く、対象物をナンバープレートに限定することなく、画像入力手段より入力される大量の画像のうち、有意な情報を持つ画像を選択することができる。また、対象物の同一性を対象物の文字のみから判断するため、対象物を撮影する大きさ、方向に影響を受けない。これにより、異なる画像入力手段からの画像との間でも対象物の同一性を判定することができる。   According to this configuration, when the identity of the recognition result is determined by the recognition result evaluation unit, not only a single recognition result but also a combination of candidate characters is used, so the same object is not identical due to a recognition error. Judgment can be prevented. Thus, it is not necessary to use features other than the character recognition result for the determination of the identity of the object, and significant information can be obtained from a large number of images input from the image input means without limiting the object to the license plate. Images with can be selected. Further, since the identity of the object is determined only from the character of the object, the size and direction of photographing the object are not affected. Thereby, it is possible to determine the identity of the object even with images from different image input means.

また、上記構成において、前記認識結果評価手段は、前記認識結果記憶手段に記憶されている複数の画像の夫々の文字の認識結果を調べ、1画像中に文字が含まれるにも関わらず、全ての文字の認識結果も評価値が悪い場合はその旨を前記画像出力制御手段に通知し、前記画像出力制御手段は、前記認識結果評価手段から通知された前記画像を該画像の付帯情報及び認識結果と共に出力する。   In the above configuration, the recognition result evaluation unit examines the recognition result of each character of the plurality of images stored in the recognition result storage unit, and all the characters are included in one image. If the evaluation value of the character recognition result is also bad, the image output control means is notified to that effect, and the image output control means recognizes the image notified from the recognition result evaluation means as ancillary information and recognition of the image. Output with result.

この構成によれば、文字を認識できたにも関わらず、評価値の良い認識結果が得られなかった画像品質の悪い画像を出力するので、画像品質の悪い画像でも高機能なPC(Personal Computer)或いは認識ソフトで再処理を行うことができる。   According to this configuration, an image with poor image quality that does not provide a recognition result with a good evaluation value even though characters can be recognized is output. ) Or reprocessing can be performed with recognition software.

また、上記構成において、ネットワークを介して接続された他の画像処理装置の出力である、画像中の文字の認識結果と当該認識結果を得る元となった画像の付帯情報とを記憶する多カメラ認識結果連携手段を更に備え、前記認識結果評価手段は、前記認識結果記憶手段に記憶された認識結果と前記多カメラ認識結果連携手段に記憶された認識結果とを調べ、双方に同一の文字列が含まれ且つ画像の付帯情報及び認識結果の評価値が所定の条件を満たす場合は前記画像出力制御手段に前記画像の出力を行わない旨の通知を行い、前記認識結果記憶手段に記憶された認識結果に含まれる文字列が前記多カメラ認識結果連携手段に記憶された認識結果には含まれない場合或いは含まれても前記画像の付帯情報及び認識結果の評価値が所定の条件を満たさない場合は前記画像出力制御手段に前記画像を出力させる旨の通知を行い、前記画像出力制御手段は、前記認識結果評価手段から画像を出力する旨の通知を受けると、前記画像と該画像の付帯情報及び認識結果とを前記ネットワークへ出力する。   Further, in the above configuration, a multi-camera that stores a recognition result of characters in an image and auxiliary information of an image from which the recognition result is obtained, which is an output of another image processing apparatus connected via a network A recognition result linkage unit, wherein the recognition result evaluation unit examines the recognition result stored in the recognition result storage unit and the recognition result stored in the multi-camera recognition result linkage unit, and the same character string is used for both. Is included and the evaluation value of the recognition result satisfies the predetermined condition, the image output control means is notified that the image is not output, and is stored in the recognition result storage means. When the character string included in the recognition result is not included or included in the recognition result stored in the multi-camera recognition result cooperation unit, the additional information of the image and the evaluation value of the recognition result satisfy a predetermined condition. If not, the image output control means is notified to output the image, and the image output control means receives the notification to output an image from the recognition result evaluation means, and The incidental information of the image and the recognition result are output to the network.

この構成によれば、認識結果記憶手段に記憶された認識結果に含まれる文字列が多カメラ認識結果連携手段に記憶された認識結果には含まれない場合、或いは含まれても画像の付帯情報及び認識結果の評価値が所定の条件を満たさない場合は、ネットワークに接続可能な外部画像蓄積メディアに画像と該画像の付帯情報及び認識結果を記録できる。また、ネットワークに接続された他の画像処理装置は、当該画像の付帯情報及び認識結果を取得して、自己の多カメラ認識結果連携手段に記録できる。   According to this configuration, when the character string included in the recognition result stored in the recognition result storage unit is not included in the recognition result stored in the multi-camera recognition result cooperation unit, or even if included, the incidental information of the image If the evaluation value of the recognition result does not satisfy a predetermined condition, the image, the supplementary information of the image, and the recognition result can be recorded on an external image storage medium connectable to the network. Also, other image processing apparatuses connected to the network can acquire the supplementary information and the recognition result of the image and record them in their own multi-camera recognition result cooperation unit.

本発明の画像処理方法は、画像及び該画像に付帯する付帯情報を連続して入力する画像入力工程と、前記画像入力工程で入力された画像を一時記憶する画像一時記憶工程と、前記画像一時記憶工程で記憶された画像から文字を抽出する文字抽出工程と、前記文字抽出工程で抽出された文字を認識し、認識した文字に対する1ないし複数の候補文字と夫々の評価値とを認識結果として得る文字認識工程と、前記文字認識工程で得られた認識結果を記憶する認識結果記憶工程と、前記認識結果記憶工程で記憶された認識結果に基づき、前記画像一時記憶工程で記憶された画像を出力するか否かを判定する認識結果評価工程と、前記認識評結果評価工程で出力すると判定された画像を該画像の付帯情報及び認識結果と共に出力する画像出力制御工程と、を備え、前記画像一時記憶工程では、複数の画像を夫々の付帯情報と共に一時的に記憶し、前記認識結果記憶工程では、前記画像一時記憶工程で記憶された複数の画像の夫々の文字の認識結果を記憶し、前記認識結果評価工程では、前記認識結果記憶工程で記憶された複数の画像の夫々の文字の認識結果を調べ、前記複数の画像の認識結果中に同一文字列が含まれる場合には認識結果の評価値が最も良い画像を選択し、前記画像出力制御工程では、前記認識結果評価工程で選択された画像を該画像の付帯情報及び認識結果と共に出力する。   The image processing method of the present invention includes an image input step for continuously inputting an image and incidental information attached to the image, an image temporary storage step for temporarily storing the image input in the image input step, and the image temporary storage step. A character extraction step for extracting characters from the image stored in the storage step, a character extracted in the character extraction step is recognized, and one or a plurality of candidate characters and respective evaluation values for the recognized characters are recognized as recognition results. A character recognition step, a recognition result storage step for storing the recognition result obtained in the character recognition step, and an image stored in the image temporary storage step based on the recognition result stored in the recognition result storage step. A recognition result evaluation step for determining whether or not to output, and an image output control step for outputting the image determined to be output in the recognition evaluation result evaluation step together with the auxiliary information of the image and the recognition result In the image temporary storage step, a plurality of images are temporarily stored together with the accompanying information, and in the recognition result storage step, characters of the plurality of images stored in the image temporary storage step are stored. The recognition result is stored, and in the recognition result evaluation step, the recognition result of each character of the plurality of images stored in the recognition result storage step is checked, and the same character string is included in the recognition result of the plurality of images. In this case, an image having the best evaluation value of the recognition result is selected, and in the image output control step, the image selected in the recognition result evaluation step is output together with the auxiliary information of the image and the recognition result.

この方法によれば、認識結果評価工程で認識結果の同一性を判断する際、単一の認識結果のみでなく、候補文字の組み合わせで判断するため、同一対象物を認識の誤りにより同一でないと判断することを防止できる。これにより、対象物の同一性の判断に文字認識結果以外の特徴を用いる必要が無く、対象物をナンバープレートに限定することなく、画像入力工程より入力される大量の画像のうち、有意な情報を持つ画像を選択することができる。また、対象物の同一性を対象物の文字のみから判断するため、対象物を撮影する大きさ、方向に影響を受けない。これにより、異なる画像入力工程からの画像との間でも対象物の同一性を判定することができる。   According to this method, when determining the identity of recognition results in the recognition result evaluation step, not only a single recognition result but also a combination of candidate characters is used, so the same object is not identical due to recognition errors. Judgment can be prevented. As a result, it is not necessary to use features other than the character recognition result to determine the identity of the object, and it is not necessary to limit the object to the license plate. Images with can be selected. Further, since the identity of the object is determined only from the character of the object, the size and direction of photographing the object are not affected. Thereby, it is possible to determine the identity of an object even with images from different image input processes.

本発明の画像処理プログラムは、画像及び該画像に付帯する付帯情報を連続して入力する画像入力ステップと、前記画像入力ステップで入力された画像を一時記憶する画像一時記憶ステップと、前記画像一時記憶ステップで記憶された画像から文字を抽出する文字抽出ステップと、前記文字抽出ステップで抽出された文字を認識し、認識した文字に対する1ないし複数の候補文字と夫々の評価値とを認識結果として得る文字認識ステップと、前記文字認識ステップで得られた認識結果を記憶する認識結果記憶ステップと、前記認識結果記憶ステップで記憶された認識結果に基づき、前記画像一時記憶ステップで記憶された画像を出力するか否かを判定する認識結果評価ステップと、前記認識評結果評価ステップで出力すると判定された画像を該画像の付帯情報及び認識結果と共に出力する画像出力制御ステップと、を備え、前記画像一時記憶ステップでは、複数の画像を夫々の付帯情報と共に一時的に記憶し、前記認識結果記憶ステップでは、前記画像一時記憶ステップで記憶された複数の画像の夫々の文字の認識結果を記憶し、前記認識結果評価ステップでは、前記認識結果記憶ステップで記憶された複数の画像の夫々の文字の認識結果を調べ、前記複数の画像の認識結果中に同一文字列が含まれる場合には認識結果の評価値が最も良い画像を選択し、前記画像出力制御ステップでは、前記認識結果評価ステップで選択された画像を該画像の付帯情報及び認識結果と共に出力し、コンピュータが前記各ステップを実行する。   The image processing program of the present invention includes an image input step for continuously inputting an image and incidental information attached to the image, an image temporary storage step for temporarily storing the image input in the image input step, and the image temporary storage step. A character extraction step for extracting characters from the image stored in the storage step, a character extracted in the character extraction step is recognized, and one or a plurality of candidate characters for the recognized character and respective evaluation values are recognized as recognition results. A character recognition step, a recognition result storage step for storing the recognition result obtained in the character recognition step, and an image stored in the image temporary storage step based on the recognition result stored in the recognition result storage step. A recognition result evaluation step for determining whether or not to output, and an image determined to be output in the recognition evaluation result evaluation step. An image output control step for outputting together with the auxiliary information of the image and the recognition result, wherein the image temporary storage step temporarily stores a plurality of images together with the respective auxiliary information, and the recognition result storage step includes the image Storing the recognition result of each character of the plurality of images stored in the temporary storage step, and examining the recognition result of each character of the plurality of images stored in the recognition result storage step in the recognition result evaluation step; When the same character string is included in the recognition results of the plurality of images, an image having the best evaluation value of the recognition result is selected, and in the image output control step, the image selected in the recognition result evaluation step is selected. The image is output together with the accompanying information of the image and the recognition result, and the computer executes each of the steps.

このプログラムによれば、認識結果評価ステップで認識結果の同一性を判断する際、単一の認識結果のみでなく、候補文字の組み合わせで判断するため、同一対象物を認識の誤りにより同一でないと判断することを防止できる。これにより、対象物の同一性の判断に文字認識結果以外の特徴を用いる必要が無く、対象物をナンバープレートに限定することなく、画像入力ステップより入力される大量の画像のうち、有意な情報を持つ画像を選択することができる。また、対象物の同一性を対象物の文字のみから判断するため、対象物を撮影する大きさ、方向に影響を受けない。これにより、異なる画像入力ステップからの画像との間でも対象物の同一性を判定することができる。   According to this program, when determining the identity of the recognition result in the recognition result evaluation step, not only a single recognition result but also a combination of candidate characters is used. Judgment can be prevented. As a result, it is not necessary to use features other than the character recognition result to determine the identity of the object, and it is not necessary to limit the object to the license plate. Images with can be selected. Further, since the identity of the object is determined only from the character of the object, the size and direction of photographing the object are not affected. Thereby, it is possible to determine the identity of the object even with images from different image input steps.

本発明の記憶媒体は、前記画像処理プログラムが記憶されたものである。   The storage medium of the present invention stores the image processing program.

この記憶媒体によれば、上述した画像処理プログラムによる効果と同様の効果が得られる。   According to this storage medium, the same effect as that obtained by the image processing program described above can be obtained.

本発明によれば、対象物をナンバープレートに限定することなく、有意な情報を持つ画像を選択的に記録することができる画像処理装置及び画像処理方法を提供できる。   According to the present invention, it is possible to provide an image processing apparatus and an image processing method capable of selectively recording an image having significant information without limiting an object to a license plate.

以下、本発明を実施するための好適な実施の形態について、図面を参照して詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments for carrying out the invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係る画像処理装置の概略構成を示すブロック図である。同図において、本実施の形態の画像処理装置101は、画像データ一時記憶部111と、2値化処理部112と、文字領域抽出部113と、文字認識部114と、認識結果記憶部115と、多カメラ認識結果連携部116と、認識結果評価部117と、画像出力制御部118とを備える。画像処理装置101と外部画像蓄積メディア103及び監視センタ104はネットワーク102を介して結ばれる。なお、画像処理装置101は、1台に限らず2台以上であってもよい。同様に、外部画像蓄積メディア103も1台に限らず2台以上であってもよい。この場合、複数の画像処理装置101と複数の外部画像蓄積メディア103はネットワーク102を介して接続されることは言うまでもない。画像入力部110は、画像及び画像の撮影位置及び撮影時刻を含む画像に付帯する付帯情報を連続して画像処理装置101に入力する。   FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention. In the figure, an image processing apparatus 101 according to the present embodiment includes an image data temporary storage unit 111, a binarization processing unit 112, a character area extraction unit 113, a character recognition unit 114, and a recognition result storage unit 115. The multi-camera recognition result cooperation unit 116, the recognition result evaluation unit 117, and the image output control unit 118 are provided. The image processing apparatus 101, the external image storage medium 103, and the monitoring center 104 are connected via the network 102. Note that the number of image processing apparatuses 101 is not limited to one and may be two or more. Similarly, the number of external image storage media 103 is not limited to one and may be two or more. In this case, it goes without saying that the plurality of image processing apparatuses 101 and the plurality of external image storage media 103 are connected via the network 102. The image input unit 110 continuously inputs, to the image processing apparatus 101, additional information attached to the image including the image and the shooting position and shooting time of the image.

画像処理装置101において、画像データ一時記憶部111は、画像入力部110から入力された画像及び該画像の撮影位置及び撮影時刻を含む画像に付帯する付帯情報を予め決められた回数分記憶する。2値化処理部112は、画像データ一時記憶部111に格納されている画像を2値化し、文字領域抽出部113に送る。文字領域抽出部113は、2値化画像から文字領域を抽出し、抽出した文字領域の個々の文字の座標を文字認識部114に送る。文字認識部114は、2値画像及び文字座標に基づき、画像中の文字を認識する。文字認識部114は、当該文字認識処理により、候補文字コード及び評価値と、文字座標を含む認識結果を得る。認識結果記憶部115は、文字認識部114で得られた認識結果を保持する。認識結果記憶部115は複数の認識結果を保持する。多カメラ認識結果連携部116は、ネットワーク102を介して接続された他の画像処理装置101で得られた付帯情報と認識結果を複数個保持する。   In the image processing apparatus 101, the image data temporary storage unit 111 stores the image input from the image input unit 110 and additional information attached to the image including the shooting position and shooting time of the image for a predetermined number of times. The binarization processing unit 112 binarizes the image stored in the image data temporary storage unit 111 and sends it to the character area extraction unit 113. The character region extraction unit 113 extracts a character region from the binarized image, and sends the coordinates of individual characters in the extracted character region to the character recognition unit 114. The character recognition unit 114 recognizes characters in the image based on the binary image and the character coordinates. The character recognition unit 114 obtains a recognition result including the candidate character code, the evaluation value, and the character coordinates by the character recognition process. The recognition result storage unit 115 holds the recognition result obtained by the character recognition unit 114. The recognition result storage unit 115 holds a plurality of recognition results. The multi-camera recognition result cooperation unit 116 holds a plurality of incidental information and recognition results obtained by other image processing apparatuses 101 connected via the network 102.

認識結果評価部117は、認識結果記憶部115に保持された当該画像処理装置101で得られた認識結果と多カメラ認識結果連携部116に保持された複数個の他の画像処理装置101それぞれで得られた認識結果とに基づき、画像データ一時記憶部111に保持されている画像を外部画像蓄積メディア103に記録するか否かを判断する。画像出力制御部118は、認識結果評価部117が画像データ一時記憶部111に保持されている画像を記録すると判断した場合、画像データ一時記憶部111に保持されている画像及び該画像に付帯する付帯情報と認識結果記憶部115に保持された当該画像の認識結果とを外部画像蓄積メディア103に記録する。   The recognition result evaluation unit 117 includes a recognition result obtained by the image processing apparatus 101 held in the recognition result storage unit 115 and a plurality of other image processing apparatuses 101 held by the multi-camera recognition result cooperation unit 116. Based on the obtained recognition result, it is determined whether or not to record the image held in the image data temporary storage unit 111 in the external image storage medium 103. When the recognition result evaluation unit 117 determines that the image held in the image data temporary storage unit 111 is to be recorded, the image output control unit 118 adds the image held in the image data temporary storage unit 111 and the image. The auxiliary information and the recognition result of the image held in the recognition result storage unit 115 are recorded in the external image storage medium 103.

図2は、上記構成の画像処理装置101の動作を示すフローチャートである。同図において、画像及び該画像の撮影位置及び撮影時刻を含む付帯情報を連続して入力する(ステップS110)。次いで、画像入力ステップS110で入力された画像及び付帯情報を一時記憶する(ステップS111)。次いで、一時記憶している画像を2値化する(ステップS112)。そして、2値化した画像から文字領域を抽出し、抽出した文字領域の個々の文字の座標を得る(ステップS113)。次いで、2値画像及び文字座標に基づき画像中の文字を認識する(ステップS114)。当該文字認識処理により、候補文字コード及び評価値と文字座標を含む認識結果を得る。   FIG. 2 is a flowchart showing the operation of the image processing apparatus 101 configured as described above. In the figure, incidental information including an image and a shooting position and shooting time of the image are continuously input (step S110). Next, the image and incidental information input in the image input step S110 are temporarily stored (step S111). Next, the temporarily stored image is binarized (step S112). Then, a character area is extracted from the binarized image, and the coordinates of individual characters in the extracted character area are obtained (step S113). Next, the characters in the image are recognized based on the binary image and the character coordinates (step S114). By the character recognition process, a recognition result including a candidate character code, an evaluation value, and character coordinates is obtained.

次いで、文字認識のステップで得られた認識結果を保持する(ステップS115)。ここでは過去の認識結果も複数個保持している。次にネットワーク102を介して接続された他の画像処理装置101で得られた付帯情報と認識結果とを複数個保持する(ステップS116)。次いで、認識結果記憶のステップに保持した当該画像処理装置101から得られた認識結果と多カメラ認識結果連携のステップに保持した複数個の他の画像処理装置101から得られた認識結果に基づき、画像一時記憶のステップで保持した画像を外部画像蓄積メディア103に記録するか否かを判断する(ステップS117)。そして、認識結果評価のステップで当該画像を記録すると判断した場合、画像一時記憶のステップで保持した画像及び付帯情報と、認識結果記憶のステップで保持した当該画像の認識結果とを外部画像蓄積メディア103に記録する(ステップS118)。以上の処理ステップを完了すると、再び画像入力のステップS110から処理を繰り返す。   Next, the recognition result obtained in the character recognition step is held (step S115). Here, a plurality of past recognition results are also held. Next, a plurality of auxiliary information and recognition results obtained by other image processing apparatuses 101 connected via the network 102 are held (step S116). Next, based on the recognition result obtained from the image processing apparatus 101 held in the recognition result storage step and the recognition result obtained from a plurality of other image processing apparatuses 101 held in the multi-camera recognition result cooperation step, It is determined whether or not the image held in the temporary image storage step is to be recorded in the external image storage medium 103 (step S117). When it is determined that the image is recorded in the recognition result evaluation step, the image and the auxiliary information held in the image temporary storage step and the recognition result of the image held in the recognition result storage step are stored in the external image storage medium. 103 (step S118). When the above processing steps are completed, the processing is repeated again from the image input step S110.

次に、本実施の形態の画像処理装置101の動作を詳細に説明する。図3は、1箇所の撮影地点(Pa)で撮影した画像列の説明図である。画像入力部110で画像(Pa0)、(Pa1)、(Pa2)…の順に入力される場合を例に説明する。図4は、画像データ一時記憶部111に記憶された画像及び付帯情報の説明図である。画像入力部110から入力された画像とその撮影地点及び撮影時間を予め決められた回数分記録する。なお、新たに画像を記録する際には最も古いデータを削除する。図4は、最新の画像(Pa2)を記録した時点の画像データ一時記憶部111の内容を示している。
る。
Next, the operation of the image processing apparatus 101 of this embodiment will be described in detail. FIG. 3 is an explanatory diagram of an image sequence photographed at one photographing point (Pa). An example will be described in which images (Pa0), (Pa1), (Pa2),... FIG. 4 is an explanatory diagram of images and supplementary information stored in the image data temporary storage unit 111. The image input from the image input unit 110, its shooting location and shooting time are recorded for a predetermined number of times. When a new image is recorded, the oldest data is deleted. FIG. 4 shows the contents of the image data temporary storage unit 111 when the latest image (Pa2) is recorded.
The

図5及び図6は、画像データ一時記憶部111に記録された最新画像(Pa2)の認識過程の説明図である。図5の(a)は、画像データ一時記憶部111中の最新画像(Pa2)である。図5の(b)は、2値化処理部112により図5の(a)が2値化された画像である。図5の(c)は、文字領域抽出部113により抽出された文字領域(A2)及び文字領域(A2)中の文字を示す。図6の(d)は、抽出された文字領域(A2)を拡大した図である。図6の(e)は、文字領域抽出部113で抽出された文字座標データを示す図である。図6の(f)は、文字認識部114で出力される文字認識結果を示す図である。   5 and 6 are explanatory diagrams of the recognition process of the latest image (Pa2) recorded in the image data temporary storage unit 111. FIG. 5A shows the latest image (Pa2) in the image data temporary storage unit 111. FIG. FIG. 5B is an image obtained by binarizing FIG. 5A by the binarization processing unit 112. FIG. 5C shows the character area (A2) extracted by the character area extraction unit 113 and the characters in the character area (A2). FIG. 6D is an enlarged view of the extracted character area (A2). FIG. 6E is a diagram showing the character coordinate data extracted by the character region extraction unit 113. FIG. 6F is a diagram illustrating a character recognition result output by the character recognition unit 114.

画像入力部110からの最新画像(Pa2)(図5の(a))が、画像データ一時記憶部111に記録されると、2値化処理部112が2値化処理を行い、2値画像(図5の(b))を作成する。次いで、文字領域抽出部113が2値画像(図5の(b))から、文字領域及び個々の文字座標を抽出する。   When the latest image (Pa2) ((a) in FIG. 5) from the image input unit 110 is recorded in the image data temporary storage unit 111, the binarization processing unit 112 performs binarization processing, and the binary image ((B) of FIG. 5) is created. Next, the character area extraction unit 113 extracts the character area and individual character coordinates from the binary image (FIG. 5B).

図7は、文字領域抽出部113の処理の概略を示すフローチャートである。同図において、文字領域抽出部113は、2値化処理部112により作成された2値画像から黒画素連結領域を抽出する(ステップS501)。次いで、抽出した黒画素連結領域を位置の近いもの同士を集めてグループに分ける(ステップS502)。そして、グループ毎にグループ内の黒画素連結領域の平均サイズを算出し(ステップS503)、グループ内の個々の黒画素連結領域が平均サイズと大きく異なることが無いかどうかチェックする(ステップS504)。そして、グループ内全ての黒画素連結領域のサイズが均一であるかどうか判定し(ステップS505)、均一と判断した場合には、そのグループは文字領域であると判断して個々の黒画素連結領域から文字座標を算出し、算出した文字座標に基づき、文字を文字列毎にまとめて記録する(ステップS506)。これに対して不均一な黒画素連結領域を含むグループは文字領域ではないと判断する。上記のステップS503〜ステップS506の処理を全グループについて行う。   FIG. 7 is a flowchart showing an outline of processing of the character region extraction unit 113. In the figure, the character region extraction unit 113 extracts a black pixel connection region from the binary image created by the binarization processing unit 112 (step S501). Next, the extracted black pixel connection areas are gathered together and are divided into groups (step S502). Then, the average size of the black pixel connection areas in the group is calculated for each group (step S503), and it is checked whether the individual black pixel connection areas in the group are not significantly different from the average size (step S504). Then, it is determined whether or not the size of all black pixel connection areas in the group is uniform (step S505). If it is determined that the size is uniform, it is determined that the group is a character area and each black pixel connection area is determined. The character coordinates are calculated from the characters, and the characters are collectively recorded for each character string based on the calculated character coordinates (step S506). On the other hand, the group including the non-uniform black pixel connection area is determined not to be a character area. The processes in steps S503 to S506 are performed for all groups.

このようにして文字領域抽出部113で得られた文字座標(図6の(e))が文字認識部114に渡され、文字認識部114が文字座標に基づき、文字認識を行う。この文字認識により、図6の(f)の認識結果が得られる。なお、文字認識処理は、一般に処理時間のかかる処理であり、処理時間は認識対象とする文字の数に応じて大きくなる。数字と平仮名(約60文字)を認識対象にする場合、数字のみ(10文字)を認識対象にする場合に比較して数倍の処理時間が必要になる。3000字以上有る漢字までを認識対象とする場合には、数字のみの場合の100倍以上の処理時間が必要になる。ここでは画像入力部110での画像入力間隔が短いことを想定し、認識対象字種を数字に限定しているが、認識処理時間に比べて画像入力部110での画像入力間隔が十分に大きい場合には、平仮名、漢字までを認識対象としてもかまわない。   The character coordinates ((e) in FIG. 6) obtained in this way by the character region extraction unit 113 are passed to the character recognition unit 114, and the character recognition unit 114 performs character recognition based on the character coordinates. By this character recognition, the recognition result shown in FIG. 6F is obtained. Note that character recognition processing is generally time-consuming processing, and the processing time increases according to the number of characters to be recognized. When numbers and hiragana (about 60 characters) are to be recognized, the processing time is several times longer than when only numbers (10 characters) are to be recognized. In the case where up to 3000 kanji characters are to be recognized, a processing time of 100 times or more that of numbers alone is required. Here, assuming that the image input interval at the image input unit 110 is short, the character type to be recognized is limited to numbers, but the image input interval at the image input unit 110 is sufficiently larger than the recognition processing time. In this case, hiragana and kanji may be recognized.

図8及び図9は、認識結果記憶部115に保持された認識結果の説明図である。これらの図において、画像データ一時記憶部111に記録されている複数の画像の認識結果(候補文字コード、評価値、文字座標)を保持する。評価値は、認識結果として得られた候補文字コードの確からしさを示す値であり、本実施の形態では、0から100の値で示し、数値が小さい方が候補文字が確からしいことを意味するものとする。新たに認識結果を記録する際には最も古いデータを削除する。図8は画像(Pa2)の認識結果(R2)を記録した時点の認識結果記憶部115の内容を示しており、図9は画像入力部110から次の画像が入力され、画像(Pa3)が最新画像となった時点の認識結果記憶部115の内容を示している。画像(Pa3)には文字が含まれないため、認識結果は空欄となっている。   8 and 9 are explanatory diagrams of the recognition result held in the recognition result storage unit 115. In these drawings, recognition results (candidate character codes, evaluation values, character coordinates) of a plurality of images recorded in the image data temporary storage unit 111 are held. The evaluation value is a value indicating the probability of the candidate character code obtained as a recognition result. In this embodiment, the evaluation value is a value from 0 to 100, and a smaller numerical value indicates that the candidate character is more likely. Shall. When a new recognition result is recorded, the oldest data is deleted. FIG. 8 shows the contents of the recognition result storage unit 115 when the recognition result (R2) of the image (Pa2) is recorded. FIG. 9 shows that the next image is input from the image input unit 110 and the image (Pa3) is displayed. The contents of the recognition result storage unit 115 at the time when the latest image is obtained are shown. Since no characters are included in the image (Pa3), the recognition result is blank.

認識結果評価部117は、認識結果記憶部115の内容に基づき、外部画像蓄積メディア103に記録する画像を選択する。以下、認識結果評価部117の処理を認識結果記憶部115の内容が図9の場合を例に挙げて説明する。   The recognition result evaluation unit 117 selects an image to be recorded on the external image storage medium 103 based on the contents of the recognition result storage unit 115. Hereinafter, the processing of the recognition result evaluation unit 117 will be described by taking the case where the content of the recognition result storage unit 115 is FIG. 9 as an example.

図10は、認識結果評価部117の処理の概略を示すフローチャートである。認識結果評価部117は、認識結果記憶部115に新たな認識結果が記録されると、図10に示された一連の処理を実施する。同図において、最新直前画像(図9の場合(Pa2))中の文字列の検出を行う(ステップS701)。そして、文字列の検出の有無を判定し(ステップS702)、文字列を検出できなかった場合は、認識結果評価部117の処理を終了し、文字列を検出できた場合(文字列(L2)(L3))には、有効な候補文字列を検出する(ステップS703)。ここでは、評価値が50未満の文字コードの並びを有効な候補文字列であると判断する。図9の場合、文字列(L2)についての有効な候補文字列は「888」、文字列(L3)についての有効な候補文字列は「1234」、「1284」、「・234」及び「・284」の4つを検出する。   FIG. 10 is a flowchart showing an outline of processing of the recognition result evaluation unit 117. When a new recognition result is recorded in the recognition result storage unit 115, the recognition result evaluation unit 117 performs a series of processes shown in FIG. In the figure, the character string in the latest immediately preceding image (in the case of FIG. 9 (Pa2)) is detected (step S701). Then, it is determined whether or not a character string is detected (step S702). If the character string cannot be detected, the processing of the recognition result evaluation unit 117 is terminated, and the character string can be detected (character string (L2)). (L3)), a valid candidate character string is detected (step S703). Here, a sequence of character codes having an evaluation value of less than 50 is determined as a valid candidate character string. In the case of FIG. 9, the valid candidate character string for the character string (L2) is “888”, and the valid candidate character strings for the character string (L3) are “1234”, “1284”, “• 234”, and “• 284 "is detected.

次いで、検出した有効な候補文字列の有無を判定し(ステップS704)、有効な候補文字列を検出できない場合は、最新直前画像を画像出力制御部118に通知する(ステップS705)。これは、文字が検出されたにも関わらず、評価値の良い認識結果が得られなかった画像は画像品質が悪いことが考えられるため、外部画像蓄積メディア103に記録すれば監視センタ104のより高機能なPC或いは認識ソフトウェアで再処理することができるからである。   Next, the presence / absence of the detected valid candidate character string is determined (step S704). If the valid candidate character string cannot be detected, the image output control unit 118 is notified of the latest immediately preceding image (step S705). This is because an image for which a recognition result with a good evaluation value was not obtained despite the detection of characters may have poor image quality. This is because it can be reprocessed by a highly functional PC or recognition software.

一方、有効な候補文字列を検出できた場合は、着目している候補文字列が最新画像の認識結果に候補文字列として存在するか否かをチェックし(ステップS707)、その結果をステップS708で判定する。着目している候補文字列が最新画像の認識結果に候補文字列として存在する場合には、着目している文字列についての処理を終わり、次の文字列の処理へと進む。着目している候補文字列が最新画像の認識結果に候補文字列として存在しない場合は、次の候補文字列が有るか否かをステップS710で判断し、まだ調べるべき候補文字列が残っていればステップS703に戻り、全ての候補文字列を調べ終えた場合には、着目している文字列が最新画像には含まれていないと結論できるので、着目している文字列が存在する画像は最新直前画像までであることがわかる。そこで、着目している文字列について過去に遡って最も良い状態の画像を探し、画像出力制御部118に通知する(ステップS709)。   On the other hand, if a valid candidate character string has been detected, it is checked whether or not the candidate character string of interest exists as a candidate character string in the recognition result of the latest image (step S707), and the result is displayed in step S708. Judge with. When the candidate character string of interest is present as a candidate character string in the recognition result of the latest image, the processing for the character string of interest is terminated and the processing proceeds to the next character string. If the candidate character string of interest does not exist as a candidate character string in the recognition result of the latest image, it is determined in step S710 whether there is a next candidate character string, and candidate character strings to be checked still remain. For example, when the process returns to step S703 and all candidate character strings have been examined, it can be concluded that the focused character string is not included in the latest image. You can see that it is up to the latest image. Therefore, the image in the best state is searched retroactively for the character string of interest and notified to the image output control unit 118 (step S709).

なお、ここでは候補文字列の評価値として、各文字の第1候補文字コードの評価値の平均値を用いるが、文字サイズの均等性等を評価に加味しても構わない。今、文字列(L2)についての有効な候補文字列「888」に着目した場合、最新直前画像(Pa2)での評価値は27((20+22+40)/3≒27)となる。最新画像(Pa3)には有効な候補文字列「888」が存在しないため、有効な候補文字列「888」について、ステップS709の処理を行う。   Here, the average value of the evaluation values of the first candidate character code of each character is used as the evaluation value of the candidate character string. However, uniformity of character size and the like may be taken into consideration in the evaluation. If attention is paid to the valid candidate character string “888” for the character string (L2), the evaluation value in the latest immediately preceding image (Pa2) is 27 ((20 + 22 + 40) / 3≈27). Since the valid candidate character string “888” does not exist in the latest image (Pa3), the process of step S709 is performed on the valid candidate character string “888”.

文字列(L3)に注目した場合、(L3)の全ての有効な候補文字列「1234」、「1284」、「・234」及び「・284」のいずれもが最新画像(Pa3)には存在しないので、文字列(L2)の有効な候補文字列「888」と同様にステップS709の処理を行う。検出された文字列は以上なので、認識結果評価部117の1回の処理を終了する。   When attention is paid to the character string (L3), all the valid candidate character strings “1234”, “1284”, “• 234”, and “• 284” of (L3) are present in the latest image (Pa3). Therefore, the process of step S709 is performed in the same manner as the valid candidate character string “888” of the character string (L2). Since the detected character string is as described above, one process of the recognition result evaluation unit 117 is terminated.

図11は、図10に示すステップS709の処理概略図である。同図において、最新直前画像から時間を遡って着目している画像に、着目している文字列の候補文字列が存在しているか否かをチェックする(ステップS801〜ステップS804)。いずれの候補文字列も存在しない画像が見つかるか、認識結果記憶部115にそれ以前の認識結果が保存されていない場合は、着目している文字列の存在する最も古い画像が特定できる。次いで、候補文字列のいずれかが存在する、それぞれの画像での候補文字列の評価値を算出し、評価値の最も良い評価値の画像を選択する(ステップS805)。   FIG. 11 is a process schematic diagram of step S709 shown in FIG. In the figure, it is checked whether or not a candidate character string of the focused character string exists in the focused image from the latest immediately preceding image (steps S801 to S804). When an image without any candidate character string is found or when a previous recognition result is not stored in the recognition result storage unit 115, the oldest image in which the focused character string exists can be identified. Next, the evaluation value of the candidate character string in each image where any of the candidate character strings exists is calculated, and the image having the best evaluation value is selected (step S805).

図9の場合、文字列(L2)が存在する画像は、(Pa2)のみである。したがって、文字列(L2)についての各画像での評価値は、
画像(Pa2)→候補文字列「888」→評価値27
であり、文字列(L2)については、評価値27の画像(Pa2)が選択される。
In the case of FIG. 9, the image having the character string (L2) is only (Pa2). Therefore, the evaluation value in each image for the character string (L2) is
Image (Pa2) → candidate character string “888” → evaluation value 27
For the character string (L2), the image (Pa2) having the evaluation value 27 is selected.

一方、文字列(L3)が存在する画像は、(Pa1)〜(Pa2)である。したがって、文字列(L3)についての各画像での評価値は、
画像(Pa1)→候補文字列「1234」→評価値28((25+20+35+30)/4≒28)
画像(Pa1)→候補文字列「1284」→評価値29((25+20+40+30)/4≒29)
画像(Pa2)→候補文字列「1234」→評価値9 ((5+5+15+10)/4≒9)★
画像(Pa2)→候補文字列「1284」→評価値15((5+5+40+10)/4=15)
画像(Pa2)→候補文字列「・234」→評価値15((30+5+15+10)/4=15)
画像(Pa2)→候補文字列「・284」→評価値21((30+5+40+10)/4≒21)
となり、文字列(L3)については、評価値9の画像(Pa2)が選択される。
On the other hand, images having the character string (L3) are (Pa1) to (Pa2). Therefore, the evaluation value in each image for the character string (L3) is
Image (Pa1) → candidate character string “1234” → evaluation value 28 ((25 + 20 + 35 + 30) / 4≈28)
Image (Pa1) → candidate character string “1284” → evaluation value 29 ((25 + 20 + 40 + 30) / 4≈29)
Image (Pa2) → candidate character string “1234” → evaluation value 9 ((5 + 5 + 15 + 10) / 4≈9) ★
Image (Pa2) → candidate character string “1284” → evaluation value 15 ((5 + 5 + 40 + 10) / 4 = 15)
Image (Pa2)-> candidate character string ".234"-> evaluation value 15 ((30 + 5 + 15 + 10) / 4 = 15)
Image (Pa2) → Candidate character string “・ 284” → Evaluation value 21 ((30 + 5 + 40 + 10) / 4 ≒ 21)
Thus, for the character string (L3), an image (Pa2) having an evaluation value of 9 is selected.

図12は、多カメラ認識結果連携部116に格納されるデータの説明図である。同図において、ネットワーク102で接続された他の画像処理装置101が有る場合、他の画像処理装置101が画像を外部画像蓄積メディア103に記録する際に、ネットワーク102で接続されている全ての画像処理装置101に対し、画像の付帯情報と認識結果を通知する。その通知された付帯情報と認識結果とが、個々の画像処理装置101の多カメラ認識結果連携部116に格納される。   FIG. 12 is an explanatory diagram of data stored in the multi-camera recognition result cooperation unit 116. In the figure, when there is another image processing apparatus 101 connected via the network 102, all the images connected via the network 102 are recorded when the other image processing apparatus 101 records an image on the external image storage medium 103. The image information and the recognition result are notified to the processing apparatus 101. The notified incidental information and the recognition result are stored in the multi-camera recognition result cooperation unit 116 of each image processing apparatus 101.

図11のステップS806では、多カメラ認識結果連携部116に保持された他の画像認識装置101で得られた認識結果に、候補文字列のいずれかが有効候補文字列として存在するかをチェックする。その結果の有無をステップS807で判定し、他の画像認識装置101で得られた認識結果に、候補文字列のいずれかが有効候補文字列として存在する場合には、ステップS805で得られた評価値と、ステップS806で得られた評価値とを比較し、ステップS805で得られた評価値の方が良ければ、その画像を画像出力制御部118に通知する。ステップS806で得られた評価値の方が良ければ、何もしない。   In step S806 of FIG. 11, it is checked whether any of the candidate character strings exists as a valid candidate character string in the recognition result obtained by the other image recognition apparatus 101 held in the multi-camera recognition result cooperation unit 116. . The presence / absence of the result is determined in step S807, and if any of the candidate character strings exists as a valid candidate character string in the recognition result obtained by the other image recognition apparatus 101, the evaluation obtained in step S805. The value is compared with the evaluation value obtained in step S806, and if the evaluation value obtained in step S805 is better, the image output control unit 118 is notified. If the evaluation value obtained in step S806 is better, nothing is done.

図12の場合、
画像(Pc1)→候補文字列「888」→評価値30((20+30+40/3=30))
画像(Pc1)→候補文字列「1234」→評価値20((5+20+25+30)/4=20)
が得られる。いずれもステップS805で得られた評価値よりは悪いので、ステップS805で得られた、
画像(Pa2)→候補文字列「888」→評価値27
画像(Pa2)→候補文字列「1234」→評価値9
が画像出力制御部118に通知される。
In the case of FIG.
Image (Pc1) → candidate character string “888” → evaluation value 30 ((20 + 30 + 40/3 = 30))
Image (Pc1) → candidate character string “1234” → evaluation value 20 ((5 + 20 + 25 + 30) / 4 = 20)
Is obtained. Since both are worse than the evaluation values obtained in step S805, they were obtained in step S805.
Image (Pa2) → candidate character string “888” → evaluation value 27
Image (Pa2) → candidate character string “1234” → evaluation value 9
Is notified to the image output control unit 118.

なお、ステップS806で得られた他の画像処理装置101の認識結果を選択する場合、偶然の認識結果の一致を回避するため、評価値だけで判断するのではなく、時間的な制限や同一文字領域の全文字列で候補文字列が一致しないといけないとの制限を付加しても構わない。   Note that when selecting the recognition result of the other image processing apparatus 101 obtained in step S806, in order to avoid coincidence of the accidental recognition result, it is not determined only by the evaluation value, but is limited by time or the same character. A restriction may be added that the candidate character strings must match in all the character strings in the area.

画像出力制御部118は、認識結果評価部117から通知された画像について、画像と付帯情報を画像データ一時記憶部111から読み出し、また認識結果を認識結果記憶部115から読み出して、ネットワーク102を介して外部画像蓄積メディア103に記録する。なお、認識結果評価部117から通知される画像は1つとは限らない。また、複数指定された場合には、同じ画像を指している場合も有るが、画像出力制御部118で重複を解消し、同じ画像は1度だけ記録する。また、1度記録した画像については、画像データ一時記憶部111の記録済みフラグをセットする。   The image output control unit 118 reads out the image and supplementary information from the image data temporary storage unit 111 and reads out the recognition result from the recognition result storage unit 115 for the image notified from the recognition result evaluation unit 117, via the network 102. To the external image storage medium 103. Note that the number of images notified from the recognition result evaluation unit 117 is not limited to one. When a plurality of images are designated, the same image may be pointed out, but the image output control unit 118 eliminates the duplication and records the same image only once. For the image recorded once, the recorded flag of the image data temporary storage unit 111 is set.

画像出力制御部118は、画像と付帯情報及び認識結果を外部画像蓄積メディア103に記録すると共に、ネットワーク102で接続されている全ての画像処理装置101に対して付帯情報と認識結果を通知する。通知された付帯情報と認識結果とは、個々の画像処理装置101の多カメラ認識結果連携部116に格納される。   The image output control unit 118 records the image, supplementary information, and the recognition result on the external image storage medium 103, and notifies the supplementary information and the recognition result to all the image processing apparatuses 101 connected via the network 102. The notified supplementary information and the recognition result are stored in the multi-camera recognition result cooperation unit 116 of each image processing apparatus 101.

図13は、ネットワーク102を介して複数の画像処理装置101がつながっている第1の構成を示すブロック図である。本構成では、各画像処理装置101に備えられた多カメラ認識結果連携部116に他の画像処理装置101で得られた認識結果を保持することで、複数のカメラで同一対象を撮影した場合に、外部画像蓄積メディア103に画像を重複して記録することを防ぐことができる。   FIG. 13 is a block diagram illustrating a first configuration in which a plurality of image processing apparatuses 101 are connected via a network 102. In this configuration, the multi-camera recognition result cooperation unit 116 provided in each image processing apparatus 101 holds the recognition result obtained by the other image processing apparatus 101, so that the same target is captured by a plurality of cameras. Further, it is possible to prevent duplicate images from being recorded on the external image storage medium 103.

図14は、ネットワーク102を介して複数の画像処理装置101がつながっている第2の構成を示すブロック図である。本構成では、多カメラ認識結果連携部116は、各画像処理装置101に含まれるのではなく、複数の画像処理装置101に対して、単一の多カメラ認識結果連携部116を備える。本構成においても、多カメラ認識結果連携部116に他の画像処理装置101で得られた認識結果を保持することで、複数のカメラで同一対象を撮影した場合に、外部画像蓄積メディア103に画像を重複して記録することを防ぐことができる。   FIG. 14 is a block diagram illustrating a second configuration in which a plurality of image processing apparatuses 101 are connected via the network 102. In this configuration, the multi-camera recognition result cooperation unit 116 is not included in each image processing apparatus 101 but includes a single multi-camera recognition result cooperation unit 116 for a plurality of image processing apparatuses 101. Also in this configuration, by holding the recognition result obtained by the other image processing apparatus 101 in the multi-camera recognition result cooperation unit 116, when the same target is photographed by a plurality of cameras, the image is stored in the external image storage medium 103. Can be recorded in duplicate.

また、外部画像蓄積メディア103に記録される画像に、画像の内容を示す認識結果が付与されるため、監視センタ104のPC等で、外部画像蓄積メディア103中の画像を検索することが容易となる。更に、文字領域座標及び文字座標が付与されているため、監視センタ104のPC等で、外部画像蓄積メディア103中の画像を再処理する場合、特定の領域のみを処理すればよいため、大幅な処理の効率化を実現できる。   In addition, since an image recorded on the external image storage medium 103 is given a recognition result indicating the content of the image, it is easy to search for an image in the external image storage medium 103 using a PC of the monitoring center 104 or the like. Become. Furthermore, since the character area coordinates and the character coordinates are assigned, when the image in the external image storage medium 103 is reprocessed by the PC of the monitoring center 104 or the like, only a specific area needs to be processed. Processing efficiency can be improved.

このように、本実施の形態の画像処理装置101によれば、画像データ一時記憶部111に複数の画像及び付帯情報を格納し、文字認識部114で画像中の文字認識を行い、認識結果記憶部115に画像データ一時記憶部111に保持された複数の画像に対応する認識結果を保持し、認識結果評価部117で画像内容の変化のタイミングを検出し、画像内容に変化があったときだけ画像データ一時記憶部111の画像を外部画像蓄積メディア103に記録するため、名札を身につけた人物画像や、必ずしもナンバープレート全体が写っていない画像に対しても画像内容に変化を検出でき、外部画像蓄積メディア103を有効利用できる。   As described above, according to the image processing apparatus 101 of the present embodiment, a plurality of images and supplementary information are stored in the image data temporary storage unit 111, character recognition in the image is performed by the character recognition unit 114, and a recognition result is stored. The recognition result corresponding to the plurality of images held in the image data temporary storage unit 111 is held in the unit 115, the timing of the change of the image content is detected by the recognition result evaluation unit 117, and only when there is a change in the image content Since the image in the image data temporary storage unit 111 is recorded in the external image storage medium 103, a change in the image content can be detected even for a person image wearing a name tag or an image in which the entire license plate is not necessarily captured. The image storage medium 103 can be used effectively.

また、ナンバープレート画像に限定することなく画像内容の変化を検出できるため、カメラの設置が簡易である。また、画像入力部110が可動カメラであっても構わないため、少ないカメラで広範囲を監視することができる。画像入力部110より入力される大量の画像のうち、有意な情報を持つ画像を選択して記録することができるため、外部画像蓄積メディア103を有効利用できる。また、ネットワーク102を介して複数のカメラがつながっている構成では、複数のカメラで同一対象を撮影した場合にも同一性を判断できるため、外部画像蓄積メディア103に画像を重複して記録することを防ぐことができる。また、画像を外部画像蓄積メディア103に記録する際に、画像の内容を示す認識結果を付与するため、監視センタのPC等で、蓄積された膨大な画像の内から特定の画像を検索することが容易になる。更に、付与される認識結果には文字領域座標及び文字座標が含まれているため、監視センタのPC等で、外部画像蓄積メディア103に記録された画像を2次処理する場合に、画像に付与された認識結果に含まれる文字領域座標及び文字座標を利用し、文字領域のみを再処理することで、処理精度を上げると共に、大幅な処理の効率化を実現できる。   Further, since it is possible to detect a change in the image content without being limited to the license plate image, the installation of the camera is simple. Further, since the image input unit 110 may be a movable camera, a wide range can be monitored with a small number of cameras. Since an image having significant information can be selected from a large number of images input from the image input unit 110 and recorded, the external image storage medium 103 can be used effectively. In addition, in the configuration in which a plurality of cameras are connected via the network 102, the sameness can be determined even when the same object is photographed by a plurality of cameras. Can be prevented. In addition, when an image is recorded on the external image storage medium 103, a specific image is searched from a large amount of stored images on a monitoring center PC or the like in order to give a recognition result indicating the content of the image. Becomes easier. Further, since the recognition result to be added includes the character area coordinates and the character coordinates, when the image recorded on the external image storage medium 103 is secondarily processed by the PC of the monitoring center or the like, it is given to the image. By using only the character region coordinates and the character coordinates included in the recognized result and re-processing only the character region, it is possible to improve the processing accuracy and achieve a significant efficiency of processing.

なお、本実施の形態では、外部画像蓄積メディア103に情報を記録する際、画像とその付帯情報及び認識結果とを共に記録するとしたが、画像の記録が必須ではない場合には評価値が十分良ければ、画像を除き、付帯情報及び認識結果のみを記録するようにしてもよい。このようにすることで、外部画像蓄積メディア103の使用量を更に削減できる。   In the present embodiment, when information is recorded on the external image storage medium 103, the image, its accompanying information, and the recognition result are recorded together. However, if the image recording is not essential, the evaluation value is sufficient. If it is good, only the incidental information and the recognition result may be recorded except for the image. In this way, the usage amount of the external image storage medium 103 can be further reduced.

また、本実施の形態では、対象物と同時に撮影され、対象物を指し示すパターンを文字列としたが、ロゴやマーク、或いは顔など、文字と同様の性質を持つパターンを用いてもよい。各処理での各種条件や閾値についても同様の判定基準であれば、これに限るものではない。更に画像入力部110、画像データ一時記憶部111、2値化処理部112、文字領域抽出部113、文字認識部114、認識結果記憶部115、多カメラ認識結果連携部116、認識結果評価部117、画像出力制御部118等の各機能ブロックを、典型的には集積回路であるLSIとして実現してもよい。集積回路化の手法は、LSIに限るものではない。これらは個別に1チップ化されてもよいし、一部又は全部を含むように1チップ化されてもよい。   In this embodiment, a pattern that is photographed at the same time as the object and points to the object is used as a character string. However, a pattern such as a logo, a mark, a face, or the like may be used. Various conditions and threshold values in each process are not limited to this as long as they are the same determination criteria. Further, the image input unit 110, the image data temporary storage unit 111, the binarization processing unit 112, the character region extraction unit 113, the character recognition unit 114, the recognition result storage unit 115, the multi-camera recognition result linkage unit 116, and the recognition result evaluation unit 117. Each functional block such as the image output control unit 118 may be realized as an LSI that is typically an integrated circuit. The method of circuit integration is not limited to LSI. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them.

また、本実施の形態において、上述した各動作における各処理ステップを、コンピュータで実行可能なプログラムで記述してもよい。   In the present embodiment, each processing step in each operation described above may be described by a computer-executable program.

本発明は、対象物をナンバープレートに限定することなく、有意な情報を持つ画像を選択的に記録することができるといった効果を有し、監視システムなどへの適用が可能である。   The present invention has an effect that an image having significant information can be selectively recorded without limiting an object to a license plate, and can be applied to a monitoring system or the like.

本発明の一実施の形態に係る画像処理装置の概略構成を示すブロック図1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention. 図1の画像処理装置の動作を示すフローチャートThe flowchart which shows operation | movement of the image processing apparatus of FIG. 図1の画像処理装置において1箇所の撮影地点で撮影した画像列を説明するための図The figure for demonstrating the image sequence image | photographed in one imaging | photography point in the image processing apparatus of FIG. 図1の画像処理装置の画像データ一時記憶部に記録された画像及び付帯情報を説明するための図The figure for demonstrating the image and incidental information which were recorded on the image data temporary storage part of the image processing apparatus of FIG. 図1の画像処理装置における文字認識過程を説明するための図The figure for demonstrating the character recognition process in the image processing apparatus of FIG. 図1の画像処理装置における文字認識過程を説明するための図The figure for demonstrating the character recognition process in the image processing apparatus of FIG. 図1の画像処理装置の文字領域抽出部の処理を示すフローチャートThe flowchart which shows the process of the character area extraction part of the image processing apparatus of FIG. 図1の画像処理装置の認識結果記憶部に保持された認識結果を説明するための図The figure for demonstrating the recognition result hold | maintained at the recognition result memory | storage part of the image processing apparatus of FIG. 図1の画像処理装置の認識結果記憶部に保持された認識結果を説明するための図The figure for demonstrating the recognition result hold | maintained at the recognition result memory | storage part of the image processing apparatus of FIG. 図1の画像処理装置の認識結果評価部の処理を示すフローチャートThe flowchart which shows the process of the recognition result evaluation part of the image processing apparatus of FIG. 図10のステップS710の詳細な処理を示すフローチャートThe flowchart which shows the detailed process of step S710 of FIG. 図1の画像処理装置の多カメラ認識結果連携部に格納されるデータを説明するための図The figure for demonstrating the data stored in the multicamera recognition result cooperation part of the image processing apparatus of FIG. 図1の画像処理装置を複数個用いてネットワーク接続した第1の構成を示すブロック図1 is a block diagram showing a first configuration in which a plurality of image processing apparatuses in FIG. 1 are connected to a network. 図1の画像処理装置を複数個用いてネットワーク接続した第2の構成を示すブロック図1 is a block diagram showing a second configuration in which a plurality of image processing apparatuses in FIG. 1 are connected to a network. 従来の画像処理装置の概略構成を示すブロック図The block diagram which shows schematic structure of the conventional image processing apparatus

符号の説明Explanation of symbols

101 画像処理装置
102 ネットワーク
103 外部画像蓄積メディア
104 監視センタ
110 画像入力部
111 画像データ一時記憶部
112 2値化処理部
113 文字領域抽出部
114 文字認識部
115 認識結果記憶部
116 多カメラ認識結果連携部
117 認識結果評価部
118 画像出力制御部
DESCRIPTION OF SYMBOLS 101 Image processing apparatus 102 Network 103 External image storage medium 104 Monitoring center 110 Image input part 111 Image data temporary storage part 112 Binarization process part 113 Character area extraction part 114 Character recognition part 115 Recognition result storage part 116 Multi camera recognition result cooperation Unit 117 recognition result evaluation unit 118 image output control unit

Claims (6)

画像及び該画像に付帯する付帯情報を連続して入力する画像入力手段と、
前記画像入力手段で入力された画像を一時記憶する画像一時記憶手段と、
前記画像一時記憶手段に記憶された画像から文字を抽出する文字抽出手段と、
前記文字抽出手段で抽出された文字を認識し、認識した文字に対する1ないし複数の候補文字と夫々の評価値とを認識結果として得る文字認識手段と、
前記文字認識手段で得られた前記認識結果を記憶する認識結果記憶手段と、
前記認識結果記憶手段に記憶された前記認識結果に基づき、前記画像一時記憶手段に記憶された画像を出力するか否かを判定する認識結果評価手段と、
前記認識評結果評価手段で出力すると判定された画像を該画像の付帯情報及び前記認識結果と共に出力する画像出力制御手段と、を備え、
前記画像一時記憶手段は、複数の画像を夫々の付帯情報と共に一時的に記憶し、
前記認識結果記憶手段は、前記画像一時記憶手段に記憶されている複数の画像の夫々の文字の認識結果を記憶し、
前記認識結果評価手段は、前記認識結果記憶手段に記憶されている複数の画像の夫々の文字の認識結果を調べ、前記複数の画像の認識結果中に同一文字列が含まれる場合には認識結果の評価値が最も良い画像を選択し、
前記画像出力制御手段は、前記認識結果評価手段で選択された画像を該画像の付帯情報及び認識結果と共に出力する画像処理装置。
Image input means for continuously inputting an image and accompanying information attached to the image;
Image temporary storage means for temporarily storing an image input by the image input means;
Character extraction means for extracting characters from the image stored in the image temporary storage means;
Character recognition means for recognizing the character extracted by the character extraction means, and obtaining one or more candidate characters for the recognized character and respective evaluation values as recognition results;
Recognition result storage means for storing the recognition result obtained by the character recognition means;
Recognition result evaluation means for determining whether to output the image stored in the image temporary storage means based on the recognition result stored in the recognition result storage means;
Image output control means for outputting the image determined to be output by the recognition evaluation result evaluation means together with the auxiliary information of the image and the recognition result,
The image temporary storage means temporarily stores a plurality of images together with respective incidental information,
The recognition result storage means stores the recognition result of each character of the plurality of images stored in the image temporary storage means,
The recognition result evaluation unit examines the recognition result of each character of the plurality of images stored in the recognition result storage unit, and if the same character string is included in the recognition result of the plurality of images, the recognition result Select the image with the best evaluation value,
The image output control means is an image processing apparatus for outputting an image selected by the recognition result evaluation means together with auxiliary information of the image and a recognition result.
前記認識結果評価手段は、前記認識結果記憶手段に記憶されている複数の画像の夫々の文字の認識結果を調べ、1画像中に文字が含まれるにも関わらず、全ての文字の認識結果も評価値が悪い場合はその旨を前記画像出力制御手段に通知し、
前記画像出力制御手段は、前記認識結果評価手段から通知された前記画像を該画像の付帯情報及び認識結果と共に出力する請求項1に記載の画像処理装置。
The recognition result evaluation unit examines the recognition result of each character of the plurality of images stored in the recognition result storage unit, and the recognition result of all the characters is included even though the character is included in one image. If the evaluation value is bad, notify the image output control means to that effect,
The image processing apparatus according to claim 1, wherein the image output control unit outputs the image notified from the recognition result evaluation unit together with auxiliary information of the image and a recognition result.
ネットワークを介して接続された他の画像処理装置の出力である、画像中の文字の認識結果と当該認識結果を得る元となった画像の付帯情報とを記憶する多カメラ認識結果連携手段を更に備え、
前記認識結果評価手段は、前記認識結果記憶手段に記憶された認識結果と前記多カメラ認識結果連携手段に記憶された認識結果とを調べ、双方に同一の文字列が含まれ且つ画像の付帯情報及び認識結果の評価値が所定の条件を満たす場合は前記画像出力制御手段に前記画像の出力を行わない旨の通知を行い、前記認識結果記憶手段に記憶された認識結果に含まれる文字列が前記多カメラ認識結果連携手段に記憶された認識結果には含まれない場合或いは含まれても前記画像の付帯情報及び認識結果の評価値が所定の条件を満たさない場合は前記画像出力制御手段に前記画像を出力させる旨の通知を行い、
前記画像出力制御手段は、前記認識結果評価手段から画像を出力する旨の通知を受けると、前記画像と該画像の付帯情報及び認識結果とを前記ネットワークへ出力する請求項1又は請求項2に記載の画像処理装置。
Multi-camera recognition result linkage means for storing a recognition result of characters in an image and auxiliary information of an image from which the recognition result is obtained, which is an output of another image processing apparatus connected via a network Prepared,
The recognition result evaluation unit examines the recognition result stored in the recognition result storage unit and the recognition result stored in the multi-camera recognition result cooperation unit, and both include the same character string and include image supplementary information If the evaluation value of the recognition result satisfies a predetermined condition, the image output control means is notified that the image is not output, and the character string included in the recognition result stored in the recognition result storage means If it is not included in the recognition result stored in the multi-camera recognition result linkage means or if it is included, but the attached information of the image and the evaluation value of the recognition result do not satisfy a predetermined condition, the image output control means A notification to output the image,
3. The image output control unit according to claim 1 or 2, wherein upon receiving a notification to output an image from the recognition result evaluation unit, the image output control unit outputs the image, incidental information of the image, and a recognition result to the network. The image processing apparatus described.
画像及び該画像に付帯する付帯情報を連続して入力する画像入力工程と、
前記画像入力工程で入力された画像を一時記憶する画像一時記憶工程と、
前記画像一時記憶工程で記憶された画像から文字を抽出する文字抽出工程と、
前記文字抽出工程で抽出された文字を認識し、認識した文字に対する1ないし複数の候補文字と夫々の評価値とを認識結果として得る文字認識工程と、
前記文字認識工程で得られた認識結果を記憶する認識結果記憶工程と、
前記認識結果記憶工程で記憶された認識結果に基づき、前記画像一時記憶工程で記憶された画像を出力するか否かを判定する認識結果評価工程と、
前記認識評結果評価工程で出力すると判定された画像を該画像の付帯情報及び認識結果と共に出力する画像出力制御工程と、を備え、
前記画像一時記憶工程では、複数の画像を夫々の付帯情報と共に一時的に記憶し、
前記認識結果記憶工程では、前記画像一時記憶工程で記憶された複数の画像の夫々の文字の認識結果を記憶し、
前記認識結果評価工程では、前記認識結果記憶工程で記憶された複数の画像の夫々の文字の認識結果を調べ、前記複数の画像の認識結果中に同一文字列が含まれる場合には認識結果の評価値が最も良い画像を選択し、
前記画像出力制御工程では、前記認識結果評価工程で選択された画像を該画像の付帯情報及び認識結果と共に出力する画像処理方法。
An image input step of continuously inputting an image and incidental information attached to the image;
An image temporary storage step for temporarily storing the image input in the image input step;
A character extraction step of extracting characters from the image stored in the image temporary storage step;
A character recognition step of recognizing the character extracted in the character extraction step, and obtaining one or more candidate characters for the recognized character and respective evaluation values as recognition results;
A recognition result storage step for storing the recognition result obtained in the character recognition step;
A recognition result evaluation step for determining whether to output the image stored in the image temporary storage step based on the recognition result stored in the recognition result storage step;
An image output control step for outputting the image determined to be output in the recognition evaluation result evaluation step together with the auxiliary information of the image and the recognition result, and
In the image temporary storage step, a plurality of images are temporarily stored together with the accompanying information,
In the recognition result storage step, the recognition result of each character of the plurality of images stored in the image temporary storage step is stored,
In the recognition result evaluation step, the recognition result of each character of the plurality of images stored in the recognition result storage step is checked, and if the same character string is included in the recognition result of the plurality of images, the recognition result Select the image with the best evaluation value,
In the image output control step, an image processing method for outputting the image selected in the recognition result evaluation step together with auxiliary information of the image and a recognition result.
画像及び該画像に付帯する付帯情報を連続して入力する画像入力ステップと、
前記画像入力ステップで入力された画像を一時記憶する画像一時記憶ステップと、
前記画像一時記憶ステップで記憶された画像から文字を抽出する文字抽出ステップと、
前記文字抽出ステップで抽出された文字を認識し、認識した文字に対する1ないし複数の候補文字と夫々の評価値とを認識結果として得る文字認識ステップと、
前記文字認識ステップで得られた認識結果を記憶する認識結果記憶ステップと、
前記認識結果記憶ステップで記憶された認識結果に基づき、前記画像一時記憶ステップで記憶された画像を出力するか否かを判定する認識結果評価ステップと、
前記認識評結果評価ステップで出力すると判定された画像を該画像の付帯情報及び認識結果と共に出力する画像出力制御ステップと、を備え、
前記画像一時記憶ステップでは、複数の画像を夫々の付帯情報と共に一時的に記憶し、
前記認識結果記憶ステップでは、前記画像一時記憶ステップで記憶された複数の画像の夫々の文字の認識結果を記憶し、
前記認識結果評価ステップでは、前記認識結果記憶ステップで記憶された複数の画像の夫々の文字の認識結果を調べ、前記複数の画像の認識結果中に同一文字列が含まれる場合には認識結果の評価値が最も良い画像を選択し、
前記画像出力制御ステップでは、前記認識結果評価ステップで選択された画像を該画像の付帯情報及び認識結果と共に出力し、
コンピュータが前記各ステップを実行する画像処理プログラム。
An image input step for continuously inputting an image and incidental information attached to the image;
An image temporary storage step for temporarily storing the image input in the image input step;
A character extraction step of extracting characters from the image stored in the image temporary storage step;
A character recognition step of recognizing the character extracted in the character extraction step and obtaining one or more candidate characters for the recognized character and respective evaluation values as recognition results;
A recognition result storing step for storing the recognition result obtained in the character recognition step;
A recognition result evaluation step for determining whether to output the image stored in the image temporary storage step based on the recognition result stored in the recognition result storage step;
An image output control step for outputting the image determined to be output in the recognition evaluation result evaluation step together with the auxiliary information of the image and the recognition result, and
In the image temporary storage step, a plurality of images are temporarily stored together with respective incidental information,
In the recognition result storage step, the recognition result of each character of the plurality of images stored in the image temporary storage step is stored,
In the recognition result evaluation step, the recognition result of each character of the plurality of images stored in the recognition result storage step is checked, and if the same character string is included in the recognition result of the plurality of images, the recognition result Select the image with the best evaluation value,
In the image output control step, the image selected in the recognition result evaluation step is output together with the incidental information and the recognition result of the image,
An image processing program for causing a computer to execute the above steps.
請求項5に記載の画像処理プログラムが記憶された記憶媒体。   A storage medium storing the image processing program according to claim 5.
JP2008181733A 2008-06-11 2008-07-11 Image processing apparatus, image processing method, and image processing program Active JP5339581B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2008181733A JP5339581B2 (en) 2008-07-11 2008-07-11 Image processing apparatus, image processing method, and image processing program
EP09752712.1A EP2154664A4 (en) 2008-06-11 2009-04-30 Pattern recognition device, pattern recognition method, image-processing device and image-processing method
US12/601,989 US8509571B2 (en) 2008-06-11 2009-04-30 Pattern recognition apparatus, pattern recognition method, image processing apparatus, and image processing method
CN200980000390.XA CN101689328B (en) 2008-06-11 2009-04-30 Image-processing device and image-processing method
PCT/JP2009/001981 WO2009150783A1 (en) 2008-06-11 2009-04-30 Pattern recognition device, pattern recognition method, image-processing device and image-processing method
US13/715,166 US8620094B2 (en) 2008-06-11 2012-12-14 Pattern recognition apparatus, pattern recogntion method, image processing apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008181733A JP5339581B2 (en) 2008-07-11 2008-07-11 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2010020622A true JP2010020622A (en) 2010-01-28
JP5339581B2 JP5339581B2 (en) 2013-11-13

Family

ID=41705434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008181733A Active JP5339581B2 (en) 2008-06-11 2008-07-11 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5339581B2 (en)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129713A (en) * 1993-11-01 1995-05-19 Matsushita Electric Ind Co Ltd Character recognition device
JPH0981689A (en) * 1995-09-13 1997-03-28 Canon Inc Character recognition method and device therefor
JPH10105873A (en) * 1996-09-30 1998-04-24 Toshiba Corp Device for recognizing number plate of vehicle
JP2000182181A (en) * 1998-12-16 2000-06-30 Koito Ind Ltd Vehicle license plate recognition device
JP2003331217A (en) * 2002-03-08 2003-11-21 Nec Corp Character input device, character input method and character input program
JP2004234486A (en) * 2003-01-31 2004-08-19 Matsushita Electric Ind Co Ltd Vehicle backward traveling detector
JP2004280713A (en) * 2003-03-18 2004-10-07 Hitachi Ltd License plate number recognition device
JP2005215984A (en) * 2004-01-29 2005-08-11 Fujitsu Ltd Mobile information management program
JP2005267380A (en) * 2004-03-19 2005-09-29 Advanced Telecommunication Research Institute International Display character translation device and computer program
JP2006309402A (en) * 2005-04-27 2006-11-09 Mitsubishi Heavy Ind Ltd Character string recognition method, number plate recognition method and device
JP2007072788A (en) * 2005-09-07 2007-03-22 Sumitomo Electric Ind Ltd Supervision unit, supervision system, and supervision method
JP2008027325A (en) * 2006-07-25 2008-02-07 Oriental Consultants:Kk Traffic monitoring information providing system
JP2009301179A (en) * 2008-06-11 2009-12-24 Panasonic Corp Pattern recognition device, pattern recognition method, program, and recording medium

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129713A (en) * 1993-11-01 1995-05-19 Matsushita Electric Ind Co Ltd Character recognition device
JPH0981689A (en) * 1995-09-13 1997-03-28 Canon Inc Character recognition method and device therefor
JPH10105873A (en) * 1996-09-30 1998-04-24 Toshiba Corp Device for recognizing number plate of vehicle
JP2000182181A (en) * 1998-12-16 2000-06-30 Koito Ind Ltd Vehicle license plate recognition device
JP2003331217A (en) * 2002-03-08 2003-11-21 Nec Corp Character input device, character input method and character input program
JP2004234486A (en) * 2003-01-31 2004-08-19 Matsushita Electric Ind Co Ltd Vehicle backward traveling detector
JP2004280713A (en) * 2003-03-18 2004-10-07 Hitachi Ltd License plate number recognition device
JP2005215984A (en) * 2004-01-29 2005-08-11 Fujitsu Ltd Mobile information management program
JP2005267380A (en) * 2004-03-19 2005-09-29 Advanced Telecommunication Research Institute International Display character translation device and computer program
JP2006309402A (en) * 2005-04-27 2006-11-09 Mitsubishi Heavy Ind Ltd Character string recognition method, number plate recognition method and device
JP2007072788A (en) * 2005-09-07 2007-03-22 Sumitomo Electric Ind Ltd Supervision unit, supervision system, and supervision method
JP2008027325A (en) * 2006-07-25 2008-02-07 Oriental Consultants:Kk Traffic monitoring information providing system
JP2009301179A (en) * 2008-06-11 2009-12-24 Panasonic Corp Pattern recognition device, pattern recognition method, program, and recording medium

Also Published As

Publication number Publication date
JP5339581B2 (en) 2013-11-13

Similar Documents

Publication Publication Date Title
WO2009150783A1 (en) Pattern recognition device, pattern recognition method, image-processing device and image-processing method
US9811755B2 (en) Object monitoring system, object monitoring method, and monitoring target extraction program
JP2021057054A (en) Image recognition apparatus
JP2008002817A (en) Object identification system
JP2007310572A (en) Recognition device and recognition method
JP2003044859A (en) Device for tracing movement and method for tracing person
JP2017010527A (en) Method and apparatus for tracking targets
JP2010238187A (en) Security system and security method
KR102096784B1 (en) Positioning system and the method thereof using similarity-analysis of image
JP5339581B2 (en) Image processing apparatus, image processing method, and image processing program
CN112818816B (en) Temperature detection method, device and equipment
JPH03242592A (en) Monitoring device for image
JP2014191763A (en) Device, system, program, and method for recognizing vehicle
CN112990153A (en) Multi-target behavior identification method and device, storage medium and electronic equipment
JP2008146132A (en) Image detection device, program, and image detection method
JP6884546B2 (en) Attribute judgment device, attribute judgment method, computer program, and recording medium
JP2004260527A (en) Device and method for detecting object
CN111670458A (en) Reading system
KR102469120B1 (en) Apparatus, method, computer-readable storage medium and computer program for identifying target from satellite image
JP5665113B2 (en) Image processing apparatus, image processing method, and program
US20230114160A1 (en) Monitoring device, monitoring method, and recording medium
JP2002102175A (en) Image input/output device
US20240144631A1 (en) Object detection device, object detection method, and program
CN114663801A (en) Trajectory tracking method and device and computer storage medium
JPH07272189A (en) Method for identifying vehicle and method for reading vehicle number

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130805

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250