JP2010267257A - Apparatus, method and program for processing image - Google Patents

Apparatus, method and program for processing image Download PDF

Info

Publication number
JP2010267257A
JP2010267257A JP2010092315A JP2010092315A JP2010267257A JP 2010267257 A JP2010267257 A JP 2010267257A JP 2010092315 A JP2010092315 A JP 2010092315A JP 2010092315 A JP2010092315 A JP 2010092315A JP 2010267257 A JP2010267257 A JP 2010267257A
Authority
JP
Japan
Prior art keywords
image
unit
center position
instruction
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010092315A
Other languages
Japanese (ja)
Inventor
Minoru Takakura
穂 高倉
Mariko Takenouchi
磨理子 竹之内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010092315A priority Critical patent/JP2010267257A/en
Publication of JP2010267257A publication Critical patent/JP2010267257A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image processing method and an image processing program, which can obtain approximative front image which can be used for identification processing of a target object such as a vehicle and a figure photographed at various angles, by simple processing which can be achieved even with a semiconductor without depending on a computer with high throughput and which can be incorporated also in a camera. <P>SOLUTION: The image processing apparatus includes: an target object extraction part 101 which detects the target object such as the vehicle and the figure from an image photographed with the camera, etc. installed on a traffic passage, etc. to extract a region of the target object; an image correction part 102 which corrects distortion of the image, due to an installed position of the camera and inclination of the target object; a feature image generation part 103 which generates a feature image to the image corrected by the image correction part 102; a center position correction part 104 which detects a center position where correlation of right and left at each height becomes the highest to the target object region in the feature image generated by the feature image generation part 103, and vertically aligns the center position; and a collation region extraction part 105 which determines a region usable for the identification processing in the image obtained by the center position correction part 104. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、車両識別システムや顔認証を用いた入出門システムや、さまざまな角度から撮影された車両や人物の画像の格納されたデータベースから特定の対象物の画像を選び出す検索システム等に用いて好適な画像処理装置、画像処理方法及び画像処理プログラムに関する。   INDUSTRIAL APPLICABILITY The present invention is used for a vehicle identification system, an entrance / exit system using face authentication, a search system for selecting an image of a specific object from a database storing images of vehicles and people taken from various angles, and the like. The present invention relates to a suitable image processing apparatus, an image processing method, and an image processing program.

近年、カメラの普及とともに、通行路等に設置されたカメラで撮影された車両又は人物等を識別する技術が実用化されてきている。識別技術では、画像から対象となる顔の領域や車両の領域を抽出し、その抽出した領域の画像と、予めデータベースに登録された画像とを照合し、類似性を判定する。そして、判定した類似性に基づき、登録画像中の類似した画像を選び出す場合は検索、選び出した登録顔画像から人物を特定する場合は顔認証、また、選び出した車両画像から車種を特定する場合が車種識別である。   In recent years, with the widespread use of cameras, a technique for identifying a vehicle or a person photographed with a camera installed on a traffic road or the like has been put into practical use. In the identification technique, a target face area or vehicle area is extracted from an image, and the image of the extracted area is collated with an image registered in a database in advance to determine similarity. Then, based on the determined similarity, a search is performed when selecting a similar image in the registered image, a face authentication is performed when a person is specified from the selected registered face image, and a vehicle type is specified from the selected vehicle image. It is vehicle type identification.

識別技術においては、対象物の画像が登録画像とは異なる角度で撮影した場合は識別精度が著しく低下する。この問題を解決するための方法として、例えば、顔画像の場合、特許文献1では、カメラを複数台用いて、同一の顔を複数の方向から撮影し、撮影した複数の顔画像の中から正面向きの画像を選択して照合に用いる。特許文献2では、登録顔画像とワイヤフレームの基準モデルを用いてカメラの撮影方向から見た場合の擬似的な登録顔画像を合成し照合に用いる。特許文献3では、複数の方向から撮影した顔画像を予め登録することによって、正面顔以外の画像に対しても認証する。   In the identification technology, when the image of the object is taken at an angle different from the registered image, the identification accuracy is significantly lowered. As a method for solving this problem, for example, in the case of a face image, in Patent Document 1, a plurality of cameras are used, the same face is photographed from a plurality of directions, and a front face is selected from the photographed face images. Select the orientation image and use it for verification. In Patent Document 2, a registered face image and a reference model of a wire frame are used to synthesize and register a pseudo registered face image when viewed from the shooting direction of the camera. In Patent Document 3, face images taken from a plurality of directions are registered in advance to authenticate images other than the front face.

また、車両にも適用可能な方法として、特許文献4では、予め複数のワイヤフレームモデルを用意しておき、それぞれのワイヤフレームモデルに対し、さまざまな撮影方向を仮定して入力画像をマッピングし、そのモデルを正面に向けたときに得られる画像の内、左右対称度の最も高いものを正面画像として、照合を行う。   Further, as a method applicable to a vehicle, in Patent Document 4, a plurality of wire frame models are prepared in advance, and an input image is mapped on each wire frame model assuming various shooting directions. Of the images obtained when the model is directed to the front, the image having the highest left-right symmetry is used as the front image for collation.

特開2008−304979号公報JP 2008-304979 A 特開2003−263639号公報JP 2003-263639 A 特開2002−092601号公報JP 2002-092601 A 特開2008−217220号公報JP 2008-217220 A

しかしながら、特許文献1に記載の複数のカメラで同時に単一の対象を撮影する方法では、専用のカメラが必要となり、通常のカメラでの実施は困難である。特許文献2に記載の複数方向から撮影した画像を予め登録する方法では、複数のカメラで同時に単一の対象を撮影する方法の場合と同様、登録画像の撮影の際に、複数カメラを備えた装置が必要であったり、あるいは、単一カメラで同一対象物を異なる方向から何度も撮影することによる多大な作業が発生したりする。また、登録画像の枚数が正面画像のみの場合に比べて数倍必要となる。このことは、識別装置により大きな記憶媒体が必要であるのみならず、照合処理時間の増大をももたらす。   However, in the method of photographing a single object at the same time with a plurality of cameras described in Patent Document 1, a dedicated camera is required, and implementation with a normal camera is difficult. In the method of preregistering images taken from a plurality of directions described in Patent Document 2, a plurality of cameras are provided when taking a registered image, as in the case of a method of photographing a single object simultaneously with a plurality of cameras. A device is necessary, or a great amount of work is required by photographing the same object many times from different directions with a single camera. In addition, the number of registered images is several times that required when only the front image is used. This not only requires a large storage medium for the identification device, but also increases the verification processing time.

特許文献3に記載のワイヤフレームの基準モデルを用いる方法では、バスやワゴン車のような箱型のものから、セダンタイプのような凸凹の有る形状のものやスポーツカーのように流線型のものまで、さまざまな形状のものが存在する車両の場合には、基準モデルを決めることができないため、適用することができない。特許文献4に記載の方法では、それぞれのワイヤフレームモデルに対し、さまざまな撮影方向を仮定して入力画像をマッピングするため、特許文献3に記載の方法に比べ、モデル数×撮影方向の処理が必要であり、非常に処理能力の高い計算機が必須である。   In the method using the reference model of the wire frame described in Patent Document 3, from a box type such as a bus or a wagon car, to a shape having irregularities such as a sedan type or a streamline type such as a sports car. In the case of vehicles having various shapes, the reference model cannot be determined and cannot be applied. In the method described in Patent Document 4, the input image is mapped on the assumption of various shooting directions for each wire frame model. Therefore, compared to the method described in Patent Document 3, the processing of the number of models × shooting direction is performed. A computer with high processing capability is essential.

本発明は、係る事情に鑑みてなされたものであり、処理能力の高い計算機に拠らず半導体でも実現でき、カメラにも組み込み可能な簡易な処理で、さまざまな角度から撮影された車両や人物等の対象物の識別処理に使用できる近似的な正面画像を得ることが可能な画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and it is possible to realize a vehicle or a person photographed from various angles by a simple process that can be implemented in a semiconductor without being based on a computer with high processing capability and can be incorporated into a camera. An object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of obtaining an approximate front image that can be used for identification processing of an object such as the above.

本発明の画像処理装置は、カメラで撮影された画像から車両や人物等の対象物を検出し、対象物領域を抽出する対象物抽出部と、前記カメラの設置位置及び前記対象物の傾きによる画像の歪みを補正する画像補正部と、前記画像補正部で補正された画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、該中央位置を縦に揃える中央位置補正部と、前記中央位置補正部により得られた画像中の識別処理に使用可能な領域を決定する照合領域抽出部と、を備えた。   The image processing apparatus of the present invention detects an object such as a vehicle or a person from an image taken by a camera and extracts an object area, and depends on an installation position of the camera and an inclination of the object. An image correction unit that corrects image distortion, and a center position where the left-right correlation at each height is the highest for each object region in the image corrected by the image correction unit is detected. A center position correcting unit that aligns vertically, and a collation region extracting unit that determines a region that can be used for identification processing in an image obtained by the center position correcting unit.

この構成によれば、カメラで撮影された画像から車両や人物等の対象物を検出して対象物領域を抽出し、またカメラの設置位置及び対象物の傾きによる画像の歪みを補正する。そして、補正した画像中の対象物領域に対して各高さでの左右の相関が最も高くなる中央位置を検出し、検出した中央位置を縦に揃え、この中央位置を縦に揃えた画像中の識別処理に使用可能な領域を決定するので、処理能力の高い計算機に拠らず半導体でも実現でき、カメラにも組み込み可能な簡易な処理で、さまざまな角度から撮影された車両や人物等の対象物の識別処理に使用できる近似的な正面画像を得ることができる。   According to this configuration, an object area such as a vehicle or a person is detected from an image captured by the camera to extract an object area, and image distortion due to the camera installation position and the object inclination is corrected. Then, the center position where the left-right correlation at each height is the highest for the object area in the corrected image is detected, the detected center position is aligned vertically, and the center position is aligned vertically. The area that can be used for identification processing is determined, so it can be realized in semiconductors without relying on computers with high processing capabilities, and it can be incorporated into cameras, such as vehicles and people taken from various angles. An approximate front image that can be used for the object identification process can be obtained.

本発明の画像処理装置は、カメラで撮影された画像から車両や人物等の対象物を検出し、対象物領域を抽出する対象物抽出部と、前記カメラの設置位置及び前記対象物の傾きによる画像の歪みを補正する画像補正部と、前記画像補正部で補正された画像に対し、特徴画像を生成する特徴画像生成部と、前記特徴画像生成部で生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、該中央位置を縦に揃える中央位置補正部と、前記中央位置補正部により得られた画像中の識別処理に使用可能な領域を決定する照合領域抽出部と、を備えた。   The image processing apparatus of the present invention detects an object such as a vehicle or a person from an image taken by a camera and extracts an object area, and depends on an installation position of the camera and an inclination of the object. An image correction unit that corrects image distortion, a feature image generation unit that generates a feature image for the image corrected by the image correction unit, and an object region in the feature image generated by the feature image generation unit In contrast, the center position where the left-right correlation at each height is the highest is detected, and the center position correction unit that aligns the center position vertically, and used for the identification processing in the image obtained by the center position correction unit And a collation area extraction unit that determines a possible area.

この構成によれば、カメラで撮影された画像から車両や人物等の対象物を検出して対象物領域を抽出し、またカメラの設置位置及び対象物の傾きによる画像の歪みを補正する。そして、補正した画像に対して特徴画像を生成し、生成した特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、この中央位置を縦に揃えた画像中の識別処理に使用可能な領域を決定するので、処理能力の高い計算機に拠らず半導体でも実現でき、カメラにも組み込み可能な簡易な処理で、さまざまな角度から撮影された車両や人物等の対象物の識別処理に使用できる近似的な正面画像を得ることができる。   According to this configuration, an object area such as a vehicle or a person is detected from an image captured by the camera to extract an object area, and image distortion due to the camera installation position and the object inclination is corrected. Then, a feature image is generated for the corrected image, and a center position where the left-right correlation at each height is the highest is detected for the object region in the generated feature image. Vehicles taken from various angles with simple processing that can be implemented in semiconductors and can be incorporated into cameras, because it determines areas that can be used for identification processing in aligned images, without relying on computers with high processing capabilities. It is possible to obtain an approximate front image that can be used for identifying an object such as a person or a person.

上記構成において、前記中央位置補正部は、前記特徴画像生成部で生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、検出した中央位置を平滑化した後、中央位置を縦に揃える。   In the above configuration, the center position correction unit detects and detects the center position where the left-right correlation at each height is the highest for the object region in the feature image generated by the feature image generation unit. After smoothing the center position, align the center position vertically.

上記構成において、前記中央位置補正部は、前記特徴画像生成部で生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出した後、画像を水平方向に分割した各小領域で領域ごとに中央位置を決定し、各小領域の中央位置を縦に揃える。   In the above configuration, the center position correction unit detects the center position where the left-right correlation at each height is the highest for the object region in the feature image generated by the feature image generation unit, The center position is determined for each area in each small area divided horizontally, and the center position of each small area is aligned vertically.

上記構成において、前記照合領域抽出部は、前記中央位置補正部で生成された中央位置補正画像中の対象物領域に対し、中央位置を挟む左右領域の領域幅を所定の範囲で変動させたときの左右領域の相関値の変化を調べ、相関値が急激に低下する領域幅を照合範囲の幅とする。   In the above configuration, when the collation region extraction unit changes the region width of the left and right regions sandwiching the center position within a predetermined range with respect to the object region in the center position correction image generated by the center position correction unit. The change in the correlation value of the left and right regions of the region is examined, and the region width where the correlation value rapidly decreases is set as the width of the collation range.

上記構成において、前記照合領域抽出部は、前記中央位置補正部で生成された中央位置補正画像中の対象物領域に対し、中央位置を挟む左右領域の領域幅を所定の範囲で変動させたときの左右領域の相関値の変化を調べ、相関が最も高い領域幅での値が所定の値より小さい場合、照合画像の左右いずれかの半分を他方の反転コピーで置き換えた画像を生成し、それを照合画像とする。   In the above configuration, when the collation region extraction unit changes the region width of the left and right regions sandwiching the center position within a predetermined range with respect to the object region in the center position correction image generated by the center position correction unit. When the change in the correlation value of the left and right areas of the image is examined, and the value in the area width with the highest correlation is smaller than the predetermined value, an image in which either the left or right half of the matching image is replaced with the other inverted copy is generated. Is a collation image.

本発明の画像処理方法は、カメラで撮影された画像から、車両や人物等の対象物を検出し、対象物領域を抽出する対象物抽出ステップと、前記カメラの設置位置及び前記対象物の傾きによる画像の歪みを補正する画像補正ステップと、前記画像補正ステップで補正された画像に対し、特徴画像を生成する特徴画像生成ステップと、前記特徴画像生成ステップで生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、中央位置を縦に揃える中央位置補正ステップと、前記中央位置補正ステップにより得られた画像中の識別処理に使用可能な領域を決定する照合領域抽出ステップと、を備えた。   The image processing method of the present invention includes an object extraction step for detecting an object such as a vehicle or a person from an image photographed by a camera and extracting an object area, an installation position of the camera, and an inclination of the object An image correction step for correcting image distortion due to the image, a feature image generation step for generating a feature image for the image corrected in the image correction step, and an object in the feature image generated in the feature image generation step The center position where the left-right correlation at each height is the highest for each region is detected, and the center position correction step for vertically aligning the center position is used for identification processing in the image obtained by the center position correction step. And a collation region extraction step for determining a possible region.

この方法によれば、カメラで撮影された画像から車両や人物等の対象物を検出して対象物領域を抽出し、またカメラの設置位置及び対象物の傾きによる画像の歪みを補正する。そして、補正した画像に対して特徴画像を生成し、生成した特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、この中央位置を縦に揃えた画像中の識別処理に使用可能な領域を決定するので、処理能力の高い計算機に拠らず半導体でも実現でき、カメラにも組み込み可能な簡易な処理で、さまざまな角度から撮影された車両や人物等の対象物の識別処理に使用できる近似的な正面画像を得ることができる。   According to this method, an object region such as a vehicle or a person is detected from an image photographed by a camera to extract an object area, and image distortion due to the camera installation position and the object inclination is corrected. Then, a feature image is generated for the corrected image, and a center position where the left-right correlation at each height is the highest is detected for the object region in the generated feature image. Vehicles taken from various angles with simple processing that can be implemented in semiconductors and can be incorporated into cameras, because it determines areas that can be used for identification processing in aligned images, without relying on computers with high processing capabilities. It is possible to obtain an approximate front image that can be used for identifying an object such as a person or a person.

本発明の画像処理装置は、処理対象物の画像を入力する画像入力部と、前記画像入力部で入力された画像を表示すると共に操作者の指示を表示する表示部と、操作者の指示に従って前記画像入力部で入力された画像内の処理対象物の対称位置と中央位置を指示する指示部と、前記画像入力部で入力された画像を前記指示部で指示された対称位置と中央位置を用いて画像変形する画像変形部と、前記画像変形部で画像変形された画像を出力する画像出力部と、を備えた。   An image processing apparatus according to the present invention includes an image input unit that inputs an image of a processing target, a display unit that displays an image input by the image input unit and displays an instruction of an operator, and an instruction of the operator An instruction unit for instructing a symmetric position and a center position of a processing object in an image input by the image input unit, and an image input by the image input unit for a symmetric position and a center position instructed by the instruction unit. An image deformation unit that deforms the image using the image deformation unit, and an image output unit that outputs an image deformed by the image deformation unit.

この構成によれば、入力画像内の処理対象物の対称位置と中央位置を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置を用いて入力画像の画像変形が行われる。   According to this configuration, the operator can freely set the symmetric position and the center position of the processing object in the input image, and the input image can be set using the symmetric position and the center position of the processing object set by the operator. The image deformation is performed.

本発明の画像処理装置は、処理対象物の画像を入力する画像入力部と、前記画像入力部で入力された画像を表示すると共に操作者の指示を表示する表示部と、前記処理対象物の既成値を記録する条件記録部と、前記画像入力部で入力された画像内の前記処理対象物の対称位置と中央位置及びサイズ指標を指示する指示部と、前記画像入力部で入力された画像を前記指示部で指示された対称位置と中央位置を用いて画像変形し、さらに前記条件記録部に記録されている既成値と前記指示部で指示されたサイズ指標を用いて画像変形する画像変形部と、前記画像変形部で画像変形された画像を出力する画像出力部と、を備えた。   An image processing apparatus of the present invention includes an image input unit that inputs an image of a processing object, a display unit that displays an image input by the image input unit and displays an instruction of an operator, A condition recording unit for recording a ready-made value, an instruction unit for instructing a symmetrical position, a center position, and a size index of the processing object in the image input by the image input unit, and an image input by the image input unit The image is deformed using the symmetrical position and the center position indicated by the instruction unit, and further, the image is deformed using the ready-made value recorded in the condition recording unit and the size index specified by the instruction unit. And an image output unit that outputs the image deformed by the image deforming unit.

この構成によれば、入力画像内の処理対象物の対称位置と中央位置及びサイズ指標を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置及びサイズ指標を用いて入力画像の画像変形が行われる。   According to this configuration, the operator can freely set the symmetric position, the center position, and the size index of the processing object in the input image, and the symmetric position, the center position, and the size of the processing object set by the operator. Image deformation of the input image is performed using the index.

本発明の画像処理装置は、処理対象物の画像を入力する画像入力部と、前記画像入力部で入力された画像を表示すると共に操作者の指示を表示する表示部と、前記処理対象物の既成値を記録する条件記録部と、前記画像入力部で入力された画像内の前記処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を指示する指示部と、前記画像入力部で入力された画像を前記指示部で指示された対称位置と中央位置を用いて画像変形し、これにより得られた画像に対し、前記条件記録部に記録されている既成値と前記指示部で指示されたサイズ指標を用いて画像変形し、さらに前記指示部で指示された非利用部分を対称部分の画像で補充する画像変形部と、前記画像変形部で画像変形された画像を出力する画像出力部と、を備えた。   An image processing apparatus of the present invention includes an image input unit that inputs an image of a processing object, a display unit that displays an image input by the image input unit and displays an instruction of an operator, A condition recording unit for recording a ready-made value, an instruction unit for instructing a symmetric position and a central position, a size index, and an unused portion of the processing object in the image input by the image input unit, and the image input unit The input image is deformed using the symmetric position and the center position specified by the instruction unit, and the ready-made value recorded in the condition recording unit and the instruction unit are specified for the obtained image. An image deforming unit that deforms an image using the size index that has been generated and further supplements a non-use portion instructed by the instruction unit with an image of a symmetric portion, and an image output that outputs an image deformed by the image deforming unit And a section.

この構成によれば、入力画像内の処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を用いて入力画像の画像変形が行われる。   According to this configuration, the operator can freely set the symmetric position and center position of the processing object in the input image, the size index, and the unused portion, and the symmetric position of the processing object set by the operator Image deformation of the input image is performed using the center position, the size index, and the unused portion.

上記構成において、前記画像出力部は、前記指示部で指示された非利用部分情報を補充前画像と共に出力する。   In the above configuration, the image output unit outputs the unused portion information instructed by the instruction unit together with the pre-replenishment image.

上記構成において、前記画像変形部は、前記指示部で指示された対称位置と中央位置の組が複数ある場合に、対称位置と中央位置を結ぶ線分で区切られた領域ごとに画像変形する。   In the above configuration, when there are a plurality of pairs of the symmetric position and the central position designated by the instruction unit, the image transformation unit deforms the image for each area divided by a line segment connecting the symmetric position and the central position.

本発明の画像処理方法は、処理対象物の画像を入力する画像入力ステップと、前記画像入力ステップで入力された画像を表示すると共に操作者の指示を表示する表示ステップと、操作者の指示に従って前記画像入力ステップで入力された画像内の処理対象物の対称位置と中央位置を指示する指示ステップと、前記画像入力ステップで入力された画像を前記指示ステップで指示された対称位置と中央位置を用いて画像変形する画像変形ステップと、前記画像変形ステップで画像変形された画像を出力する画像出力ステップと、を備えた。   According to an image processing method of the present invention, an image input step for inputting an image of an object to be processed, a display step for displaying an image input in the image input step and displaying an instruction of the operator, and an instruction of the operator An instruction step for instructing the symmetric position and center position of the processing object in the image input in the image input step, and the symmetric position and center position instructed in the instruction step for the image input in the image input step. An image transformation step for transforming the image using the image transformation step, and an image output step for outputting the image transformed in the image transformation step.

この方法によれば、入力画像内の処理対象物の対称位置と中央位置を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置を用いて入力画像の画像変形が行われる。   According to this method, the operator can freely set the symmetric position and the center position of the processing object in the input image, and the input image is used by using the symmetric position and the center position of the processing object set by the operator. The image deformation is performed.

本発明の画像処理方法は、処理対象物の画像を入力する画像入力ステップと、前記画像入力ステップで入力された画像を表示すると共に操作者の指示を表示する表示ステップと、前記処理対象物の既成値を記録する条件記録ステップと、前記画像入力ステップで入力された画像内の前記処理対象物の対称位置と中央位置及びサイズ指標を指示する指示ステップと、前記画像入力ステップで入力された画像を前記指示ステップで指示された対称位置と中央位置を用いて画像変形し、さらに前記条件記録ステップで記録された既成値と前記指示ステップで指示されたサイズ指標を用いて画像変形する画像変形ステップと、前記画像変形ステップで画像変形された画像を出力する画像出力ステップと、を備えた。   The image processing method of the present invention includes an image input step for inputting an image of a processing object, a display step for displaying an image input in the image input step and an instruction of an operator, A condition recording step for recording a ready-made value, an instruction step for instructing a symmetrical position, a central position and a size index of the processing object in the image input in the image input step, and an image input in the image input step The image deformation step of deforming the image using the symmetrical position and the central position instructed in the instruction step, and further deforming the image by using the ready value recorded in the condition recording step and the size index instructed in the instruction step And an image output step for outputting the image deformed in the image deformation step.

この方法によれば、入力画像内の処理対象物の対称位置と中央位置及びサイズ指標を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置及びサイズ指標を用いて入力画像の画像変形が行われる。   According to this method, the operator can freely set the symmetric position, the center position, and the size index of the processing object in the input image, and the symmetric position, the center position, and the size of the processing object set by the operator. Image deformation of the input image is performed using the index.

本発明の画像処理方法は、処理対象物の画像を入力する画像入力ステップと、前記画像入力ステップで入力された画像を表示すると共に操作者の指示を表示する表示ステップと、前記処理対象物の既成値を記録する条件記録ステップと、前記画像入力ステップで入力された画像内の前記処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を指示する指示ステップと、前記画像入力ステップで入力された画像を前記指示ステップで指示された対称位置と中央位置を用いて画像変形し、これにより得られた画像に対し、前記条件記録ステップで記録された既成値と前記指示ステップで指示されたサイズ指標を用いて画像変形し、さらに前記指示ステップで指示された非利用部分を対称部分の画像で補充する画像変形ステップと、前記画像変形ステップで画像変形された画像を出力する画像出力ステップと、を備えた。   The image processing method of the present invention includes an image input step for inputting an image of a processing object, a display step for displaying an image input in the image input step and an instruction of an operator, A condition recording step for recording a ready-made value, an instruction step for instructing a symmetric position and a center position, a size index, and an unused portion of the processing object in the image input in the image input step, and an image input step. The input image is deformed using the symmetrical position and the center position specified in the instruction step, and the image obtained by this is instructed in the ready value recorded in the condition recording step and in the instruction step. An image deformation step of deforming the image using the size index, and supplementing the unused portion instructed in the instruction step with an image of a symmetric portion; An image output step of outputting the image deformation by the image deformation step, with a.

この方法によれば、入力画像内の処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を用いて入力画像の画像変形が行われる。   According to this method, the operator can freely set the symmetric position and center position of the processing object in the input image, the size index, and the unused portion, and the symmetric position of the processing object set by the operator Image deformation of the input image is performed using the center position, the size index, and the unused portion.

上記方法において、前記画像出力ステップでは、前記指示ステップで指示された非利用部分情報を補充前画像と共に出力する。   In the above method, in the image output step, the unused portion information instructed in the instruction step is output together with the pre-replenishment image.

上記方法において、前記画像変形ステップでは、前記指示ステップで指示された対称位置と中央位置の組が複数ある場合に、対称位置と中央位置を結ぶ線分で区切られた領域ごとに画像変形する。   In the above method, in the image deformation step, when there are a plurality of pairs of the symmetric position and the central position indicated in the instruction step, the image is deformed for each region divided by a line segment connecting the symmetric position and the central position.

本発明の画像処理プログラムは、コンピュータを、前記画像処理装置として機能させるためのものである。   The image processing program of the present invention is for causing a computer to function as the image processing apparatus.

このプログラムによれば、入力画像内の処理対象物の対称位置と中央位置、サイズ指標、非利用部分の夫々を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置、サイズ指標又は非利用部分を用いて入力画像の画像変形が行われる。   According to this program, the operator can freely set the symmetry position and the center position of the processing object in the input image, the size index, and the unused portion, and the processing object set by the operator is symmetric. Image deformation of the input image is performed using the position and the center position, the size index, or the unused portion.

本発明の記録媒体は、前記画像処理プログラムを格納したものである。   The recording medium of the present invention stores the image processing program.

この記録媒体によれば、格納中の画像処理プログラムを様々なコンピュータに読み込ませて実行させることができる。   According to this recording medium, the image processing program being stored can be read and executed by various computers.

本発明は、カメラで撮影された車両や人物等の対象物を識別する際に、処理能力の高い計算機に拠らず半導体でも実現でき、カメラにも組み込み可能な簡易な処理で、さまざまな角度から撮影された車両や人物等の対象物の識別処理に使用できる近似的な正面画像を得ることができる。特に、処理対象物の画像に対して、対称位置と中央位置、サイズ指標又は非利用部分の設定を自動又は手動で行うことができ、利便性の向上が図れる。また、処理対象物の画像に対して、簡易な操作で、対称位置と中央位置、サイズ指標又は非利用部分の設定を行うことにより、補正画像の精度の向上を図ることができる。   The present invention, when identifying an object such as a vehicle or a person photographed with a camera, can be realized with a semiconductor without using a computer with high processing capability, and can be incorporated into a camera at various angles. Thus, it is possible to obtain an approximate front image that can be used for identification processing of an object such as a vehicle or a person photographed. In particular, the symmetry position and the center position, the size index, or the unused portion can be set automatically or manually for the image of the processing object, and the convenience can be improved. Further, the accuracy of the corrected image can be improved by setting the symmetry position and the center position, the size index, or the unused portion with a simple operation on the image of the processing object.

本発明の実施の形態1に係る画像処理装置の機能構成を示すブロック図1 is a block diagram showing a functional configuration of an image processing apparatus according to Embodiment 1 of the present invention. 本発明の実施の形態1に係る画像処理装置の対象物抽出部の処理を示すフローチャートThe flowchart which shows the process of the target object extraction part of the image processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像処理装置の対象物抽出部での処理において、(a)は入力画像を示す図、(b)は抽出された対象領域を示す図In the processing in the object extraction unit of the image processing apparatus according to the first embodiment of the present invention, (a) is a diagram showing an input image, and (b) is a diagram showing an extracted target region. 本発明の実施の形態1に係る画像処理装置の画像補正部の処理を示すフローチャート7 is a flowchart showing processing of the image correction unit of the image processing apparatus according to the first embodiment of the present invention. 本発明の実施の形態1に係る画像処理装置の画像補正部での処理を説明するための図The figure for demonstrating the process in the image correction part of the image processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像処理装置の中央位置補正部での処理において、(a)は中央位置検出処理を説明するための図、(b)は処理領域の連結を説明するための図、(c)は中央位置補正を説明するための図In the processing in the central position correction unit of the image processing apparatus according to the first embodiment of the present invention, (a) is a diagram for explaining the central position detection processing, and (b) is a diagram for explaining the connection of processing regions. FIG. 9C is a diagram for explaining the center position correction. 本発明の実施の形態1に係る画像処理装置の中央位置補正部の処理を示すフローチャートThe flowchart which shows the process of the center position correction | amendment part of the image processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像処理装置の注目矩形内中央位置算出ステップを詳細に示すフローチャートThe flowchart which shows in detail the center position calculation step within the attention rectangle of the image processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像処理装置の照合領域抽出部での処理において、(a)は照合範囲抽出処理を説明するための図、(b)は相関評価値を説明するための図、(c)は照合範囲を説明するための図In the processing in the collation region extraction unit of the image processing apparatus according to Embodiment 1 of the present invention, (a) is a diagram for explaining collation range extraction processing, and (b) is a diagram for explaining correlation evaluation values. (C) is a figure for demonstrating the collation range. 本発明の実施の形態1に係る画像処理装置の照合領域抽出部での処理において、(a)は左半面反転コピー画像を説明するための図、(b)は右半面反転コピー画像を説明するための図In the processing in the collation region extraction unit of the image processing apparatus according to the first embodiment of the present invention, (a) is a diagram for explaining a left half-inversion copy image, and (b) is a right half-inversion copy image. Illustration for 本発明の実施の形態1に係る画像処理装置の照合領域抽出部の処理を示すフローチャートThe flowchart which shows the process of the collation area | region extraction part of the image processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る画像処理装置の機能構成を示すブロック図FIG. 3 is a block diagram showing a functional configuration of an image processing apparatus according to Embodiment 2 of the present invention. 本発明の実施の形態2に係る画像処理装置の対象物抽出部の処理を示すフローチャートThe flowchart which shows the process of the target object extraction part of the image processing apparatus which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る画像処理装置の対象物抽出部での処理において、(a)は入力画像を示す図、(b)は抽出された対象物領域を示す図In the processing in the object extraction unit of the image processing apparatus according to the second embodiment of the present invention, (a) shows an input image, and (b) shows an extracted object region. 本発明の実施の形態2に係る画像処理装置の画像補正部での処理において、(a)は対象物領域を説明するための図、(b)は傾き補正を説明するための図、(c)は逆透視変換を説明するための図In the processing in the image correction unit of the image processing apparatus according to the second embodiment of the present invention, (a) is a diagram for explaining an object region, (b) is a diagram for explaining inclination correction, (c) ) Is a diagram for explaining reverse perspective transformation 本発明の実施の形態2に係る画像処理装置の画像補正部の処理を示すフローチャート7 is a flowchart showing processing of the image correction unit of the image processing apparatus according to Embodiment 2 of the present invention. 本発明の実施の形態2に係る画像処理装置の中央位置補正部の処理を示すフローチャートThe flowchart which shows the process of the center position correction | amendment part of the image processing apparatus which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る画像処理装置の中央位置補正部の処理において、(a)は中央位置算出を説明するための図、(b)は中央位置補正を説明するための図In the processing of the central position correction unit of the image processing apparatus according to the second embodiment of the present invention, (a) is a diagram for explaining central position calculation, and (b) is a diagram for explaining central position correction. 本発明の実施の形態2に係る画像処理装置の中央位置補正部の処理において、(a)は左半面反転コピー画像を説明するための図、(b)は右半面反転コピー画像を説明するための図In the processing of the central position correction unit of the image processing apparatus according to the second embodiment of the present invention, (a) is a diagram for explaining a left half-side reversed copy image, and (b) is a right half-side reversed copy image. Figure of 本発明の実施の形態3に係る画像処理装置の概略構成を示すブロック図FIG. 3 is a block diagram showing a schematic configuration of an image processing apparatus according to Embodiment 3 of the present invention. 本発明の実施の形態3に係る画像処理装置の画像処理を説明するためのフローチャートFlowchart for explaining image processing of the image processing apparatus according to the third embodiment of the present invention. 本発明の実施の形態3に係る画像処理装置において、入力画像の一例を示す図The figure which shows an example of an input image in the image processing apparatus which concerns on Embodiment 3 of this invention. 図22の入力画像において、操作者が対称2点を指定した例を示す図The figure which shows the example which the operator specified two symmetrical points in the input image of FIG. 図23の画像において、操作者によって指定された対称2点を結ぶ線分を示す図The figure which shows the line segment which connects two symmetrical points designated by the operator in the image of FIG. 図24の画像において、操作者が指定した対称2点を結ぶ線分に操作者が中点を指定した例を示す図The figure which shows the example which the operator specified the middle point in the line segment which connects two symmetrical points which the operator specified in the image of FIG. 図24の画像において、操作者が対称2点を必要とする数分指定した例を示す図FIG. 24 is a diagram showing an example in which the operator has specified a number of two symmetrical points required in the image of FIG. 図26の画像を複数の台形領域に分割した例を示す図The figure which shows the example which divided | segmented the image of FIG. 26 into several trapezoid area | regions 図27の画像において、台形領域ごとに長方形に変形し、左右縮尺を統一した例を示す図In the image of FIG. 27, a diagram showing an example in which each trapezoidal region is transformed into a rectangle and the horizontal scale is unified. 図28の画像において、長方形を中央位置で合わせる例を示す図The figure which shows the example which matches a rectangle in the center position in the image of FIG. 図29における処理が終了した後の画像を示す図The figure which shows the image after the process in FIG. 29 is complete | finished 図30の画像に対するサイズ補正の例を示す図The figure which shows the example of the size correction with respect to the image of FIG. 図31におけるサイズ補正処理が終了した後の画像を示す図The figure which shows the image after the size correction process in FIG. 31 is complete | finished 図30の画像に対するサイズ補正の他の例を示す図The figure which shows the other example of the size correction with respect to the image of FIG. 図32のサイズ補正処理の画像に中央位置で線対称な枠を表示し、縦横の縮尺を合せてサイズ補正画像に変形した例を示す図FIG. 32 is a diagram showing an example in which a line-symmetric frame is displayed at the center position on the image of the size correction processing of FIG. 32 and the image is transformed into a size-corrected image by adjusting the vertical and horizontal scales. 図34の画像に対して部分領域枠を表示した例を示す図The figure which shows the example which displayed the partial region frame with respect to the image of FIG. 図35の画像に対して操作者が利用しない部分領域を指定した例を示す図The figure which shows the example which designated the partial area | region which an operator does not use with respect to the image of FIG. 図36の画像において、指定部分領域の画像を反対側から転写複写した例を示す図36 is a diagram showing an example in which the image of the designated partial area is transferred and copied from the opposite side in the image of FIG. 図37における転写複写後の画像を示す図The figure which shows the image after transcription | transfer copying in FIG. 本発明の実施の形態3に係る画像処理装置の応用例における画像処理を説明するためのフローチャートFlowchart for explaining image processing in an application example of the image processing apparatus according to the third embodiment of the present invention.

以下、本発明を実施するための好適な実施の形態について、図面を参照して詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments for carrying out the invention will be described in detail with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る画像処理装置の機能構成を示すブロック図である。本実施の形態の画像処理装置は、車両識別のための近似的正面画像を生成できるものであり、図1に示すように、対象物抽出部101と、画像補正部102と、特徴画像生成部103と、中央位置補正部104と、照合領域抽出部105とを備えている。
(Embodiment 1)
FIG. 1 is a block diagram showing a functional configuration of the image processing apparatus according to Embodiment 1 of the present invention. The image processing apparatus according to the present embodiment can generate an approximate front image for vehicle identification. As shown in FIG. 1, the object extraction unit 101, the image correction unit 102, and the feature image generation unit 103, a center position correction unit 104, and a collation region extraction unit 105.

対象物抽出部101は、通行路に設置されたカメラ(図示略)で撮影された画像から車両や人物等の対象物を検出し、対象物領域を抽出する。図2は、対象物抽出部101の処理を示すフローチャートである。図2において、まずステップS101で画像中のナンバープレートを検出し、ステップS102でナンバープレートを検出したか否かを判断する。ナンバープレートを検出した場合には車両が有ると判断した場合、ステップS103でナンバープレート4隅座標を検出する。次いで、ステップS104で、検出したナンバープレート位置と大きさに基づき対象物領域を決定する。   The target object extraction unit 101 detects a target object such as a vehicle or a person from an image taken by a camera (not shown) installed on a traffic path, and extracts a target area. FIG. 2 is a flowchart showing processing of the object extraction unit 101. In FIG. 2, first, a license plate in the image is detected in step S101, and it is determined whether or not a license plate is detected in step S102. If it is determined that there is a vehicle when the license plate is detected, the coordinates of the four corners of the license plate are detected in step S103. Next, in step S104, an object region is determined based on the detected license plate position and size.

図3において、(a)は入力画像、(b)は検出されたナンバープレート4隅座標Pと対象物領域R1を示す。図2のステップS101のナンバープレート検出ステップでは、例えばハフ変換等を用いた画像からナンバープレートの枠の直線を検出するなどの公知の方法(例えば、特開2008−217347号公報参照)を用いてナンバープレートを検出する。なお、対象物抽出部101では、ナンバープレートを検出する方式のみでなく、車両形状のテンプレートを利用したパターンマッチングによる手法を用いることもできる。また、連続画像が入力される場合は、連続する画像間の変化から移動物体を検出し、対象物とする方法を用いることもできる。   In FIG. 3, (a) shows the input image, and (b) shows the detected license plate four corner coordinates P and the object region R1. In the license plate detection step of step S101 in FIG. 2, for example, a known method (for example, see Japanese Patent Application Laid-Open No. 2008-217347) such as detecting a straight line of a license plate frame from an image using Hough transform or the like is used. Detect the license plate. The object extraction unit 101 can use not only a method of detecting a license plate but also a pattern matching method using a vehicle-shaped template. Moreover, when a continuous image is input, a method of detecting a moving object from a change between successive images and setting it as a target can be used.

画像補正部102は、カメラの設置位置及び対象物の傾きによる画像の歪みを補正する。即ち、画像補正部102は、対象物抽出部101で、車両が写っていると判定された画像について、カメラの設置位置による画像の補正を行う。図4は、画像補正部102の処理を示すフローチャートである。図4において、ステップS201で補正パラメータの計算を行う。この場合、カメラが固定されていれば、該カメラと対象物上の基準点との距離、角度(振れ角および俯角)およびカメラ自身の回転角度から逆透視変換のための補正パラメータを決定できる。次いで、ステップS202において、ステップS201で得られたパラメータを用いて画像を逆透視変換する。逆透視変換は、斜め方向を向いた垂直平面を視線方向に向ける変換である。この場合、車両正面向きの面を視線方向に向ける変換を行う。その際、同一奥行き面内の点は正しく正面を向いた画像に補正されるが、奥行きが異なる面同士の位置は画像上で左右にずれるため、車両画像全体としては、よりゆがんだ画像となる。図5にその一例を示す。   The image correction unit 102 corrects image distortion due to the camera installation position and the tilt of the object. That is, the image correction unit 102 corrects an image based on the installation position of the camera for the image that is determined by the object extraction unit 101 to show the vehicle. FIG. 4 is a flowchart showing the processing of the image correction unit 102. In FIG. 4, the correction parameter is calculated in step S201. In this case, if the camera is fixed, a correction parameter for reverse perspective transformation can be determined from the distance, angle (deflection angle and depression angle) between the camera and a reference point on the object, and the rotation angle of the camera itself. Next, in step S202, the image is subjected to inverse perspective transformation using the parameters obtained in step S201. The reverse perspective transformation is a transformation in which a vertical plane directed in an oblique direction is directed to the viewing direction. In this case, conversion is performed so that the surface facing the front of the vehicle is directed to the line of sight. At that time, the points in the same depth plane are corrected to an image that faces the front correctly, but the positions of the planes with different depths are shifted to the left and right on the image, so that the entire vehicle image becomes a more distorted image. . An example is shown in FIG.

なお、カメラが可動式であったり、設置角度が不明であったりしても、対象物抽出部101で検出したナンバープレート4隅座標に基づき、補正パラメータを決定することもできる。また、カメラ位置による補正を行っても、車両自身の傾き等の理由により、車両の垂直軸が画像の垂直軸に一致しない場合には、傾き補正により両者を一致させる(ステップS203)。その際、車両の垂直軸の方向としては、ナンバープレートの左右辺が利用できる。   Even if the camera is movable or the installation angle is unknown, the correction parameter can be determined based on the four corner coordinates of the license plate detected by the object extraction unit 101. If the vertical axis of the vehicle does not coincide with the vertical axis of the image due to the inclination of the vehicle itself or the like even after correction based on the camera position, the two are matched by inclination correction (step S203). At this time, the left and right sides of the license plate can be used as the direction of the vertical axis of the vehicle.

以上の補正により、車両前面の左右方向が画像の水平方向に、垂直(上下)方向が画像の垂直方向に一致している。   With the above correction, the left-right direction on the front of the vehicle matches the horizontal direction of the image, and the vertical (up-down) direction matches the vertical direction of the image.

次に、特徴画像生成部103は、画像補正部102で補正された画像に対し、以後の処理で使用する特徴画像を生成する。例えば、濃淡画像化、2値画像化、あるいは、ハフ変換やソーベルフィルタ等のフィルタ処理を施したエッジ画像等を生成する。なお、特徴画像生成処理を行わず、元の画像の画素値をそのまま利用しても構わない。   Next, the feature image generation unit 103 generates a feature image to be used in the subsequent processing for the image corrected by the image correction unit 102. For example, an edge image or the like subjected to gradation processing, binary image formation, or filter processing such as Hough transform or Sobel filter is generated. Note that the pixel value of the original image may be used as it is without performing the feature image generation process.

次に、中央位置補正部104は、特徴画像生成部103で生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、該中央位置を縦に揃える。中央位置補正部104の処理について図6を用いて説明する。図6の(a)は、特徴画像生成部103で得られた特徴画像中での対象物領域R”1を示す。ここでは、画像の水平方向をx方向、垂直方向をy方向とし、矩形領域R”1の4角の座標は(x1,y1)、(x2,y1)、(x2,y2)、(x1,y2)である。座標(x,y)における画素値をG(x,y)とすると、座標(x,y)における左右の差異は、式(1)で求まる。ここで、Kはナンバープレートの大きさに基づき決められる定数である。   Next, the center position correction unit 104 detects the center position where the left-right correlation at each height is the highest for the object region in the feature image generated by the feature image generation unit 103, and the center position Are aligned vertically. The processing of the center position correction unit 104 will be described with reference to FIG. 6A shows the object region R ″ 1 in the feature image obtained by the feature image generation unit 103. Here, the horizontal direction of the image is the x direction, and the vertical direction is the y direction. The coordinates of the four corners of the region R ″ 1 are (x1, y1), (x2, y1), (x2, y2), (x1, y2). If the pixel value at the coordinates (x, y) is G (x, y), the difference between the left and right at the coordinates (x, y) can be obtained by equation (1). Here, K is a constant determined based on the size of the license plate.


D(x,y)=Σ|G(x−k,y)−G(x+k,y)| …(1)
k=1
K
D (x, y) = Σ | G (x−k, y) −G (x + k, y) | (1)
k = 1

矩形領域R”1内の各y座標において、x1+Kからx2−Kの範囲のすべてのxについて左右の差異D(x,y)を求め、その値が最小となるxを、高さy座標における中央位置x0(y)とする(差異が小さいほうが、相関値が高いためである)。各y座標で求まった中央位置(x0(y),y)を結んだ曲線が図6の(b)に示すL1である。   For each y coordinate in the rectangular area R ″ 1, the left and right differences D (x, y) are obtained for all x in the range from x1 + K to x2−K, and the x having the smallest value is determined in the height y coordinate. (The smaller the difference is, the higher the correlation value is.) A curve connecting the central positions (x0 (y), y) obtained by the respective y coordinates is shown in FIG. L1 shown in FIG.

矩形領域内のすべてのy座標での中央位置が求まると、その上辺および下辺に隣接する同じ大きさの矩形領域R”2に対しても同様の処理を行い、中央位置を結ぶ線L1を延長する。但し、矩形領域R”1との接続y座標(下辺の場合y1、上辺の場合y2)で、中央値が矩形領域の中央に来るよう第2の矩形領域R”2を配置する。この際、領域が画像外にはみ出す場合には領域外の部分は処理対象としない。   When the center positions at all y coordinates in the rectangular area are obtained, the same processing is performed on the rectangular area R ″ 2 adjacent to the upper and lower sides, and the line L1 connecting the center positions is extended. However, the second rectangular area R ″ 2 is arranged so that the median value is at the center of the rectangular area at the connection y coordinate (y1 for the lower side, y2 for the upper side) with the rectangular area R ″ 1. At this time, when the region is outside the image, the portion outside the region is not processed.

図6の(c)は、上記のようにして求まった中央位置を縦に揃えた図である。実画像においては、中央位置は滑らかに連続するとは限らないため、揃える前に、求まった中央位置に対し、平滑化を行うとより自然な補正画像が得られる。平滑化は、例えば移動平均を用いる等、公知の方法で行う。あるいは平滑化に代えて、画像を水平方向の小領域に分割し、小領域内では、全y座標で同一の中央位置x座標(例えば、区間平均値)を取るようにしても構わない。この場合には、小領域に分割する境界は、カラー画像での色の変わり目や、予め濃淡画像での濃淡値の変わり目、あるいはハフ変換やソーベルフィルタ等の各種フィルタ処理により得られる水平エッジ位置を利用することができる。   FIG. 6C is a diagram in which the center positions obtained as described above are aligned vertically. In the actual image, since the center position does not always continue smoothly, if the obtained center position is smoothed before being aligned, a more natural corrected image can be obtained. The smoothing is performed by a known method such as using a moving average. Alternatively, instead of smoothing, the image may be divided into small areas in the horizontal direction, and within the small area, the same center position x coordinate (for example, the section average value) may be taken for all y coordinates. In this case, the boundary to be divided into small areas is a horizontal edge position obtained by color change in a color image, change in gray value in a gray image, or various filter processes such as Hough transform and Sobel filter. Can be used.

図7は、中央位置補正部104の処理を示すフローチャートである。図7において、まずステップS301で、特徴画像生成部103で得られた特徴画像中での対象物領域R”1内の各y座標について中央位置x座標を求める。次いで、ステップS302で、R”1上辺に隣接する矩形領域R”2の位置を前記アルゴリズムにより決定する。次いで、ステップS303で、決定した矩形領域が画像内に含まれるか否かを判断し、画像内に含まれる場合には、ステップS304で、注目矩形内の各y座標について中央位置x座標を求める。ステップS303で、決定した矩形領域が画像内に含まれなかった場合(すなわち、上側の処理が完了した場合)には、ステップS305〜S307で、当初の対象物領域R”1の下側についてステップS302〜S304と同様の処理を行う。ステップS306で、下側の注目矩形領域が画像内ではなくなったら(すなわち、下側の処理も完了したら)、ステップS308で、各y座標について得られた中央位置x座標の平滑化を行う。次いで、ステップS309で、各y座標ごとの平滑化後の中央位置x座標の平均値X0を求める。そして、ステップS310で、各y座標ごとの中央位置をステップS309で求めた平均値X0に一致させるよう各y座標の横方向の画素を左右にずらす。   FIG. 7 is a flowchart showing the processing of the center position correction unit 104. In FIG. 7, first, in step S301, a central position x coordinate is obtained for each y coordinate in the object region R ″ 1 in the feature image obtained by the feature image generation unit 103. Next, in step S302, R ″. The position of the rectangular area R ″ 2 adjacent to the upper side is determined by the algorithm. Next, in step S303, it is determined whether or not the determined rectangular area is included in the image. In step S304, the center position x coordinate is obtained for each y coordinate in the target rectangle, and if the determined rectangular area is not included in the image in step S303 (that is, the upper process is completed). In steps S305 to S307, the same processing as in steps S302 to S304 is performed on the lower side of the original object region R ″ 1. In step S306, when the lower target rectangular area is no longer in the image (that is, when the lower processing is completed), the center position x coordinate obtained for each y coordinate is smoothed in step S308. Next, in step S309, an average value X0 of the center position x coordinate after smoothing for each y coordinate is obtained. In step S310, the pixels in the horizontal direction of each y coordinate are shifted left and right so that the center position for each y coordinate matches the average value X0 obtained in step S309.

図8は、注目矩形内中央位置算出ステップ(ステップS301、S304、S307)の詳細な処理を示すフローチャートである。図8において、まずステップS311で、y=y1とする。次いで、ステップS312でy1≦yかつy≦y2かどうかを判断し、該当しない場合は本処理を終了し、該当する場合は、ステップS313でx=x1+Kとする。ステップS313の処理を行った後、ステップS314で、x1+K≦xかつx≦x2+Kかどうかを判断し、該当しない場合は、ステップS319で、x0をyでの中央位置として保存し、その後、y++としてステップS312に戻る。一方、ステップS314において、該当する場合は、ステップS315で、(x,y)を中央点とした時の左右差異D(x,y)を計算する。そして、ステップS316で、D(x,y)<Dminかどうかを判断し、該当しない場合は、ステップS317で、Dmin=D(x,y)、x0=xとする。ステップS316で該当しないと判断した場合又はステップS317の処理を行った後、x++としてステップS314に戻る。   FIG. 8 is a flowchart showing the detailed processing of the center position calculation step (steps S301, S304, S307) in the target rectangle. In FIG. 8, first, in step S311, y = y1 is set. Next, in step S312, it is determined whether y1 ≦ y and y ≦ y2, and if not applicable, this processing is terminated. If applicable, x = x1 + K is set in step S313. After performing the process of step S313, in step S314, it is determined whether x1 + K ≦ x and x ≦ x2 + K. If not, x0 is stored as the center position in y in step S319, and then is set as y ++. The process returns to step S312. On the other hand, in step S314, if applicable, in step S315, the left-right difference D (x, y) when (x, y) is the center point is calculated. In step S316, it is determined whether D (x, y) <Dmin. If not, Dmin = D (x, y) and x0 = x are set in step S317. If it is determined in step S316 that it is not applicable, or after performing the process of step S317, the process returns to step S314 as x ++.

なお、ここでは左右の対象度の指標として、左右値の差の総和を用いて説明したが、2乗誤差の総和を用いてもかまわない、また、類似度や相関値での代替も可能である。但し、類似度や相関値で評価する場合には、左右値の差の総和を用いた場合とは、大小関係が逆転する。   In this example, the sum of the difference between the left and right values is used as the index of the right and left target levels. However, the sum of square errors may be used, and substitution with similarity and correlation values is also possible. is there. However, when the evaluation is performed using the similarity or the correlation value, the magnitude relationship is reversed from the case where the sum of the differences between the left and right values is used.

また、ここでは、各y座標ごとに中央位置x座標を平滑化する例を説明したが、フロントガラス、ボンネット、グリル、バンパー等の各領域毎に中央位置を決めてもよい。各領域は、色や明るさが大きく変化する位置で分割される。   Here, an example in which the center position x coordinate is smoothed for each y coordinate has been described, but the center position may be determined for each region such as a windshield, a bonnet, a grill, and a bumper. Each area is divided at a position where the color and brightness change greatly.

次に、照合領域抽出部105の処理について図9を用いて説明する。照合領域抽出部105は、中央位置補正部104により得られた画像中の識別処理に使用可能な領域を決定する。図9の(a)は、中央位置補正の施された特徴画像中での対象物領域を示すものである。図6の(a)と同様に、画像の水平方向をx方向、垂直方向をy方向とし、座標(x,y)における画素値をG(x,y)とする。中央位置のx座標をx0としたとき、座標(x0,y)における左右の差異を(x0−t,y)から(x0+t,y)の範囲で求めるとき、以下に示す式(2)で求まる。tは、所定の定数tminからtmax=Min(x0−x1,x2−x0)までの範囲をとる。   Next, the process of the collation area extraction unit 105 will be described with reference to FIG. The collation region extraction unit 105 determines a region that can be used for identification processing in the image obtained by the center position correction unit 104. FIG. 9A shows an object region in a feature image that has been subjected to center position correction. As in FIG. 6A, the horizontal direction of the image is the x direction, the vertical direction is the y direction, and the pixel value at the coordinates (x, y) is G (x, y). When the x coordinate of the central position is x0, the left and right difference in the coordinate (x0, y) is obtained in the range from (x0−t, y) to (x0 + t, y), which is obtained by the following equation (2). . t takes a range from a predetermined constant tmin to tmax = Min (x0−x1, x2−x0).


D’(y,t)=Σ|G(x0−k,y)−G(x0+k,y)| …(2)
k=1
t
D ′ (y, t) = Σ | G (x0−k, y) −G (x0 + k, y) | (2)
k = 1

各y座標について求めた範囲tの左右の差異D’(y,t)をy1からy2の範囲で加算し、左右領域の相関評価値S(t)を求める。以下に相関評価値S(t)を求める式(3)に示す。   The left-right difference D ′ (y, t) in the range t obtained for each y-coordinate is added in the range from y1 to y2, and the correlation evaluation value S (t) in the left-right region is obtained. The equation (3) for obtaining the correlation evaluation value S (t) is shown below.

y2
S(t)=ΣD’(y,t)/t …(3)
y=y1
y2
S (t) = ΣD ′ (y, t) / t (3)
y = y1

相関が高いほどこの値は小さい。図9の(b)に示すように、相関評価値S(t)はt0を境に大きくなる。このt0を元に、x0−t0からx0+t0の範囲を照合領域(〈R〉)とする(図9の(c))。なお、S(t)の最小値Sminが所定の値Thより小さい場合には、x0≦x≦x0+t0の範囲の右半面画像の代わりに、x0−t0≦x≦x0の範囲の左半面画像を左右反転しはめ込んだ左半面反転コピー画像(図10の(a))と、x0−t0≦x≦x0の範囲の左半面画像の代わりに、x0≦x≦x0+t0の範囲の右半面画像を左右反転しはめ込んだ、右半面反転コピー画像(図10の(b))との2画像を生成し、中央位置補正部104で生成された中央位置補正画像に代えて照合画像とする。照合の範囲は、中央位置補正画像の場合と同様、x0−t0≦x≦x0+t0の範囲を用いる。   The higher the correlation, the smaller this value. As shown in (b) of FIG. 9, the correlation evaluation value S (t) increases with t0 as a boundary. Based on this t0, a range from x0-t0 to x0 + t0 is set as a collation region (<R>) ((c) in FIG. 9). When the minimum value Smin of S (t) is smaller than the predetermined value Th, a left half image in the range of x0−t0 ≦ x ≦ x0 is used instead of the right half image in the range of x0 ≦ x ≦ x0 + t0. Instead of the left half-side inverted copy image (FIG. 10A) that has been flipped horizontally and the left half-side image in the range of x0−t0 ≦ x ≦ x0, the right half-side image in the range of x0 ≦ x ≦ x0 + t0 Two images of the right half-side inverted copy image (FIG. 10B) that are inverted and fitted are generated, and used as a collation image instead of the center position correction image generated by the center position correction unit 104. As the collation range, a range of x0−t0 ≦ x ≦ x0 + t0 is used as in the case of the center position corrected image.

図11は、照合領域抽出部105の処理を示すフローチャートである。図11において、ステップS411でt=tmin、S(t)=0とし、ステップS412で、tmin≦tかつt≦tmaxかどうかを判断する。該当する場合は、ステップS413で、y=y1とし、ステップS414で、y1≦yかつy≦y2かどうかを判断し、該当する場合は、ステップS415で、(x0,y)を中央点とした時の左右範囲tの差異D’(y、t)を計算する。そして、ステップS416で、S(t)+=D’(y、t)、y++として、ステップS414に戻る。ステップS414の判定で、y1≦yかつy≦y2が該当しない場合は、ステップS417で、相関評価値S(t)を保存し、その後、y++としてステップS412に戻る。一方、ステップS412の判定で、tmin≦tかつt≦tmaxに該当しない場合、ステップS419で、S(t)を解析し、値が急増するt=t0を決定し、x0−t0≦x≦x0+t0を照合範囲とする。そして、ステップS420で、Smin>Thかどうか判断し、該当しない場合は本処理を終了し、Smin>Thに該当する場合は、ステップS421で、左反面反転コピー画像、右反面反転コピー画像を生成する。ステップS421の処理を終えた後、本処理を終了する。   FIG. 11 is a flowchart showing the processing of the collation area extraction unit 105. In FIG. 11, t = tmin and S (t) = 0 are set in step S411, and it is determined in step S412 whether tmin ≦ t and t ≦ tmax. If yes, in step S413, y = y1, and in step S414, determine whether y1 ≦ y and y ≦ y2, and if so, in step S415, set (x0, y) as the center point. The difference D ′ (y, t) between the left and right range t is calculated. In step S416, S (t) + = D '(y, t), y ++ is set, and the process returns to step S414. If it is determined in step S414 that y1 ≦ y and y ≦ y2 do not apply, the correlation evaluation value S (t) is stored in step S417, and thereafter, y ++ is returned to step S412. On the other hand, if it is determined in step S412, that tmin ≦ t and t ≦ tmax are not satisfied, S (t) is analyzed in step S419, t = t0 where the value increases rapidly is determined, and x0−t0 ≦ x ≦ x0 + t0. Is the collation range. In step S420, it is determined whether Smin> Th. If not, the process is terminated. If Smin> Th, the left side reverse copy image and the right side reverse copy image are generated in step S421. To do. After finishing the process of step S421, this process is complete | finished.

このように、ステップS411〜ステップS418で、tmin≦t≦tmaxのtについての相関評価値S(t)を求め、ステップS419で、相関評価値S(t)の急激に大きくなるt値t0を求める(差異が大きいということは、相関が崩れたことを意味する)。そして、その値を元に、中央位置補正の施された画像のx0−t0≦x≦x0+t0の範囲を照合範囲とする。ここでも、中央位置補正部104と同様、左右の対象度の指標として、左右値の差の総和を用いて説明したが、2乗誤差の総和を用いてもかまわない。また、類似度や相関値での代替も可能である。但し、類似度や相関値で評価する場合には、左右値の差の総和を用いた場合とは、大小関係が逆転する。   Thus, in step S411 to step S418, the correlation evaluation value S (t) for t of tmin ≦ t ≦ tmax is obtained, and in step S419, the t value t0 where the correlation evaluation value S (t) increases rapidly is obtained. (A large difference means that the correlation is broken.) Then, based on the value, a range of x0−t0 ≦ x ≦ x0 + t0 of the image subjected to the center position correction is set as a collation range. Here, as in the central position correction unit 104, the sum of the differences between the left and right values has been described as the index of the left and right target degrees, but the sum of the square errors may be used. Also, substitution with similarity and correlation values is possible. However, when the evaluation is performed using the similarity or the correlation value, the magnitude relationship is reversed from the case where the sum of the differences between the left and right values is used.

このように、通行路に設置されたカメラで撮影された車両等の対象物を識別する際に、処理能力の高い計算機に拠らず、カメラに組み込み可能な半導体でも実現できる簡易な処理で、左右対称な特性を持つ対象物の近似的な正面画像を得ることができる。そして、これにより、さまざまな角度から撮影された人物等の対象物の識別処理を行うことが可能となる。   In this way, when identifying an object such as a vehicle photographed with a camera installed on a traffic path, it is a simple process that can be realized even with a semiconductor that can be incorporated in the camera without depending on a computer with high processing capacity, It is possible to obtain an approximate front image of an object having symmetrical characteristics. Thus, it is possible to perform identification processing of an object such as a person photographed from various angles.

(実施の形態2)
本発明の実施の形態2に係る画像処理装置は、人物の顔認証のための近似的正面画像を生成できるものであり、図12に示すように、対象物抽出部1011と、画像補正部1021と、特徴画像生成部1031と、中央位置補正部1041と、照合領域抽出部1051とを備えている。
(Embodiment 2)
The image processing apparatus according to the second embodiment of the present invention can generate an approximate front image for human face authentication, and as shown in FIG. 12, an object extraction unit 1011 and an image correction unit 1021. A feature image generation unit 1031, a center position correction unit 1041, and a collation region extraction unit 1051.

図13は、対象物抽出部1011の処理を示すフローチャートである。図13において、まずステップS501で画像中の人の顔の検出を行い、次いでステップS502で、顔が検出された否かを判断し、顔を検出した場合は対象物が有ると判断してステップS503で目口位置座標を検出する。次いでステップS504で、検出した目口位置に基づき対象物領域を決定する。   FIG. 13 is a flowchart showing the processing of the object extraction unit 1011. In FIG. 13, first, in step S501, a human face in the image is detected, and then in step S502, it is determined whether or not a face is detected. If a face is detected, it is determined that there is an object. In step S503, eye opening position coordinates are detected. In step S504, an object region is determined based on the detected eye opening position.

図14において、(a)は入力画像、(b)は抽出された目口位置座標Pと対象物領域R1を示す。ステップS501の顔検出ステップは、例えばテンプレートを利用したパターンマッチングによる方法(例えば特開2004−318204号公報参照)といった公知の顔検出方法を用いて実行される。また、連続画像が入力される場合には、連続する画像間の変化から移動物体を検出し、対象物とする方法を用いることもできる。   In FIG. 14, (a) shows the input image, and (b) shows the extracted eye opening position coordinates P and the object region R1. The face detection step in step S501 is executed using a known face detection method such as a pattern matching method using a template (see, for example, JP-A-2004-318204). In addition, when continuous images are input, a method of detecting a moving object from a change between successive images and setting it as a target can be used.

画像補正部1021では、対象物抽出部1011で、顔が写っていると判定された画像についてカメラ位置による画像の補正を行う。図15は画像補正部102における処理を示す図である。また、図16は画像補正部102の処理を示すフローチャートである。対象物が顔の場合、まずステップS601で、顔の垂直軸を画像の垂直軸に一致させる傾き補正を行う。このとき、両目位置P1,P2を結んだ直線(P1P2)に口位置(P3)から降ろした垂線P3Hを顔の垂直軸とし(図15の(a))、この垂線P3Hを画像の垂直方向に向ける回転補正を行う(図15の(b))。次いで、ステップS602で、左右の目位置座標と前記垂線の足Hとの距離の比(P1H:P2H)に基づき、逆透視変換のための補正パラメータを決定する。そして、ステップS603で、ステップS602で得られたパラメータを用いて画像を逆透視変換する。以上の補正により、顔前面の左右方向が画像の水平方向に、垂直(上下)方向が画像の垂直方向に一致する(図15の(c))。   The image correction unit 1021 corrects the image based on the camera position for the image determined by the object extraction unit 1011 as having a face. FIG. 15 is a diagram illustrating processing in the image correction unit 102. FIG. 16 is a flowchart showing the processing of the image correction unit 102. If the object is a face, first, in step S601, tilt correction is performed so that the vertical axis of the face matches the vertical axis of the image. At this time, the perpendicular line P3H drawn from the mouth position (P3) to the straight line (P1P2) connecting both eye positions P1 and P2 is taken as the vertical axis of the face ((a) in FIG. 15), and this perpendicular line P3H is in the vertical direction of the image. The rotation correction is performed ((b) of FIG. 15). Next, in step S602, correction parameters for reverse perspective transformation are determined based on the ratio of the distance between the left and right eye position coordinates and the foot H of the perpendicular (P1H: P2H). In step S603, the image is subjected to inverse perspective transformation using the parameters obtained in step S602. With the above correction, the left and right direction of the front face of the face coincides with the horizontal direction of the image, and the vertical (up and down) direction coincides with the vertical direction of the image ((c) of FIG. 15).

次に、特徴画像生成部1031では、画像補正部1021で画像補正の施された画像に対し、以後の処理で使用する特徴画像を生成する。例えば、濃淡画像化、2値画像化、あるいは、ハフ変換やソーベルフィルタ等のフィルタ処理を施したエッジ画像等を生成する。あるいは、特徴画像生成処理を行わず、元の画像の画素値をそのまま利用しても構わない。   Next, the feature image generation unit 1031 generates a feature image to be used in subsequent processing for the image that has been subjected to image correction by the image correction unit 1021. For example, an edge image or the like subjected to gradation processing, binary image formation, or filter processing such as Hough transform or Sobel filter is generated. Alternatively, the pixel value of the original image may be used as it is without performing the feature image generation process.

図17は、中央位置補正部1041における処理を示すフローチャートである。図17において、ステップS701で、特徴画像生成部1031で得られた特徴画像中での対象物領域R”1内の各y座標について中央位置x座標を求める(図18の(a))。次いで、ステップS702で、各y座標について得られた中央位置x座標の平滑化を行う。次いで、ステップS703で、平滑化された各y座標ごとの中央位置x座標の平均値X0を求める。次いで、ステップS704で、各y座標ごとの中央位置をステップS703で求めた平均値X0に一致させるよう各y座標の横方向の画素を左右にずらす(図18(b))。なお、中央位置を算出するステップS701の処理は、車両を対象とする場合の注目矩形内中央位置算出ステップ(ステップS301、S304、S307)と同一である。また、照合領域抽出部1051における処理も車両を対象とする場合と同一でよい。   FIG. 17 is a flowchart showing processing in the center position correction unit 1041. 17, in step S701, the center position x coordinate is obtained for each y coordinate in the object region R ″ 1 in the feature image obtained by the feature image generation unit 1031 ((a) in FIG. 18). In step S702, the center position x coordinate obtained for each y coordinate is smoothed, and in step S703, the average value X0 of the center position x coordinate for each smoothed y coordinate is obtained. In step S704, the pixels in the horizontal direction of each y coordinate are shifted left and right so that the center position for each y coordinate matches the average value X0 obtained in step S703 (FIG. 18B). The processing in step S701 is the same as the step of calculating the center position in the target rectangle (steps S301, S304, S307) when the vehicle is the target. Treatment in 51 may also be the same as if the target vehicle.

このように、通行路に設置されたカメラで撮影された車両等の対象物を識別する際に、処理能力の高い計算機に拠らず、カメラに組み込み可能な半導体でも実現できる簡易な処理で、左右対称な特性を持つ対象物の近似的な正面画像を得ることができる。そして、これにより、さまざまな角度から撮影された車両や人物等の対象物の識別処理を行うことが可能となる。   In this way, when identifying an object such as a vehicle photographed with a camera installed on a traffic path, it is a simple process that can be realized even with a semiconductor that can be incorporated in the camera without depending on a computer with high processing capacity, It is possible to obtain an approximate front image of an object having symmetrical characteristics. This makes it possible to perform identification processing of objects such as vehicles and people photographed from various angles.

なお、上記実施の形態1、2で説明した対象物抽出部101及び1011、画像補正部102及び1021、特徴画像生成部103及び1031、中央位置補正部104及び1041及び照合領域抽出部105及び1051の各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは、個別に1チップ化されてもよいし、一部又は全部等のように1チップ化されてもよい。   The object extraction units 101 and 1011, the image correction units 102 and 1021, the feature image generation units 103 and 1031, the center position correction units 104 and 1041, and the collation region extraction units 105 and 1051 described in the first and second embodiments. Each of these functional blocks is typically realized as an LSI which is an integrated circuit. These may be individually made into one chip, or may be made into one chip, such as a part or all of them.

集積回路化の手法は、LSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。   The method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.

また、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array )や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。   Also, an FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩又は派生する別の技術により、LSIに置き換わる集積回路化の技術が登場すれば、当然その技術を用いて機能ブロックの集積化を行ってもよい。   Furthermore, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology.

(実施の形態3)
図20は、本発明の実施の形態3に係る画像処理装置の概略構成を示すブロック図である。図20において、本実施の形態の画像処理装置は、画像入力部110と、表示部111と、画像出力部112と、条件記録部113と、画像変形部114と、対称位置指示部115と、サイズ指示部116と、利用部分指示部117とを備える。
(Embodiment 3)
FIG. 20 is a block diagram showing a schematic configuration of an image processing apparatus according to Embodiment 3 of the present invention. 20, the image processing apparatus according to the present embodiment includes an image input unit 110, a display unit 111, an image output unit 112, a condition recording unit 113, an image deformation unit 114, a symmetrical position instruction unit 115, A size instruction unit 116 and a use part instruction unit 117 are provided.

画像入力部110は、図示せぬカメラで撮影された処理対象物の画像を入力する。表示部111は、処理対象物の画像、各種指示及び各種指示による処理対象物の処理画像を表示する。ここで、各種指示は、対象位置指示、サイズ指標指示及び利用部分指示である。画像出力部112は、画像変形部114で処理された処理対象物の処理画像を出力する。条件記録部113は、処理対象物のサイズ等の既成値を記録する。対称位置指示部115は、画像変形部114に対して画像内の対象物の対称位置と中央位置を指示する。対称位置と中央位置の指示は操作者が行う。すなわち、操作者は、表示部111に表示された処理対象物の画像を見ながら対象位置指示部115を操作して処理対象物の画像の対称位置と中央位置を指定する。この指定により、対称位置指示部115は、操作者が指定した対象物の対称位置と中央位置を画像変形部114に指示する。   The image input unit 110 inputs an image of a processing target photographed by a camera (not shown). The display unit 111 displays an image of the processing object, various instructions, and a processing image of the processing object according to the various instructions. Here, the various instructions are a target position instruction, a size index instruction, and a usage part instruction. The image output unit 112 outputs a processed image of the processing object processed by the image deformation unit 114. The condition recording unit 113 records a ready-made value such as the size of the processing object. The symmetrical position instruction unit 115 instructs the image deforming unit 114 about the symmetrical position and the center position of the object in the image. The operator gives instructions for the symmetrical position and the central position. That is, the operator operates the target position instruction unit 115 while viewing the image of the processing object displayed on the display unit 111 to specify the symmetrical position and the center position of the processing object image. By this designation, the symmetric position instruction unit 115 instructs the image deformation unit 114 about the symmetric position and the center position of the target specified by the operator.

サイズ指示部116は、画像変形部114に対して画像内の対象物のサイズ指標を指示する。サイズ指標の指示は操作者が行う。すなわち、操作者は、表示部111に表示された処理対象物の画像を見ながらサイズ指示部116を操作して処理対象物の画像のサイズ指標を指定する。この指定により、サイズ指示部116は、操作者が指定した処理対象物の画像のサイズ指標を画像変形部114に指示する。   The size instruction unit 116 instructs the image transformation unit 114 to specify the size index of the object in the image. The operator instructs the size index. That is, the operator designates the size index of the image of the processing object by operating the size instruction unit 116 while viewing the image of the processing object displayed on the display unit 111. By this designation, the size instruction unit 116 instructs the image deformation unit 114 to specify the size index of the image of the processing target specified by the operator.

利用部分指示部117は、画像変形部114に対して画像内の処理対象物の非利用部分を指示する。非利用部分の指示は操作者が行う。すなわち、操作者は、表示部111に表示された処理対象物の画像を見ながら利用部分指示部117を操作して処理対象物の非利用部分を指定する。この指定により、利用部分指示部117は、操作者が指定した対象物の非利用部分を画像変形部114に指示する。   The use part instruction unit 117 instructs the image deforming unit 114 to designate a non-use part of the processing target in the image. The operator instructs the non-use part. That is, the operator operates the utilization part instructing unit 117 while viewing the image of the processing object displayed on the display unit 111 and designates an unused part of the processing object. With this designation, the use part instruction unit 117 instructs the image deformation unit 114 to designate a non-use part of the target designated by the operator.

画像変形部114は、画像入力部110で入力された画像を対称位置指示部115で指示された対称位置と中央位置を用いて画像変形(“第1の画像変形”)する。また、第1の画像変形を行った後、条件記録部113に記録されているサイズの既成値とサイズ指示部116で指示されたサイズ指標を用いて画像変形(“第2の画像変形”)する。また、第2の画像変形を行った後、利用部分指示部117で指示された非利用部分を対称部分の画像で補充する(“第3の画像変形”)。そして、第3の画像変形により得られた画像を画像出力部112に出力する。   The image deformation unit 114 performs image deformation (“first image deformation”) on the image input by the image input unit 110 using the symmetric position and the center position specified by the symmetric position instruction unit 115. In addition, after the first image deformation, the image deformation (“second image deformation”) is performed using the existing size value recorded in the condition recording unit 113 and the size index instructed by the size instruction unit 116. To do. In addition, after the second image deformation, the non-use part designated by the use part instructing unit 117 is supplemented with an image of a symmetric part (“third image deformation”). Then, the image obtained by the third image deformation is output to the image output unit 112.

次に、本実施の形態の画像処理装置の動作を説明する。
図21は、本実施の形態の画像処理装置の画像処理を説明するためのフローチャートである。図21において、まずステップS1001で、画像入力部110が処理対象の画像を入力し、画像変形部114に出力する。画像変形部114に出力された処理対象の画像は表示部111に表示される。
Next, the operation of the image processing apparatus according to this embodiment will be described.
FIG. 21 is a flowchart for explaining the image processing of the image processing apparatus according to the present embodiment. In FIG. 21, first, in step S <b> 1001, the image input unit 110 inputs an image to be processed and outputs it to the image deformation unit 114. The processing target image output to the image transformation unit 114 is displayed on the display unit 111.

表示部111に処理対象の画像が表示されている状態で、操作者が処理対象物の対称位置と中央位置を指定する操作を行うと、ステップS1002で、対称位置指示部115が画像内の処理対象物の対称位置と中央位置を画像変形部114に指示する。画像変形部114は、対称位置指示部115からの指示を受けると、ステップS1003で、画像内の処理対象物の対称位置と中央位置を用いて処理対象物を正面画像に変形する(第1の画像変形処理)。正面画像に変形された処理対象物の画像は表示部111に表示される。   When the operator performs an operation of designating the symmetric position and the center position of the processing target object while the processing target image is displayed on the display unit 111, in step S1002, the symmetric position instruction unit 115 performs processing in the image. The image deforming unit 114 is instructed about the symmetrical position and the center position of the object. When receiving an instruction from the symmetric position instruction unit 115, the image deforming unit 114 deforms the processing object into a front image using the symmetric position and the center position of the processing object in the image in step S1003 (first image). Image deformation processing). The image of the processing object transformed into the front image is displayed on the display unit 111.

処理対象物が正面画像に変形された後、ステップS1004で、画像変形部114が、引き続き対称位置指示があるかどうか判定し、引き続き対称位置指示があると判断するとステップS1002に戻り、引き続き対称位置指示部115からの指示を受け付ける。これに対して対称位置指示がないと判断すると次の指示を待つ。このとき表示部111には正面画像が表示されている。   After the object to be processed is deformed to the front image, in step S1004, the image deforming unit 114 determines whether or not there is a symmetrical position instruction, and if it continues to determine that there is a symmetrical position instruction, the process returns to step S1002 and continues to the symmetrical position. An instruction from the instruction unit 115 is received. On the other hand, if it is determined that there is no symmetrical position instruction, the next instruction is waited. At this time, a front image is displayed on the display unit 111.

第1の画像変形処理が行われた後、表示部111に正面画像が表示されている状態で操作者が処理対象物のサイズ指標を指示する操作を行うと、ステップS1005で、サイズ指示部116が操作者にて指示されたサイズ指標を画像変形部114に指示する。画像変形部114は、サイズ指示部116からの指示を受けると、ステップS1006で、指示されたサイズ指標と、条件記録部113に予め記録されているサイズの既成値とを用いて対象物のサイズを補正する(第2の画像変形処理)。サイズ補正された処理対象物の画像は表示部111に表示される。   After the first image deformation process is performed, when the operator performs an operation to specify the size index of the processing object while the front image is displayed on the display unit 111, the size instruction unit 116 is displayed in step S1005. Instructs the image transformation unit 114 of the size index designated by the operator. Upon receiving an instruction from the size instruction unit 116, the image transformation unit 114 uses the instructed size index and the size of the target object using the size already recorded in the condition recording unit 113 in step S1006. Is corrected (second image deformation process). The image of the processing object whose size has been corrected is displayed on the display unit 111.

次いで、ステップS1007で、画像変形部114が、引き続きサイズ指標の指示があるかどうか判定し、引き続きサイズ指標の指示があると判断するとステップS1005に戻り、引き続きサイズ指示部116からの指示を受け付ける。これに対してサイズ指標の指示がないと判断すると、次の指示を待つ。このとき表示部111にはサイズ補正された正面画像が表示されている。   Next, in step S1007, the image transformation unit 114 determines whether or not there is a size index instruction. If it is determined that there is a size index instruction, the process returns to step S1005 and continuously receives an instruction from the size instruction unit 116. On the other hand, if it is determined that there is no size index instruction, the next instruction is awaited. At this time, the front image whose size has been corrected is displayed on the display unit 111.

第2の画像変形処理が行われた後、表示部111に正面画像が表示されている状態で操作者が処理対象物の非利用部分を指示する操作を行うと、ステップS1008で、利用部分指示部117が操作者にて指定された非利用部分を画像変形部114に指示する。画像変形部114は、利用部分指示部117からの指示を受けると、ステップS1009で、指示された画像の非利用部分を対称部分の画像で補充する(第3の画像変形処理)。非利用部分が補充された処理対象物の画像は表示部111に表示される。   After the second image transformation process is performed, if the operator performs an operation for instructing a non-use part of the processing object while the front image is displayed on the display unit 111, a use part instruction is provided in step S1008. The unit 117 instructs the image deforming unit 114 to designate a non-use portion designated by the operator. Upon receiving an instruction from the use part instruction unit 117, the image deformation unit 114 supplements the non-use part of the instructed image with a symmetrical part image (third image deformation process) in step S1009. The image of the processing object supplemented with the unused portion is displayed on the display unit 111.

次いで、ステップS1010で、画像変形部114が、引き続き非利用部分の補充の指示があるかどうか判定し、引き続き非利用部分の補充の指示があると判断するとステップS1008に戻り、利用部分指示部117からの指示を受け付ける。これに対して非利用部分の補充の指示がないと判断すると、次の指示を待つ。このとき表示部111には非利用部分が補充された正面画像が表示されている。   Next, in step S1010, the image deforming unit 114 determines whether or not there is an instruction for refilling the unused part. Accepts instructions from. On the other hand, if it is determined that there is no instruction for refilling the unused portion, the next instruction is awaited. At this time, the display unit 111 displays a front image supplemented with unused portions.

以上、画像変形部114は、対称位置指示による第1の画像変形処理、サイズ指標指示による第2の画像変形処理、非利用部分指示による第3の画像変形処理を行った後、ステップS1011で、前記各変形処理後の画像を出力し、さらにステップS1012で変形処理条件を出力して本処理を終了する。ここで、変形条件は、ステップS1002で指示された対象物の対称位置と中央位置、ステップS1005で指示されたサイズ指標、ステップS1008で指示された画像の非利用部分の指示条件である。画像出力部112は、入力画像及び最終変形画像と変形条件とを出力する。上記ステップS1001〜S1012は、コンピュータで実行可能なプラグラムで記述してもよい。   As described above, the image deforming unit 114 performs the first image deforming process based on the symmetrical position instruction, the second image deforming process based on the size index instruction, and the third image deforming process based on the non-use part instruction, and then in step S1011. The image after each deformation process is output, and further, the deformation process condition is output in step S1012, and the process ends. Here, the deformation conditions are the symmetric position and center position of the object designated in step S1002, the size index designated in step S1005, and the unused condition designation condition in the image designated in step S1008. The image output unit 112 outputs an input image, a final deformed image, and deformation conditions. Steps S1001 to S1012 may be described in a program that can be executed by a computer.

次に、具体例を挙げて本実施の形態の画像処理装置の動作を説明する。
図22は、入力画像の一例を示す図である。同図に示す入力画像には車両の正面画像Iが含まれている。図23〜図26は第1の画像変形処理における各過程を示す図である。第1の画像変形処理は対称位置指示部115と画像変形部114で行われる。まず操作者が車両の正面画像Iに対して対称位置P,Pを指示する操作を行う。この操作が行われると、図23に示すように、画像変形部114が対称位置指示部115からの指示に従って表示部111に対称位置P,Pを表示する。さらに、図24に示すように対称位置P,Pを結ぶ線分Lを表示する。
Next, the operation of the image processing apparatus according to the present embodiment will be described with a specific example.
FIG. 22 is a diagram illustrating an example of an input image. The input image shown in the figure includes a front image Ia of the vehicle. 23 to 26 are diagrams showing each process in the first image deformation processing. The first image deformation process is performed by the symmetrical position instruction unit 115 and the image deformation unit 114. First the operator performs an operation of instructing the symmetrical position P 1, P 2 with respect to the front image I a vehicle. When this operation is performed, as shown in FIG. 23, the image deformation unit 114 displays the symmetric positions P 1 and P 2 on the display unit 111 in accordance with an instruction from the symmetric position instruction unit 115. Further, as shown in FIG. 24, a line segment L 1 connecting the symmetrical positions P 1 and P 2 is displayed.

次いで、操作者が線分L上の中央位置Pc1を指示する操作を行うと、図25に示すように、画像変形部114が対称位置指示部115からの指示に従って線分L上に中央位置Pc1を表示する。操作者が同様の操作(対称位置の指示及び中央位置の指示)を必要な数分について行うことで、図26に示すような結果が得られる。なお、操作者が指示した位置が外れていた場合は位置を修正したり削除したりすることも可能である。 Then, when an operation by the operator to indicate the center position P c1 on the line segment L 1, as shown in FIG. 25, the image deformation unit 114 on the line L 1 in accordance with an instruction from the symmetry position indicator 115 The center position Pc1 is displayed. When the operator performs the same operation (instruction for symmetry position and instruction for center position) for a required number of times, a result as shown in FIG. 26 is obtained. If the position indicated by the operator is out of position, the position can be corrected or deleted.

次に、第2の画像変形処理について説明する。第2の画像変形処理はサイズ指示部116と画像変形部114で行われる。第1の画像変形処理が終了している状態で、操作者が図示せぬ「変換」ボタンを押すと、図27に示すように、画像変形部114が正面画像Iを複数の台形領域(一例を符号S,Sで示している)に分割する。次いで、画像変形部114は、図28に示すように、台形領域ごとに長方形領域に変形し、さらに対称位置が中央位置から同じ長さになるように左右の縮尺を合せる(一例を符号S’,S’で示している)。次いで、図29に示すように、各長方形領域の中央位置を合せて正面画像Iに変形する。図30にその正面画像Iを示す。操作者は、その正面画像Iを確認し、補正未完了であれば対称位置指示の操作をやり直す。 Next, the second image deformation process will be described. The second image deformation process is performed by the size instruction unit 116 and the image deformation unit 114. When the operator presses a “conversion” button (not shown) in the state where the first image deformation process is completed, as shown in FIG. 27, the image deformation unit 114 converts the front image Ia into a plurality of trapezoidal regions ( An example is divided into symbols S 1 and S 2 . Next, as shown in FIG. 28, the image transformation unit 114 transforms each trapezoidal region into a rectangular region, and further adjusts the left and right scales so that the symmetrical position is the same length from the central position (an example is denoted by S 1). ', S 2' is shown by). Then, as shown in FIG. 29, it deforms the front image I b together the center position of each rectangular area. Figure 30 shows the front image I b. The operator confirms the front image Ib , and if the correction has not been completed, the operation of the symmetrical position instruction is performed again.

次に、操作者が正面画像Iのサイズ指標であるプレート位置を指示する操作を行うと、サイズ指示部116は、図31に示すように、指示されたプレート位置P50〜P53を表示部111に表示する。操作者が図示せぬ「変換」ボタンを押すと、画像変形部114が、条件記録部113に記録されているプレートサイズを参照し、縦横の縮尺を合せて図32に示すサイズ補正画像Ic1に変形し、表示部111に表示する。 Then, when an operation by the operator to instruct the plate position is the size indicator front image I b, the size indication 116, as shown in FIG. 31, the display plate position P 50 to P 53 that is instructed Displayed on the unit 111. When the operator presses a “conversion” button (not shown), the image deforming unit 114 refers to the plate size recorded in the condition recording unit 113 and adjusts the vertical and horizontal scales to the size-corrected image I c1 shown in FIG. And is displayed on the display unit 111.

また、サイズ補正方法は、プレートの四隅を指定して、プレート公称値でサイズ調整する以外に、図33に示すように、車幅(W)及び車高(H)を指定し、カタログ値でサイズ調整することも可能である。サイズ指示部116は、図34に示すように表示部111に表示された正面画像Iに中央位置で線対称な枠FRを表示する。操作者は、枠FRの幅及び上下位置を移動させて、サイズ指標である車幅・車高を指示する操作を行う。車幅・車高を指示する操作を行った後、操作者が図示せぬ「変換」ボタンを押すと、画像変形部114が、条件記録部113に記録されている車幅・車高のカタログ値を参照し、縦横の縮尺を合せて図34に示すサイズ補正画像Ic2に変形する。操作者はサイズ補正画像Ic1あるいはIc2を確認し、補正未完了であればサイズ指示の操作をやり直す。 In addition to specifying the four corners of the plate and adjusting the size with the nominal plate value, the size correction method specifies the vehicle width (W) and vehicle height (H) as shown in FIG. It is also possible to adjust the size. Size instruction unit 116 displays a line-symmetrical frame FR 1 at a central location in the front image I b displayed on the display unit 111 as shown in FIG. 34. The operator moves the width and vertical position of the frame FR 1 and performs an operation for instructing the vehicle width / height as the size index. After the operation for instructing the vehicle width / vehicle height is performed, when the operator presses a “convert” button (not shown), the image transformation unit 114 displays the catalog of the vehicle width / vehicle height recorded in the condition recording unit 113. By referring to the values, the scales of the vertical and horizontal directions are matched and transformed into a size corrected image Ic2 shown in FIG. The operator confirms the size-corrected image I c1 or I c2 and repeats the size instruction operation if correction is not completed.

次に、第3の画像変形処理について説明する。第3の画像変形処理は利用部分指示部117と画像変形部114で行われる。図35に示すように、画像変形部114は利用部分指示部117からの指示に従い、サイズ補正画像Ic2に部分領域枠FRを表示する。操作者はこの表示を見て、図36に示すように、非利用部分Gを指示する操作を行うと、画像変形部114は利用部分指示部117からの指示に従い、指示された非利用部分Gに対応する部分領域枠を対象外表示する。この状態で操作者が図示せぬ「変換」ボタンを押すと、図37に示すように、画像変形部114は非利用部分Gを対称部分の画像で補充して、図38に示すように、非利用部分補充画像Iに変形して表示する。操作者は非利用部分補充画像Iを確認し、補正未完了であれば利用部分指示の操作をやり直す。 Next, the third image deformation process will be described. The third image deformation process is performed by the use part instruction unit 117 and the image deformation unit 114. As shown in FIG. 35, the image transformation unit 114 according to instruction from a partial instruction unit 117 displays a partial area frame FR 2 in size correction image I c2. When the operator looks at this display and performs an operation for designating the non-use part G as shown in FIG. 36, the image transformation unit 114 follows the instruction from the use part instruction unit 117 and instructs the non-use part G. The partial area frame corresponding to is not displayed. When the operator presses a “convert” button (not shown) in this state, as shown in FIG. 37, the image transformation unit 114 supplements the unused portion G with the image of the symmetric portion, and as shown in FIG. The non-use partial supplement image Id is transformed and displayed. The operator confirms the non-use partial replenishment image I d, redo operations use partial instructions if correction incomplete.

このように、カメラで撮影された車両等の対象物を識別する際に、左右対称の中心や両端等の設定を人間が自由に設定することができるインタフェースを持つことにより、使用における自由度が高まる。無論、これらの設定を行った後の処理は前述した実施の形態1及び2の画像処理装置と同様に行われる。   In this way, when an object such as a vehicle photographed by a camera is identified, it has an interface that allows a human to freely set the center of symmetry and both ends, thereby providing a degree of freedom in use. Rise. Of course, the processing after making these settings is performed in the same manner as the image processing apparatuses of the first and second embodiments.

なお、本実施の形態の画像処理装置において、画像内の対象物の対称位置と中央位置を指示したが、画像が既に正面補正されている場合は中央の指示のみでもかまわない。   In the image processing apparatus according to the present embodiment, the symmetrical position and the center position of the object in the image are indicated. However, if the image has already been front-corrected, only the center instruction may be used.

また、本実施の形態の画像処理装置において、対称位置指示部115、サイズ指示部116及び利用部分指示部117の各指示部の処理結果が思わしくない場合、指示を修正入力するようにしてもかまわない。   Further, in the image processing apparatus according to the present embodiment, if the processing results of the respective instruction units of the symmetric position instruction unit 115, the size instruction unit 116, and the usage portion instruction unit 117 are not expected, the instructions may be corrected and input. Absent.

また、本実施の形態の画像処理装置において、画像変形部114が利用部分指示部117で指示された非利用部分を対称部分の画像で補充し、その結果を画像出力部112に出力したが、画像の補充を行わないで、利用部分指示部117で指示された非利用部分情報を補充前画像と共に出力し、以降の認識等の処理で、処理に用いる特徴量に変換した後、対称部分の特徴量で補充するようにしてもかまわない。   In the image processing apparatus according to the present embodiment, the image deforming unit 114 supplements the non-use part designated by the use part instructing part 117 with the image of the symmetric part, and outputs the result to the image output part 112. Without supplementing the image, the unused part information instructed by the utilization part instructing unit 117 is output together with the pre-replenishment image, converted into the feature amount used for the process in the subsequent recognition process, and the like. You may make it supplement with a feature-value.

また、本実施の形態の画像処理装置は、各指示ごとに処理を行うものであるが、全ての指示を一度に与えて一括して処理するようにしてもかまわない。このようにした場合の動作は図39のフローチャートに示すようになる。図39に示すように、ステップS1101で画像入力部110が画像入力を行った後、ステップS1102で対称位置指示部115が画像内の処理対象物の対称位置と中央位置を画像変形部114に指示し、次いで、ステップS1103でサイズ指示部116が操作者にて指示されたサイズ指標を画像変形部114に指示する。そして、ステップS1104で利用部分指示部117が操作者にて指定された非利用部分を画像変形部114に指示する。   The image processing apparatus according to the present embodiment performs processing for each instruction. However, all the instructions may be given at once and processed in a batch. The operation in this case is as shown in the flowchart of FIG. As shown in FIG. 39, after the image input unit 110 inputs an image in step S1101, the symmetric position instruction unit 115 instructs the image deformation unit 114 about the symmetric position and the center position of the processing object in the image in step S1102. In step S1103, the size instruction unit 116 instructs the image transformation unit 114 on the size index designated by the operator. In step S1104, the use part instruction unit 117 instructs the image deformation unit 114 to designate a non-use part specified by the operator.

利用部分指示部117が画像変形部114に指示した後、ステップS1105で画像変形部114が画像内の処理対象物の対称位置と中央位置を用いて処理対象物を正面画像に変形し(第1の画像変形処理)、変形した正面画像を表示部111に表示する。次いで、画像変形部114は、サイズ指示部116から指示されたサイズ指標と、条件記録部113に予め記録されているサイズの既成値とを用いて対象物のサイズを補正し(第2の画像変形処理)、サイズ補正した画像を表示部111に表示する。次いで、画像変形部114は、利用部分指示部117から指示された画像の非利用部分を対称部分の画像で補充し(第3の画像変形処理)、非利用部分を補充した画像を表示部111に表示する。   After the use part instruction unit 117 instructs the image deformation unit 114, in step S1105, the image deformation unit 114 deforms the processing object into a front image using the symmetrical position and the center position of the processing object in the image (first image). And the deformed front image is displayed on the display unit 111. Next, the image transformation unit 114 corrects the size of the object using the size index instructed from the size instruction unit 116 and the ready-made value of the size recorded in advance in the condition recording unit 113 (second image). Deformation process), and the image whose size has been corrected is displayed on the display unit 111. Next, the image transformation unit 114 supplements the unused portion of the image instructed from the usage part instruction unit 117 with the symmetrical portion image (third image transformation process), and displays the image supplemented with the unused portion as the display unit 111. To display.

次いで、ステップS1106で、画像変形部114は、引き続き対称位置の指定、サイズ指定又は利用部分の指定のいずれか1つでも指示があるかどうか判定し、いずれか1つでも指示があると判断するとステップS1102に戻り、指示があった処理を繰り返し行う。そして、対称位置の指定、サイズ指定及び利用部分の指定のいずれかからも指示がなければ、ステップS1107で、処理済みの変形画像を出力し、さらにステップS1108で変形条件を出力する。変形条件の指示と入力画像の変形及び表示の処理順序を入れ替えてもかまわない。上記ステップS1101〜S1108は、コンピュータで実行可能なプラグラムで記述してもよい。   Next, in step S1106, the image transformation unit 114 continues to determine whether there is an instruction for any one of the designation of the symmetric position, the size designation, or the designation of the use portion, and if any one is designated, Returning to step S1102, the processing instructed is repeated. If there is no instruction from any of the designation of the symmetric position, the designation of the size, and the designation of the used part, the processed deformed image is output in step S1107, and the deformation condition is further output in step S1108. The processing order of the deformation condition instruction and the deformation and display of the input image may be switched. Steps S1101 to S1108 may be described in a program that can be executed by a computer.

なお、実施の形態3で説明した画像入力部110、画像出力部112、条件記録部113、画像変形部114、対称位置指示部115、サイズ指示部116及び利用部分指示部117の各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは、個別に1チップ化されてもよいし、一部又は全部等のように1チップ化されてもよい。   The functional blocks of the image input unit 110, the image output unit 112, the condition recording unit 113, the image transformation unit 114, the symmetric position instruction unit 115, the size instruction unit 116, and the use part instruction unit 117 described in the third embodiment are as follows. Typically, it is realized as an LSI which is an integrated circuit. These may be individually made into one chip, or may be made into one chip, such as a part or all of them.

集積回路化の手法は、LSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。   The method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.

また、LSI製造後にプログラムすることが可能なFPGAや、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。   Further, an FPGA that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩又は派生する別の技術により、LSIに置き換わる集積回路化の技術が登場すれば、当然その技術を用いて機能ブロックの集積化を行ってもよい。   Furthermore, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology.

以上、本発明を車両と人物の顔に適用した実施形態を説明したが、本発明の画像処理装置は、上記各実施の形態に限られるものではなく、何らかの計測方法により、物体の向きを特定できれば、左右対称の任意の物体に本発明を適用できる。   As described above, the embodiment in which the present invention is applied to the face of a vehicle and a person has been described. However, the image processing apparatus of the present invention is not limited to the above-described embodiments, and the orientation of an object is specified by some measurement method. If possible, the present invention can be applied to any symmetrical object.

本発明にかかる画像処理装置は、通行路等に設置された監視カメラ等で撮影された画像から、簡易な処理で、車両又は人物等の対象物の近似的な正面画像を得ることができるといった効果を有し、車両識別システムや顔認証を用いた入出門システム等に応用できる。   The image processing apparatus according to the present invention can obtain an approximate front image of an object such as a vehicle or a person from an image taken by a monitoring camera or the like installed on a traffic path or the like with a simple process. It has an effect and can be applied to an entrance / exit system using a vehicle identification system or face authentication.

また、さまざまな角度から撮影された車両や人物の画像の格納されたデータベースから特定の対象物の画像を選び出す検索システム等の用途にも応用可能である。   Further, the present invention can be applied to uses such as a search system for selecting an image of a specific object from a database in which images of vehicles and people taken from various angles are stored.

101、1011 対象物抽出部
102、1021 画像補正部
103、1031 特徴画像生成部
104、1041 中央位置補正部
105、1051 照合領域抽出部
110 画像入力部
111 表示部
112 画像出力部
113 条件記録部
114 画像変形部
115 対称位置指示部
116 サイズ指示部
117 利用部分指示部
101, 1011 Object extraction unit 102, 1021 Image correction unit 103, 1031 Feature image generation unit 104, 1041 Center position correction unit 105, 1051 Collation area extraction unit 110 Image input unit 111 Display unit 112 Image output unit 113 Condition recording unit 114 Image deformation unit 115 Symmetric position instruction unit 116 Size instruction unit 117 Usage part instruction unit

Claims (19)

カメラで撮影された画像から車両や人物等の対象物を検出し、対象物領域を抽出する対象物抽出部と、
前記カメラの設置位置及び前記対象物の傾きによる画像の歪みを補正する画像補正部と、
前記画像補正部で補正された画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、該中央位置を縦に揃える中央位置補正部と、
前記中央位置補正部により得られた画像中の識別処理に使用可能な領域を決定する照合領域抽出部と、
を備えた画像処理装置。
An object extraction unit that detects an object such as a vehicle or a person from an image captured by a camera and extracts an object area;
An image correction unit that corrects image distortion due to the installation position of the camera and the inclination of the object;
A center position correcting unit that detects the center position where the left-right correlation at each height is highest for the object region in the image corrected by the image correcting unit, and aligns the center position vertically;
A collation region extraction unit that determines a region that can be used for identification processing in the image obtained by the central position correction unit;
An image processing apparatus.
カメラで撮影された画像から車両や人物等の対象物を検出し、対象物領域を抽出する対象物抽出部と、
前記カメラの設置位置及び前記対象物の傾きによる画像の歪みを補正する画像補正部と、
前記画像補正部で補正された画像に対し、特徴画像を生成する特徴画像生成部と、
前記特徴画像生成部で生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、該中央位置を縦に揃える中央位置補正部と、
前記中央位置補正部により得られた画像中の識別処理に使用可能な領域を決定する照合領域抽出部と、
を備えた画像処理装置。
An object extraction unit for detecting an object such as a vehicle or a person from an image taken by a camera and extracting an object area;
An image correction unit that corrects image distortion due to the installation position of the camera and the inclination of the object;
A feature image generation unit that generates a feature image for the image corrected by the image correction unit;
A center position correction unit that detects a center position where the left-right correlation at each height is highest for the object region in the feature image generated by the feature image generation unit, and aligns the center position vertically;
A collation region extraction unit that determines a region that can be used for identification processing in the image obtained by the central position correction unit;
An image processing apparatus.
前記中央位置補正部は、前記特徴画像生成部で生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、検出した中央位置を平滑化した後、中央位置を縦に揃える請求項1又は請求項2に記載の画像処理装置。   The center position correction unit detects a center position where the left-right correlation at each height is the highest for the object region in the feature image generated by the feature image generation unit, and smoothes the detected center position. The image processing apparatus according to claim 1, wherein after the conversion, the center position is aligned vertically. 前記中央位置補正部は、前記特徴画像生成部で生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出した後、画像を水平方向に分割した各小領域で領域ごとに中央位置を決定し、各小領域の中央位置を縦に揃える請求項1又は請求項2に記載の画像処理装置。   The center position correction unit detects the center position where the left-right correlation at each height is the highest for the object region in the feature image generated by the feature image generation unit, and then horizontally shifts the image in the horizontal direction. The image processing apparatus according to claim 1, wherein a central position is determined for each divided small area, and the central positions of the small areas are aligned vertically. 前記照合領域抽出部は、前記中央位置補正部で生成された中央位置補正画像中の対象物領域に対し、中央位置を挟む左右領域の領域幅を所定の範囲で変動させたときの左右領域の相関値の変化を調べ、相関値が急激に低下する領域幅を照合範囲の幅とする請求項1乃至請求項4のいずれかに記載の画像処理装置。   The collation region extraction unit is configured to change the left and right regions when the region width of the left and right regions sandwiching the center position is varied within a predetermined range with respect to the object region in the center position correction image generated by the center position correction unit. The image processing apparatus according to claim 1, wherein a change in the correlation value is examined, and an area width where the correlation value rapidly decreases is set as a width of the collation range. 前記照合領域抽出部は、前記中央位置補正部で生成された中央位置補正画像中の対象物領域に対し、中央位置を挟む左右領域の領域幅を所定の範囲で変動させたときの左右領域の相関値の変化を調べ、相関が最も高い領域幅での値が所定の値より小さい場合、照合画像の左右いずれかの半分を他方の反転コピーで置き換えた画像を生成し、それを照合画像とする請求項1乃至請求項4のいずれかに記載の画像処理装置。   The collation region extraction unit is configured to change the left and right regions when the region width of the left and right regions sandwiching the center position is varied within a predetermined range with respect to the object region in the center position correction image generated by the center position correction unit. When the change in the correlation value is examined, and the value in the region width having the highest correlation is smaller than the predetermined value, an image in which either the left or right half of the collation image is replaced with the other inverted copy is generated, and this is referred to as the collation image. The image processing apparatus according to any one of claims 1 to 4. カメラで撮影された画像から、車両や人物等の対象物を検出し、対象物領域を抽出する対象物抽出ステップと、
前記カメラの設置位置及び前記対象物の傾きによる画像の歪みを補正する画像補正ステップと、
前記画像補正ステップで補正された画像に対し、特徴画像を生成する特徴画像生成ステップと、
前記特徴画像生成ステップで生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、中央位置を縦に揃える中央位置補正ステップと、
前記中央位置補正ステップにより得られた画像中の識別処理に使用可能な領域を決定する照合領域抽出ステップと、
を備えた画像処理方法。
An object extraction step of detecting an object such as a vehicle or a person from an image taken by a camera and extracting an object area;
An image correction step for correcting image distortion due to the installation position of the camera and the inclination of the object;
A feature image generation step for generating a feature image for the image corrected in the image correction step;
A center position correcting step for detecting a center position where the left-right correlation at each height is highest for the object region in the feature image generated in the feature image generating step, and aligning the center position vertically,
A collation region extraction step for determining a region that can be used for identification processing in the image obtained by the center position correction step;
An image processing method comprising:
処理対象物の画像を入力する画像入力部と、
前記画像入力部で入力された画像を表示すると共に操作者の指示を表示する表示部と、
操作者の指示に従って前記画像入力部で入力された画像内の処理対象物の対称位置と中央位置を指示する指示部と、
前記画像入力部で入力された画像を前記指示部で指示された対称位置と中央位置を用いて画像変形する画像変形部と、
前記画像変形部で画像変形された画像を出力する画像出力部と、
を備えた画像処理装置。
An image input unit for inputting an image of the processing object;
A display unit for displaying an image input by the image input unit and displaying an instruction of an operator;
An instruction unit for instructing a symmetric position and a center position of the processing object in the image input by the image input unit according to an operator's instruction;
An image deformation unit that deforms an image input by the image input unit using a symmetric position and a center position instructed by the instruction unit;
An image output unit for outputting an image transformed by the image transformation unit;
An image processing apparatus.
処理対象物の画像を入力する画像入力部と、
前記画像入力部で入力された画像を表示すると共に操作者の指示を表示する表示部と、
前記処理対象物の既成値を記録する条件記録部と、
前記画像入力部で入力された画像内の前記処理対象物の対称位置と中央位置及びサイズ指標を指示する指示部と、
前記画像入力部で入力された画像を前記指示部で指示された対称位置と中央位置を用いて画像変形し、さらに前記条件記録部に記録されている既成値と前記指示部で指示されたサイズ指標を用いて画像変形する画像変形部と、
前記画像変形部で画像変形された画像を出力する画像出力部と、
を備えた画像処理装置。
An image input unit for inputting an image of the processing object;
A display unit for displaying an image input by the image input unit and displaying an instruction of an operator;
A condition recording unit for recording an established value of the processing object;
An instruction unit for instructing a symmetrical position, a center position, and a size index of the processing object in the image input by the image input unit;
The image input by the image input unit is transformed using the symmetrical position and the center position specified by the instruction unit, and the ready-made value recorded in the condition recording unit and the size specified by the instruction unit An image transformation unit that transforms an image using an index;
An image output unit for outputting an image transformed by the image transformation unit;
An image processing apparatus.
処理対象物の画像を入力する画像入力部と、
前記画像入力部で入力された画像を表示すると共に操作者の指示を表示する表示部と、
前記処理対象物の既成値を記録する条件記録部と、
前記画像入力部で入力された画像内の前記処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を指示する指示部と、
前記画像入力部で入力された画像を前記指示部で指示された対称位置と中央位置を用いて画像変形し、これにより得られた画像に対し、前記条件記録部に記録されている既成値と前記指示部で指示されたサイズ指標を用いて画像変形し、さらに前記指示部で指示された非利用部分を対称部分の画像で補充する画像変形部と、
前記画像変形部で画像変形された画像を出力する画像出力部と、
を備えた画像処理装置。
An image input unit for inputting an image of the processing object;
A display unit for displaying an image input by the image input unit and displaying an instruction of an operator;
A condition recording unit for recording an established value of the processing object;
An instruction unit for instructing a symmetrical position and a central position, a size index, and an unused portion of the processing object in the image input by the image input unit;
The image input by the image input unit is subjected to image deformation using the symmetrical position and the center position specified by the instruction unit, and the pre-set value recorded in the condition recording unit is obtained for the image obtained thereby. An image deforming unit that deforms an image using the size index instructed by the instruction unit, and further supplements an unused portion instructed by the instruction unit with an image of a symmetric part;
An image output unit for outputting an image transformed by the image transformation unit;
An image processing apparatus.
前記画像出力部は、前記指示部で指示された非利用部分情報を補充前画像と共に出力する請求項10に記載の画像処理装置。   The image processing apparatus according to claim 10, wherein the image output unit outputs the non-use part information instructed by the instruction unit together with the pre-replenishment image. 前記画像変形部は、前記指示部で指示された対称位置と中央位置の組が複数ある場合に、対称位置と中央位置を結ぶ線分で区切られた領域ごとに画像変形する請求項8乃至請求項11のいずれかに記載の画像処理装置。   The image deforming unit deforms an image for each region divided by a line segment connecting the symmetrical position and the central position when there are a plurality of pairs of the symmetrical position and the central position specified by the instruction unit. Item 12. The image processing device according to any one of Items 11. 処理対象物の画像を入力する画像入力ステップと、
前記画像入力ステップで入力された画像を表示すると共に操作者の指示を表示する表示ステップと、
操作者の指示に従って前記画像入力ステップで入力された画像内の処理対象物の対称位置と中央位置を指示する指示ステップと、
前記画像入力ステップで入力された画像を前記指示ステップで指示された対称位置と中央位置を用いて画像変形する画像変形ステップと、
前記画像変形ステップで画像変形された画像を出力する画像出力ステップと、
を備えた画像処理方法。
An image input step for inputting an image of the processing object;
A display step of displaying an image input in the image input step and displaying an instruction of an operator;
An instruction step for instructing the symmetrical position and the center position of the processing object in the image input in the image input step according to an instruction of the operator;
An image deformation step of deforming the image input in the image input step using the symmetrical position and the center position instructed in the instruction step;
An image output step for outputting the image transformed in the image transformation step;
An image processing method comprising:
処理対象物の画像を入力する画像入力ステップと、
前記画像入力ステップで入力された画像を表示すると共に操作者の指示を表示する表示ステップと、
前記処理対象物の既成値を記録する条件記録ステップと、
前記画像入力ステップで入力された画像内の前記処理対象物の対称位置と中央位置及びサイズ指標を指示する指示ステップと、
前記画像入力ステップで入力された画像を前記指示ステップで指示された対称位置と中央位置を用いて画像変形し、さらに前記条件記録ステップで記録された既成値と前記指示ステップで指示されたサイズ指標を用いて画像変形する画像変形ステップと、
前記画像変形ステップで画像変形された画像を出力する画像出力ステップと、
を備えた画像処理方法。
An image input step for inputting an image of the processing object;
A display step of displaying an image input in the image input step and displaying an instruction of an operator;
A condition recording step for recording an established value of the processing object;
An instruction step for instructing a symmetric position, a center position and a size index of the processing object in the image input in the image input step;
The image input in the image input step is deformed using the symmetrical position and the center position specified in the instruction step, and the ready-made value recorded in the condition recording step and the size index specified in the instruction step An image transformation step for transforming the image using
An image output step for outputting the image transformed in the image transformation step;
An image processing method comprising:
処理対象物の画像を入力する画像入力ステップと、
前記画像入力ステップで入力された画像を表示すると共に操作者の指示を表示する表示ステップと、
前記処理対象物の既成値を記録する条件記録ステップと、
前記画像入力ステップで入力された画像内の前記処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を指示する指示ステップと、
前記画像入力ステップで入力された画像を前記指示ステップで指示された対称位置と中央位置を用いて画像変形し、これにより得られた画像に対し、前記条件記録ステップで記録された既成値と前記指示ステップで指示されたサイズ指標を用いて画像変形し、さらに前記指示ステップで指示された非利用部分を対称部分の画像で補充する画像変形ステップと、
前記画像変形ステップで画像変形された画像を出力する画像出力ステップと、
を備えた画像処理方法。
An image input step for inputting an image of the processing object;
A display step of displaying an image input in the image input step and displaying an instruction of an operator;
A condition recording step for recording an established value of the processing object;
An instruction step for instructing a symmetrical position and a center position of the processing object in the image input in the image input step, a size index, and an unused portion;
The image input in the image input step is subjected to image deformation using the symmetrical position and the center position specified in the instruction step, and for the image obtained thereby, the pre-formed value recorded in the condition recording step and the Image deformation using the size index indicated in the instruction step, and further, an image deformation step of replenishing the unused portion indicated in the instruction step with an image of a symmetric part;
An image output step for outputting the image transformed in the image transformation step;
An image processing method comprising:
前記画像出力ステップでは、前記指示ステップで指示された非利用部分情報を補充前画像と共に出力する請求項15に記載の画像処理方法。   The image processing method according to claim 15, wherein in the image output step, the non-use part information instructed in the instruction step is output together with the pre-replenishment image. 前記画像変形ステップでは、前記指示ステップで指示された対称位置と中央位置の組が複数ある場合に、対称位置と中央位置を結ぶ線分で区切られた領域ごとに画像変形する請求項13乃至請求項16のいずれかに記載の画像処理方法。   14. The image transformation step, wherein when there are a plurality of pairs of the symmetric position and the central position instructed in the instruction step, the image is transformed for each region divided by a line segment connecting the symmetric position and the central position. Item 17. The image processing method according to any one of Items 16. コンピュータを、請求項8乃至請求項12のいずれかに記載の画像処理装置として機能させるための画像処理プログラム。   An image processing program for causing a computer to function as the image processing apparatus according to any one of claims 8 to 12. 請求項18に記載の画像処理プログラムを格納した記録媒体。   A recording medium storing the image processing program according to claim 18.
JP2010092315A 2009-04-16 2010-04-13 Apparatus, method and program for processing image Withdrawn JP2010267257A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010092315A JP2010267257A (en) 2009-04-16 2010-04-13 Apparatus, method and program for processing image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009099963 2009-04-16
JP2010092315A JP2010267257A (en) 2009-04-16 2010-04-13 Apparatus, method and program for processing image

Publications (1)

Publication Number Publication Date
JP2010267257A true JP2010267257A (en) 2010-11-25

Family

ID=43364132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010092315A Withdrawn JP2010267257A (en) 2009-04-16 2010-04-13 Apparatus, method and program for processing image

Country Status (1)

Country Link
JP (1) JP2010267257A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012256297A (en) * 2011-06-10 2012-12-27 Toshiba Corp Image processing apparatus, method and program
WO2013146206A1 (en) 2012-03-28 2013-10-03 株式会社メガチップス Object detection device and program
WO2013161417A1 (en) 2012-04-27 2013-10-31 株式会社メガチップス Object detection device and program
WO2013161407A1 (en) 2012-04-26 2013-10-31 株式会社メガチップス Object detection device and program
WO2016136900A1 (en) * 2015-02-27 2016-09-01 日本電気株式会社 Comparison system, comparison device, comparison method, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012256297A (en) * 2011-06-10 2012-12-27 Toshiba Corp Image processing apparatus, method and program
WO2013146206A1 (en) 2012-03-28 2013-10-03 株式会社メガチップス Object detection device and program
EP2819094A4 (en) * 2012-03-28 2015-12-09 Megachips Corp Object detection device and program
US9514545B2 (en) 2012-03-28 2016-12-06 Megachips Corporation Object detection apparatus and storage medium
WO2013161407A1 (en) 2012-04-26 2013-10-31 株式会社メガチップス Object detection device and program
US9330318B2 (en) 2012-04-26 2016-05-03 Megachips Corporation Object detection apparatus and storage medium
WO2013161417A1 (en) 2012-04-27 2013-10-31 株式会社メガチップス Object detection device and program
US9245184B2 (en) 2012-04-27 2016-01-26 Megachips Corporation Object detection apparatus and storage medium
WO2016136900A1 (en) * 2015-02-27 2016-09-01 日本電気株式会社 Comparison system, comparison device, comparison method, and program
CN107251092A (en) * 2015-02-27 2017-10-13 日本电气株式会社 Comparison system, comparison means, comparative approach and program
US20180039830A1 (en) * 2015-02-27 2018-02-08 Nec Corporation Comparison system, comparison apparatus, comparison method, and program
US10540548B2 (en) * 2015-02-27 2020-01-21 Nec Corporation Comparison system, comparison apparatus, comparison method, and program

Similar Documents

Publication Publication Date Title
EP2745504B1 (en) Image projector, image processing method, computer program and recording medium
US10334168B2 (en) Threshold determination in a RANSAC algorithm
JP6764533B2 (en) Calibration device, chart for calibration, chart pattern generator, and calibration method
US7313289B2 (en) Image processing method and apparatus and computer-readable storage medium using improved distortion correction
JP3841321B2 (en) Image registration method
WO2020206708A1 (en) Obstacle recognition method and apparatus, computer device, and storage medium
EP0782100A2 (en) Three-dimensional shape extraction apparatus and method
US20110235897A1 (en) Device and process for three-dimensional localization and pose estimation using stereo image, and computer-readable storage medium storing the program thereof
US20100135595A1 (en) Image processing apparatus and image processing method
TW201905573A (en) Projector system and display image calibration method thereof
EP2444932A2 (en) Device, method and program for correcting an image
JP2005308553A (en) Three-dimensional image measuring device and method
JP5454737B2 (en) Wrinkle detection device, wrinkle detection method and program
US20170132454A1 (en) Face location detection
JP2010287174A (en) Furniture simulation method, device, program, recording medium
CN105335748A (en) Image feature extraction method and system
CN108737694B (en) Camera system and image providing method
JP6897082B2 (en) Computer program for face orientation estimation, face orientation estimation device and face orientation estimation method
JP2010267257A (en) Apparatus, method and program for processing image
JP2011198330A (en) Method and program for collation in three-dimensional registration
JP2007280088A (en) Specific object detection device, specific object detection method, and specific object detection program
CN112560867B (en) Text image correction method, device, equipment and medium
JP5201184B2 (en) Image processing apparatus and program
JPS63311485A (en) Automatic calibration device
JP7329951B2 (en) Image processing device and its control method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130702