JP2010267257A - Apparatus, method and program for processing image - Google Patents
Apparatus, method and program for processing image Download PDFInfo
- Publication number
- JP2010267257A JP2010267257A JP2010092315A JP2010092315A JP2010267257A JP 2010267257 A JP2010267257 A JP 2010267257A JP 2010092315 A JP2010092315 A JP 2010092315A JP 2010092315 A JP2010092315 A JP 2010092315A JP 2010267257 A JP2010267257 A JP 2010267257A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- center position
- instruction
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、車両識別システムや顔認証を用いた入出門システムや、さまざまな角度から撮影された車両や人物の画像の格納されたデータベースから特定の対象物の画像を選び出す検索システム等に用いて好適な画像処理装置、画像処理方法及び画像処理プログラムに関する。 INDUSTRIAL APPLICABILITY The present invention is used for a vehicle identification system, an entrance / exit system using face authentication, a search system for selecting an image of a specific object from a database storing images of vehicles and people taken from various angles, and the like. The present invention relates to a suitable image processing apparatus, an image processing method, and an image processing program.
近年、カメラの普及とともに、通行路等に設置されたカメラで撮影された車両又は人物等を識別する技術が実用化されてきている。識別技術では、画像から対象となる顔の領域や車両の領域を抽出し、その抽出した領域の画像と、予めデータベースに登録された画像とを照合し、類似性を判定する。そして、判定した類似性に基づき、登録画像中の類似した画像を選び出す場合は検索、選び出した登録顔画像から人物を特定する場合は顔認証、また、選び出した車両画像から車種を特定する場合が車種識別である。 In recent years, with the widespread use of cameras, a technique for identifying a vehicle or a person photographed with a camera installed on a traffic road or the like has been put into practical use. In the identification technique, a target face area or vehicle area is extracted from an image, and the image of the extracted area is collated with an image registered in a database in advance to determine similarity. Then, based on the determined similarity, a search is performed when selecting a similar image in the registered image, a face authentication is performed when a person is specified from the selected registered face image, and a vehicle type is specified from the selected vehicle image. It is vehicle type identification.
識別技術においては、対象物の画像が登録画像とは異なる角度で撮影した場合は識別精度が著しく低下する。この問題を解決するための方法として、例えば、顔画像の場合、特許文献1では、カメラを複数台用いて、同一の顔を複数の方向から撮影し、撮影した複数の顔画像の中から正面向きの画像を選択して照合に用いる。特許文献2では、登録顔画像とワイヤフレームの基準モデルを用いてカメラの撮影方向から見た場合の擬似的な登録顔画像を合成し照合に用いる。特許文献3では、複数の方向から撮影した顔画像を予め登録することによって、正面顔以外の画像に対しても認証する。
In the identification technology, when the image of the object is taken at an angle different from the registered image, the identification accuracy is significantly lowered. As a method for solving this problem, for example, in the case of a face image, in
また、車両にも適用可能な方法として、特許文献4では、予め複数のワイヤフレームモデルを用意しておき、それぞれのワイヤフレームモデルに対し、さまざまな撮影方向を仮定して入力画像をマッピングし、そのモデルを正面に向けたときに得られる画像の内、左右対称度の最も高いものを正面画像として、照合を行う。 Further, as a method applicable to a vehicle, in Patent Document 4, a plurality of wire frame models are prepared in advance, and an input image is mapped on each wire frame model assuming various shooting directions. Of the images obtained when the model is directed to the front, the image having the highest left-right symmetry is used as the front image for collation.
しかしながら、特許文献1に記載の複数のカメラで同時に単一の対象を撮影する方法では、専用のカメラが必要となり、通常のカメラでの実施は困難である。特許文献2に記載の複数方向から撮影した画像を予め登録する方法では、複数のカメラで同時に単一の対象を撮影する方法の場合と同様、登録画像の撮影の際に、複数カメラを備えた装置が必要であったり、あるいは、単一カメラで同一対象物を異なる方向から何度も撮影することによる多大な作業が発生したりする。また、登録画像の枚数が正面画像のみの場合に比べて数倍必要となる。このことは、識別装置により大きな記憶媒体が必要であるのみならず、照合処理時間の増大をももたらす。
However, in the method of photographing a single object at the same time with a plurality of cameras described in
特許文献3に記載のワイヤフレームの基準モデルを用いる方法では、バスやワゴン車のような箱型のものから、セダンタイプのような凸凹の有る形状のものやスポーツカーのように流線型のものまで、さまざまな形状のものが存在する車両の場合には、基準モデルを決めることができないため、適用することができない。特許文献4に記載の方法では、それぞれのワイヤフレームモデルに対し、さまざまな撮影方向を仮定して入力画像をマッピングするため、特許文献3に記載の方法に比べ、モデル数×撮影方向の処理が必要であり、非常に処理能力の高い計算機が必須である。 In the method using the reference model of the wire frame described in Patent Document 3, from a box type such as a bus or a wagon car, to a shape having irregularities such as a sedan type or a streamline type such as a sports car. In the case of vehicles having various shapes, the reference model cannot be determined and cannot be applied. In the method described in Patent Document 4, the input image is mapped on the assumption of various shooting directions for each wire frame model. Therefore, compared to the method described in Patent Document 3, the processing of the number of models × shooting direction is performed. A computer with high processing capability is essential.
本発明は、係る事情に鑑みてなされたものであり、処理能力の高い計算機に拠らず半導体でも実現でき、カメラにも組み込み可能な簡易な処理で、さまざまな角度から撮影された車両や人物等の対象物の識別処理に使用できる近似的な正面画像を得ることが可能な画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and it is possible to realize a vehicle or a person photographed from various angles by a simple process that can be implemented in a semiconductor without being based on a computer with high processing capability and can be incorporated into a camera. An object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of obtaining an approximate front image that can be used for identification processing of an object such as the above.
本発明の画像処理装置は、カメラで撮影された画像から車両や人物等の対象物を検出し、対象物領域を抽出する対象物抽出部と、前記カメラの設置位置及び前記対象物の傾きによる画像の歪みを補正する画像補正部と、前記画像補正部で補正された画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、該中央位置を縦に揃える中央位置補正部と、前記中央位置補正部により得られた画像中の識別処理に使用可能な領域を決定する照合領域抽出部と、を備えた。 The image processing apparatus of the present invention detects an object such as a vehicle or a person from an image taken by a camera and extracts an object area, and depends on an installation position of the camera and an inclination of the object. An image correction unit that corrects image distortion, and a center position where the left-right correlation at each height is the highest for each object region in the image corrected by the image correction unit is detected. A center position correcting unit that aligns vertically, and a collation region extracting unit that determines a region that can be used for identification processing in an image obtained by the center position correcting unit.
この構成によれば、カメラで撮影された画像から車両や人物等の対象物を検出して対象物領域を抽出し、またカメラの設置位置及び対象物の傾きによる画像の歪みを補正する。そして、補正した画像中の対象物領域に対して各高さでの左右の相関が最も高くなる中央位置を検出し、検出した中央位置を縦に揃え、この中央位置を縦に揃えた画像中の識別処理に使用可能な領域を決定するので、処理能力の高い計算機に拠らず半導体でも実現でき、カメラにも組み込み可能な簡易な処理で、さまざまな角度から撮影された車両や人物等の対象物の識別処理に使用できる近似的な正面画像を得ることができる。 According to this configuration, an object area such as a vehicle or a person is detected from an image captured by the camera to extract an object area, and image distortion due to the camera installation position and the object inclination is corrected. Then, the center position where the left-right correlation at each height is the highest for the object area in the corrected image is detected, the detected center position is aligned vertically, and the center position is aligned vertically. The area that can be used for identification processing is determined, so it can be realized in semiconductors without relying on computers with high processing capabilities, and it can be incorporated into cameras, such as vehicles and people taken from various angles. An approximate front image that can be used for the object identification process can be obtained.
本発明の画像処理装置は、カメラで撮影された画像から車両や人物等の対象物を検出し、対象物領域を抽出する対象物抽出部と、前記カメラの設置位置及び前記対象物の傾きによる画像の歪みを補正する画像補正部と、前記画像補正部で補正された画像に対し、特徴画像を生成する特徴画像生成部と、前記特徴画像生成部で生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、該中央位置を縦に揃える中央位置補正部と、前記中央位置補正部により得られた画像中の識別処理に使用可能な領域を決定する照合領域抽出部と、を備えた。 The image processing apparatus of the present invention detects an object such as a vehicle or a person from an image taken by a camera and extracts an object area, and depends on an installation position of the camera and an inclination of the object. An image correction unit that corrects image distortion, a feature image generation unit that generates a feature image for the image corrected by the image correction unit, and an object region in the feature image generated by the feature image generation unit In contrast, the center position where the left-right correlation at each height is the highest is detected, and the center position correction unit that aligns the center position vertically, and used for the identification processing in the image obtained by the center position correction unit And a collation area extraction unit that determines a possible area.
この構成によれば、カメラで撮影された画像から車両や人物等の対象物を検出して対象物領域を抽出し、またカメラの設置位置及び対象物の傾きによる画像の歪みを補正する。そして、補正した画像に対して特徴画像を生成し、生成した特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、この中央位置を縦に揃えた画像中の識別処理に使用可能な領域を決定するので、処理能力の高い計算機に拠らず半導体でも実現でき、カメラにも組み込み可能な簡易な処理で、さまざまな角度から撮影された車両や人物等の対象物の識別処理に使用できる近似的な正面画像を得ることができる。 According to this configuration, an object area such as a vehicle or a person is detected from an image captured by the camera to extract an object area, and image distortion due to the camera installation position and the object inclination is corrected. Then, a feature image is generated for the corrected image, and a center position where the left-right correlation at each height is the highest is detected for the object region in the generated feature image. Vehicles taken from various angles with simple processing that can be implemented in semiconductors and can be incorporated into cameras, because it determines areas that can be used for identification processing in aligned images, without relying on computers with high processing capabilities. It is possible to obtain an approximate front image that can be used for identifying an object such as a person or a person.
上記構成において、前記中央位置補正部は、前記特徴画像生成部で生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、検出した中央位置を平滑化した後、中央位置を縦に揃える。 In the above configuration, the center position correction unit detects and detects the center position where the left-right correlation at each height is the highest for the object region in the feature image generated by the feature image generation unit. After smoothing the center position, align the center position vertically.
上記構成において、前記中央位置補正部は、前記特徴画像生成部で生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出した後、画像を水平方向に分割した各小領域で領域ごとに中央位置を決定し、各小領域の中央位置を縦に揃える。 In the above configuration, the center position correction unit detects the center position where the left-right correlation at each height is the highest for the object region in the feature image generated by the feature image generation unit, The center position is determined for each area in each small area divided horizontally, and the center position of each small area is aligned vertically.
上記構成において、前記照合領域抽出部は、前記中央位置補正部で生成された中央位置補正画像中の対象物領域に対し、中央位置を挟む左右領域の領域幅を所定の範囲で変動させたときの左右領域の相関値の変化を調べ、相関値が急激に低下する領域幅を照合範囲の幅とする。 In the above configuration, when the collation region extraction unit changes the region width of the left and right regions sandwiching the center position within a predetermined range with respect to the object region in the center position correction image generated by the center position correction unit. The change in the correlation value of the left and right regions of the region is examined, and the region width where the correlation value rapidly decreases is set as the width of the collation range.
上記構成において、前記照合領域抽出部は、前記中央位置補正部で生成された中央位置補正画像中の対象物領域に対し、中央位置を挟む左右領域の領域幅を所定の範囲で変動させたときの左右領域の相関値の変化を調べ、相関が最も高い領域幅での値が所定の値より小さい場合、照合画像の左右いずれかの半分を他方の反転コピーで置き換えた画像を生成し、それを照合画像とする。 In the above configuration, when the collation region extraction unit changes the region width of the left and right regions sandwiching the center position within a predetermined range with respect to the object region in the center position correction image generated by the center position correction unit. When the change in the correlation value of the left and right areas of the image is examined, and the value in the area width with the highest correlation is smaller than the predetermined value, an image in which either the left or right half of the matching image is replaced with the other inverted copy is generated. Is a collation image.
本発明の画像処理方法は、カメラで撮影された画像から、車両や人物等の対象物を検出し、対象物領域を抽出する対象物抽出ステップと、前記カメラの設置位置及び前記対象物の傾きによる画像の歪みを補正する画像補正ステップと、前記画像補正ステップで補正された画像に対し、特徴画像を生成する特徴画像生成ステップと、前記特徴画像生成ステップで生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、中央位置を縦に揃える中央位置補正ステップと、前記中央位置補正ステップにより得られた画像中の識別処理に使用可能な領域を決定する照合領域抽出ステップと、を備えた。 The image processing method of the present invention includes an object extraction step for detecting an object such as a vehicle or a person from an image photographed by a camera and extracting an object area, an installation position of the camera, and an inclination of the object An image correction step for correcting image distortion due to the image, a feature image generation step for generating a feature image for the image corrected in the image correction step, and an object in the feature image generated in the feature image generation step The center position where the left-right correlation at each height is the highest for each region is detected, and the center position correction step for vertically aligning the center position is used for identification processing in the image obtained by the center position correction step. And a collation region extraction step for determining a possible region.
この方法によれば、カメラで撮影された画像から車両や人物等の対象物を検出して対象物領域を抽出し、またカメラの設置位置及び対象物の傾きによる画像の歪みを補正する。そして、補正した画像に対して特徴画像を生成し、生成した特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、この中央位置を縦に揃えた画像中の識別処理に使用可能な領域を決定するので、処理能力の高い計算機に拠らず半導体でも実現でき、カメラにも組み込み可能な簡易な処理で、さまざまな角度から撮影された車両や人物等の対象物の識別処理に使用できる近似的な正面画像を得ることができる。 According to this method, an object region such as a vehicle or a person is detected from an image photographed by a camera to extract an object area, and image distortion due to the camera installation position and the object inclination is corrected. Then, a feature image is generated for the corrected image, and a center position where the left-right correlation at each height is the highest is detected for the object region in the generated feature image. Vehicles taken from various angles with simple processing that can be implemented in semiconductors and can be incorporated into cameras, because it determines areas that can be used for identification processing in aligned images, without relying on computers with high processing capabilities. It is possible to obtain an approximate front image that can be used for identifying an object such as a person or a person.
本発明の画像処理装置は、処理対象物の画像を入力する画像入力部と、前記画像入力部で入力された画像を表示すると共に操作者の指示を表示する表示部と、操作者の指示に従って前記画像入力部で入力された画像内の処理対象物の対称位置と中央位置を指示する指示部と、前記画像入力部で入力された画像を前記指示部で指示された対称位置と中央位置を用いて画像変形する画像変形部と、前記画像変形部で画像変形された画像を出力する画像出力部と、を備えた。 An image processing apparatus according to the present invention includes an image input unit that inputs an image of a processing target, a display unit that displays an image input by the image input unit and displays an instruction of an operator, and an instruction of the operator An instruction unit for instructing a symmetric position and a center position of a processing object in an image input by the image input unit, and an image input by the image input unit for a symmetric position and a center position instructed by the instruction unit. An image deformation unit that deforms the image using the image deformation unit, and an image output unit that outputs an image deformed by the image deformation unit.
この構成によれば、入力画像内の処理対象物の対称位置と中央位置を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置を用いて入力画像の画像変形が行われる。 According to this configuration, the operator can freely set the symmetric position and the center position of the processing object in the input image, and the input image can be set using the symmetric position and the center position of the processing object set by the operator. The image deformation is performed.
本発明の画像処理装置は、処理対象物の画像を入力する画像入力部と、前記画像入力部で入力された画像を表示すると共に操作者の指示を表示する表示部と、前記処理対象物の既成値を記録する条件記録部と、前記画像入力部で入力された画像内の前記処理対象物の対称位置と中央位置及びサイズ指標を指示する指示部と、前記画像入力部で入力された画像を前記指示部で指示された対称位置と中央位置を用いて画像変形し、さらに前記条件記録部に記録されている既成値と前記指示部で指示されたサイズ指標を用いて画像変形する画像変形部と、前記画像変形部で画像変形された画像を出力する画像出力部と、を備えた。 An image processing apparatus of the present invention includes an image input unit that inputs an image of a processing object, a display unit that displays an image input by the image input unit and displays an instruction of an operator, A condition recording unit for recording a ready-made value, an instruction unit for instructing a symmetrical position, a center position, and a size index of the processing object in the image input by the image input unit, and an image input by the image input unit The image is deformed using the symmetrical position and the center position indicated by the instruction unit, and further, the image is deformed using the ready-made value recorded in the condition recording unit and the size index specified by the instruction unit. And an image output unit that outputs the image deformed by the image deforming unit.
この構成によれば、入力画像内の処理対象物の対称位置と中央位置及びサイズ指標を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置及びサイズ指標を用いて入力画像の画像変形が行われる。 According to this configuration, the operator can freely set the symmetric position, the center position, and the size index of the processing object in the input image, and the symmetric position, the center position, and the size of the processing object set by the operator. Image deformation of the input image is performed using the index.
本発明の画像処理装置は、処理対象物の画像を入力する画像入力部と、前記画像入力部で入力された画像を表示すると共に操作者の指示を表示する表示部と、前記処理対象物の既成値を記録する条件記録部と、前記画像入力部で入力された画像内の前記処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を指示する指示部と、前記画像入力部で入力された画像を前記指示部で指示された対称位置と中央位置を用いて画像変形し、これにより得られた画像に対し、前記条件記録部に記録されている既成値と前記指示部で指示されたサイズ指標を用いて画像変形し、さらに前記指示部で指示された非利用部分を対称部分の画像で補充する画像変形部と、前記画像変形部で画像変形された画像を出力する画像出力部と、を備えた。 An image processing apparatus of the present invention includes an image input unit that inputs an image of a processing object, a display unit that displays an image input by the image input unit and displays an instruction of an operator, A condition recording unit for recording a ready-made value, an instruction unit for instructing a symmetric position and a central position, a size index, and an unused portion of the processing object in the image input by the image input unit, and the image input unit The input image is deformed using the symmetric position and the center position specified by the instruction unit, and the ready-made value recorded in the condition recording unit and the instruction unit are specified for the obtained image. An image deforming unit that deforms an image using the size index that has been generated and further supplements a non-use portion instructed by the instruction unit with an image of a symmetric portion, and an image output that outputs an image deformed by the image deforming unit And a section.
この構成によれば、入力画像内の処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を用いて入力画像の画像変形が行われる。 According to this configuration, the operator can freely set the symmetric position and center position of the processing object in the input image, the size index, and the unused portion, and the symmetric position of the processing object set by the operator Image deformation of the input image is performed using the center position, the size index, and the unused portion.
上記構成において、前記画像出力部は、前記指示部で指示された非利用部分情報を補充前画像と共に出力する。 In the above configuration, the image output unit outputs the unused portion information instructed by the instruction unit together with the pre-replenishment image.
上記構成において、前記画像変形部は、前記指示部で指示された対称位置と中央位置の組が複数ある場合に、対称位置と中央位置を結ぶ線分で区切られた領域ごとに画像変形する。 In the above configuration, when there are a plurality of pairs of the symmetric position and the central position designated by the instruction unit, the image transformation unit deforms the image for each area divided by a line segment connecting the symmetric position and the central position.
本発明の画像処理方法は、処理対象物の画像を入力する画像入力ステップと、前記画像入力ステップで入力された画像を表示すると共に操作者の指示を表示する表示ステップと、操作者の指示に従って前記画像入力ステップで入力された画像内の処理対象物の対称位置と中央位置を指示する指示ステップと、前記画像入力ステップで入力された画像を前記指示ステップで指示された対称位置と中央位置を用いて画像変形する画像変形ステップと、前記画像変形ステップで画像変形された画像を出力する画像出力ステップと、を備えた。 According to an image processing method of the present invention, an image input step for inputting an image of an object to be processed, a display step for displaying an image input in the image input step and displaying an instruction of the operator, and an instruction of the operator An instruction step for instructing the symmetric position and center position of the processing object in the image input in the image input step, and the symmetric position and center position instructed in the instruction step for the image input in the image input step. An image transformation step for transforming the image using the image transformation step, and an image output step for outputting the image transformed in the image transformation step.
この方法によれば、入力画像内の処理対象物の対称位置と中央位置を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置を用いて入力画像の画像変形が行われる。 According to this method, the operator can freely set the symmetric position and the center position of the processing object in the input image, and the input image is used by using the symmetric position and the center position of the processing object set by the operator. The image deformation is performed.
本発明の画像処理方法は、処理対象物の画像を入力する画像入力ステップと、前記画像入力ステップで入力された画像を表示すると共に操作者の指示を表示する表示ステップと、前記処理対象物の既成値を記録する条件記録ステップと、前記画像入力ステップで入力された画像内の前記処理対象物の対称位置と中央位置及びサイズ指標を指示する指示ステップと、前記画像入力ステップで入力された画像を前記指示ステップで指示された対称位置と中央位置を用いて画像変形し、さらに前記条件記録ステップで記録された既成値と前記指示ステップで指示されたサイズ指標を用いて画像変形する画像変形ステップと、前記画像変形ステップで画像変形された画像を出力する画像出力ステップと、を備えた。 The image processing method of the present invention includes an image input step for inputting an image of a processing object, a display step for displaying an image input in the image input step and an instruction of an operator, A condition recording step for recording a ready-made value, an instruction step for instructing a symmetrical position, a central position and a size index of the processing object in the image input in the image input step, and an image input in the image input step The image deformation step of deforming the image using the symmetrical position and the central position instructed in the instruction step, and further deforming the image by using the ready value recorded in the condition recording step and the size index instructed in the instruction step And an image output step for outputting the image deformed in the image deformation step.
この方法によれば、入力画像内の処理対象物の対称位置と中央位置及びサイズ指標を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置及びサイズ指標を用いて入力画像の画像変形が行われる。 According to this method, the operator can freely set the symmetric position, the center position, and the size index of the processing object in the input image, and the symmetric position, the center position, and the size of the processing object set by the operator. Image deformation of the input image is performed using the index.
本発明の画像処理方法は、処理対象物の画像を入力する画像入力ステップと、前記画像入力ステップで入力された画像を表示すると共に操作者の指示を表示する表示ステップと、前記処理対象物の既成値を記録する条件記録ステップと、前記画像入力ステップで入力された画像内の前記処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を指示する指示ステップと、前記画像入力ステップで入力された画像を前記指示ステップで指示された対称位置と中央位置を用いて画像変形し、これにより得られた画像に対し、前記条件記録ステップで記録された既成値と前記指示ステップで指示されたサイズ指標を用いて画像変形し、さらに前記指示ステップで指示された非利用部分を対称部分の画像で補充する画像変形ステップと、前記画像変形ステップで画像変形された画像を出力する画像出力ステップと、を備えた。 The image processing method of the present invention includes an image input step for inputting an image of a processing object, a display step for displaying an image input in the image input step and an instruction of an operator, A condition recording step for recording a ready-made value, an instruction step for instructing a symmetric position and a center position, a size index, and an unused portion of the processing object in the image input in the image input step, and an image input step. The input image is deformed using the symmetrical position and the center position specified in the instruction step, and the image obtained by this is instructed in the ready value recorded in the condition recording step and in the instruction step. An image deformation step of deforming the image using the size index, and supplementing the unused portion instructed in the instruction step with an image of a symmetric portion; An image output step of outputting the image deformation by the image deformation step, with a.
この方法によれば、入力画像内の処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を用いて入力画像の画像変形が行われる。 According to this method, the operator can freely set the symmetric position and center position of the processing object in the input image, the size index, and the unused portion, and the symmetric position of the processing object set by the operator Image deformation of the input image is performed using the center position, the size index, and the unused portion.
上記方法において、前記画像出力ステップでは、前記指示ステップで指示された非利用部分情報を補充前画像と共に出力する。 In the above method, in the image output step, the unused portion information instructed in the instruction step is output together with the pre-replenishment image.
上記方法において、前記画像変形ステップでは、前記指示ステップで指示された対称位置と中央位置の組が複数ある場合に、対称位置と中央位置を結ぶ線分で区切られた領域ごとに画像変形する。 In the above method, in the image deformation step, when there are a plurality of pairs of the symmetric position and the central position indicated in the instruction step, the image is deformed for each region divided by a line segment connecting the symmetric position and the central position.
本発明の画像処理プログラムは、コンピュータを、前記画像処理装置として機能させるためのものである。 The image processing program of the present invention is for causing a computer to function as the image processing apparatus.
このプログラムによれば、入力画像内の処理対象物の対称位置と中央位置、サイズ指標、非利用部分の夫々を操作者が自由に設定することができ、操作者が設定した処理対象物の対称位置と中央位置、サイズ指標又は非利用部分を用いて入力画像の画像変形が行われる。 According to this program, the operator can freely set the symmetry position and the center position of the processing object in the input image, the size index, and the unused portion, and the processing object set by the operator is symmetric. Image deformation of the input image is performed using the position and the center position, the size index, or the unused portion.
本発明の記録媒体は、前記画像処理プログラムを格納したものである。 The recording medium of the present invention stores the image processing program.
この記録媒体によれば、格納中の画像処理プログラムを様々なコンピュータに読み込ませて実行させることができる。 According to this recording medium, the image processing program being stored can be read and executed by various computers.
本発明は、カメラで撮影された車両や人物等の対象物を識別する際に、処理能力の高い計算機に拠らず半導体でも実現でき、カメラにも組み込み可能な簡易な処理で、さまざまな角度から撮影された車両や人物等の対象物の識別処理に使用できる近似的な正面画像を得ることができる。特に、処理対象物の画像に対して、対称位置と中央位置、サイズ指標又は非利用部分の設定を自動又は手動で行うことができ、利便性の向上が図れる。また、処理対象物の画像に対して、簡易な操作で、対称位置と中央位置、サイズ指標又は非利用部分の設定を行うことにより、補正画像の精度の向上を図ることができる。 The present invention, when identifying an object such as a vehicle or a person photographed with a camera, can be realized with a semiconductor without using a computer with high processing capability, and can be incorporated into a camera at various angles. Thus, it is possible to obtain an approximate front image that can be used for identification processing of an object such as a vehicle or a person photographed. In particular, the symmetry position and the center position, the size index, or the unused portion can be set automatically or manually for the image of the processing object, and the convenience can be improved. Further, the accuracy of the corrected image can be improved by setting the symmetry position and the center position, the size index, or the unused portion with a simple operation on the image of the processing object.
以下、本発明を実施するための好適な実施の形態について、図面を参照して詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments for carrying out the invention will be described in detail with reference to the drawings.
(実施の形態1)
図1は、本発明の実施の形態1に係る画像処理装置の機能構成を示すブロック図である。本実施の形態の画像処理装置は、車両識別のための近似的正面画像を生成できるものであり、図1に示すように、対象物抽出部101と、画像補正部102と、特徴画像生成部103と、中央位置補正部104と、照合領域抽出部105とを備えている。
(Embodiment 1)
FIG. 1 is a block diagram showing a functional configuration of the image processing apparatus according to
対象物抽出部101は、通行路に設置されたカメラ(図示略)で撮影された画像から車両や人物等の対象物を検出し、対象物領域を抽出する。図2は、対象物抽出部101の処理を示すフローチャートである。図2において、まずステップS101で画像中のナンバープレートを検出し、ステップS102でナンバープレートを検出したか否かを判断する。ナンバープレートを検出した場合には車両が有ると判断した場合、ステップS103でナンバープレート4隅座標を検出する。次いで、ステップS104で、検出したナンバープレート位置と大きさに基づき対象物領域を決定する。
The target
図3において、(a)は入力画像、(b)は検出されたナンバープレート4隅座標Pと対象物領域R1を示す。図2のステップS101のナンバープレート検出ステップでは、例えばハフ変換等を用いた画像からナンバープレートの枠の直線を検出するなどの公知の方法(例えば、特開2008−217347号公報参照)を用いてナンバープレートを検出する。なお、対象物抽出部101では、ナンバープレートを検出する方式のみでなく、車両形状のテンプレートを利用したパターンマッチングによる手法を用いることもできる。また、連続画像が入力される場合は、連続する画像間の変化から移動物体を検出し、対象物とする方法を用いることもできる。
In FIG. 3, (a) shows the input image, and (b) shows the detected license plate four corner coordinates P and the object region R1. In the license plate detection step of step S101 in FIG. 2, for example, a known method (for example, see Japanese Patent Application Laid-Open No. 2008-217347) such as detecting a straight line of a license plate frame from an image using Hough transform or the like is used. Detect the license plate. The
画像補正部102は、カメラの設置位置及び対象物の傾きによる画像の歪みを補正する。即ち、画像補正部102は、対象物抽出部101で、車両が写っていると判定された画像について、カメラの設置位置による画像の補正を行う。図4は、画像補正部102の処理を示すフローチャートである。図4において、ステップS201で補正パラメータの計算を行う。この場合、カメラが固定されていれば、該カメラと対象物上の基準点との距離、角度(振れ角および俯角)およびカメラ自身の回転角度から逆透視変換のための補正パラメータを決定できる。次いで、ステップS202において、ステップS201で得られたパラメータを用いて画像を逆透視変換する。逆透視変換は、斜め方向を向いた垂直平面を視線方向に向ける変換である。この場合、車両正面向きの面を視線方向に向ける変換を行う。その際、同一奥行き面内の点は正しく正面を向いた画像に補正されるが、奥行きが異なる面同士の位置は画像上で左右にずれるため、車両画像全体としては、よりゆがんだ画像となる。図5にその一例を示す。
The
なお、カメラが可動式であったり、設置角度が不明であったりしても、対象物抽出部101で検出したナンバープレート4隅座標に基づき、補正パラメータを決定することもできる。また、カメラ位置による補正を行っても、車両自身の傾き等の理由により、車両の垂直軸が画像の垂直軸に一致しない場合には、傾き補正により両者を一致させる(ステップS203)。その際、車両の垂直軸の方向としては、ナンバープレートの左右辺が利用できる。
Even if the camera is movable or the installation angle is unknown, the correction parameter can be determined based on the four corner coordinates of the license plate detected by the
以上の補正により、車両前面の左右方向が画像の水平方向に、垂直(上下)方向が画像の垂直方向に一致している。 With the above correction, the left-right direction on the front of the vehicle matches the horizontal direction of the image, and the vertical (up-down) direction matches the vertical direction of the image.
次に、特徴画像生成部103は、画像補正部102で補正された画像に対し、以後の処理で使用する特徴画像を生成する。例えば、濃淡画像化、2値画像化、あるいは、ハフ変換やソーベルフィルタ等のフィルタ処理を施したエッジ画像等を生成する。なお、特徴画像生成処理を行わず、元の画像の画素値をそのまま利用しても構わない。
Next, the feature
次に、中央位置補正部104は、特徴画像生成部103で生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、該中央位置を縦に揃える。中央位置補正部104の処理について図6を用いて説明する。図6の(a)は、特徴画像生成部103で得られた特徴画像中での対象物領域R”1を示す。ここでは、画像の水平方向をx方向、垂直方向をy方向とし、矩形領域R”1の4角の座標は(x1,y1)、(x2,y1)、(x2,y2)、(x1,y2)である。座標(x,y)における画素値をG(x,y)とすると、座標(x,y)における左右の差異は、式(1)で求まる。ここで、Kはナンバープレートの大きさに基づき決められる定数である。
Next, the center
K
D(x,y)=Σ|G(x−k,y)−G(x+k,y)| …(1)
k=1
K
D (x, y) = Σ | G (x−k, y) −G (x + k, y) | (1)
k = 1
矩形領域R”1内の各y座標において、x1+Kからx2−Kの範囲のすべてのxについて左右の差異D(x,y)を求め、その値が最小となるxを、高さy座標における中央位置x0(y)とする(差異が小さいほうが、相関値が高いためである)。各y座標で求まった中央位置(x0(y),y)を結んだ曲線が図6の(b)に示すL1である。 For each y coordinate in the rectangular area R ″ 1, the left and right differences D (x, y) are obtained for all x in the range from x1 + K to x2−K, and the x having the smallest value is determined in the height y coordinate. (The smaller the difference is, the higher the correlation value is.) A curve connecting the central positions (x0 (y), y) obtained by the respective y coordinates is shown in FIG. L1 shown in FIG.
矩形領域内のすべてのy座標での中央位置が求まると、その上辺および下辺に隣接する同じ大きさの矩形領域R”2に対しても同様の処理を行い、中央位置を結ぶ線L1を延長する。但し、矩形領域R”1との接続y座標(下辺の場合y1、上辺の場合y2)で、中央値が矩形領域の中央に来るよう第2の矩形領域R”2を配置する。この際、領域が画像外にはみ出す場合には領域外の部分は処理対象としない。 When the center positions at all y coordinates in the rectangular area are obtained, the same processing is performed on the rectangular area R ″ 2 adjacent to the upper and lower sides, and the line L1 connecting the center positions is extended. However, the second rectangular area R ″ 2 is arranged so that the median value is at the center of the rectangular area at the connection y coordinate (y1 for the lower side, y2 for the upper side) with the rectangular area R ″ 1. At this time, when the region is outside the image, the portion outside the region is not processed.
図6の(c)は、上記のようにして求まった中央位置を縦に揃えた図である。実画像においては、中央位置は滑らかに連続するとは限らないため、揃える前に、求まった中央位置に対し、平滑化を行うとより自然な補正画像が得られる。平滑化は、例えば移動平均を用いる等、公知の方法で行う。あるいは平滑化に代えて、画像を水平方向の小領域に分割し、小領域内では、全y座標で同一の中央位置x座標(例えば、区間平均値)を取るようにしても構わない。この場合には、小領域に分割する境界は、カラー画像での色の変わり目や、予め濃淡画像での濃淡値の変わり目、あるいはハフ変換やソーベルフィルタ等の各種フィルタ処理により得られる水平エッジ位置を利用することができる。 FIG. 6C is a diagram in which the center positions obtained as described above are aligned vertically. In the actual image, since the center position does not always continue smoothly, if the obtained center position is smoothed before being aligned, a more natural corrected image can be obtained. The smoothing is performed by a known method such as using a moving average. Alternatively, instead of smoothing, the image may be divided into small areas in the horizontal direction, and within the small area, the same center position x coordinate (for example, the section average value) may be taken for all y coordinates. In this case, the boundary to be divided into small areas is a horizontal edge position obtained by color change in a color image, change in gray value in a gray image, or various filter processes such as Hough transform and Sobel filter. Can be used.
図7は、中央位置補正部104の処理を示すフローチャートである。図7において、まずステップS301で、特徴画像生成部103で得られた特徴画像中での対象物領域R”1内の各y座標について中央位置x座標を求める。次いで、ステップS302で、R”1上辺に隣接する矩形領域R”2の位置を前記アルゴリズムにより決定する。次いで、ステップS303で、決定した矩形領域が画像内に含まれるか否かを判断し、画像内に含まれる場合には、ステップS304で、注目矩形内の各y座標について中央位置x座標を求める。ステップS303で、決定した矩形領域が画像内に含まれなかった場合(すなわち、上側の処理が完了した場合)には、ステップS305〜S307で、当初の対象物領域R”1の下側についてステップS302〜S304と同様の処理を行う。ステップS306で、下側の注目矩形領域が画像内ではなくなったら(すなわち、下側の処理も完了したら)、ステップS308で、各y座標について得られた中央位置x座標の平滑化を行う。次いで、ステップS309で、各y座標ごとの平滑化後の中央位置x座標の平均値X0を求める。そして、ステップS310で、各y座標ごとの中央位置をステップS309で求めた平均値X0に一致させるよう各y座標の横方向の画素を左右にずらす。
FIG. 7 is a flowchart showing the processing of the center
図8は、注目矩形内中央位置算出ステップ(ステップS301、S304、S307)の詳細な処理を示すフローチャートである。図8において、まずステップS311で、y=y1とする。次いで、ステップS312でy1≦yかつy≦y2かどうかを判断し、該当しない場合は本処理を終了し、該当する場合は、ステップS313でx=x1+Kとする。ステップS313の処理を行った後、ステップS314で、x1+K≦xかつx≦x2+Kかどうかを判断し、該当しない場合は、ステップS319で、x0をyでの中央位置として保存し、その後、y++としてステップS312に戻る。一方、ステップS314において、該当する場合は、ステップS315で、(x,y)を中央点とした時の左右差異D(x,y)を計算する。そして、ステップS316で、D(x,y)<Dminかどうかを判断し、該当しない場合は、ステップS317で、Dmin=D(x,y)、x0=xとする。ステップS316で該当しないと判断した場合又はステップS317の処理を行った後、x++としてステップS314に戻る。 FIG. 8 is a flowchart showing the detailed processing of the center position calculation step (steps S301, S304, S307) in the target rectangle. In FIG. 8, first, in step S311, y = y1 is set. Next, in step S312, it is determined whether y1 ≦ y and y ≦ y2, and if not applicable, this processing is terminated. If applicable, x = x1 + K is set in step S313. After performing the process of step S313, in step S314, it is determined whether x1 + K ≦ x and x ≦ x2 + K. If not, x0 is stored as the center position in y in step S319, and then is set as y ++. The process returns to step S312. On the other hand, in step S314, if applicable, in step S315, the left-right difference D (x, y) when (x, y) is the center point is calculated. In step S316, it is determined whether D (x, y) <Dmin. If not, Dmin = D (x, y) and x0 = x are set in step S317. If it is determined in step S316 that it is not applicable, or after performing the process of step S317, the process returns to step S314 as x ++.
なお、ここでは左右の対象度の指標として、左右値の差の総和を用いて説明したが、2乗誤差の総和を用いてもかまわない、また、類似度や相関値での代替も可能である。但し、類似度や相関値で評価する場合には、左右値の差の総和を用いた場合とは、大小関係が逆転する。 In this example, the sum of the difference between the left and right values is used as the index of the right and left target levels. However, the sum of square errors may be used, and substitution with similarity and correlation values is also possible. is there. However, when the evaluation is performed using the similarity or the correlation value, the magnitude relationship is reversed from the case where the sum of the differences between the left and right values is used.
また、ここでは、各y座標ごとに中央位置x座標を平滑化する例を説明したが、フロントガラス、ボンネット、グリル、バンパー等の各領域毎に中央位置を決めてもよい。各領域は、色や明るさが大きく変化する位置で分割される。 Here, an example in which the center position x coordinate is smoothed for each y coordinate has been described, but the center position may be determined for each region such as a windshield, a bonnet, a grill, and a bumper. Each area is divided at a position where the color and brightness change greatly.
次に、照合領域抽出部105の処理について図9を用いて説明する。照合領域抽出部105は、中央位置補正部104により得られた画像中の識別処理に使用可能な領域を決定する。図9の(a)は、中央位置補正の施された特徴画像中での対象物領域を示すものである。図6の(a)と同様に、画像の水平方向をx方向、垂直方向をy方向とし、座標(x,y)における画素値をG(x,y)とする。中央位置のx座標をx0としたとき、座標(x0,y)における左右の差異を(x0−t,y)から(x0+t,y)の範囲で求めるとき、以下に示す式(2)で求まる。tは、所定の定数tminからtmax=Min(x0−x1,x2−x0)までの範囲をとる。
Next, the process of the collation
t
D’(y,t)=Σ|G(x0−k,y)−G(x0+k,y)| …(2)
k=1
t
D ′ (y, t) = Σ | G (x0−k, y) −G (x0 + k, y) | (2)
k = 1
各y座標について求めた範囲tの左右の差異D’(y,t)をy1からy2の範囲で加算し、左右領域の相関評価値S(t)を求める。以下に相関評価値S(t)を求める式(3)に示す。 The left-right difference D ′ (y, t) in the range t obtained for each y-coordinate is added in the range from y1 to y2, and the correlation evaluation value S (t) in the left-right region is obtained. The equation (3) for obtaining the correlation evaluation value S (t) is shown below.
y2
S(t)=ΣD’(y,t)/t …(3)
y=y1
y2
S (t) = ΣD ′ (y, t) / t (3)
y = y1
相関が高いほどこの値は小さい。図9の(b)に示すように、相関評価値S(t)はt0を境に大きくなる。このt0を元に、x0−t0からx0+t0の範囲を照合領域(〈R〉)とする(図9の(c))。なお、S(t)の最小値Sminが所定の値Thより小さい場合には、x0≦x≦x0+t0の範囲の右半面画像の代わりに、x0−t0≦x≦x0の範囲の左半面画像を左右反転しはめ込んだ左半面反転コピー画像(図10の(a))と、x0−t0≦x≦x0の範囲の左半面画像の代わりに、x0≦x≦x0+t0の範囲の右半面画像を左右反転しはめ込んだ、右半面反転コピー画像(図10の(b))との2画像を生成し、中央位置補正部104で生成された中央位置補正画像に代えて照合画像とする。照合の範囲は、中央位置補正画像の場合と同様、x0−t0≦x≦x0+t0の範囲を用いる。
The higher the correlation, the smaller this value. As shown in (b) of FIG. 9, the correlation evaluation value S (t) increases with t0 as a boundary. Based on this t0, a range from x0-t0 to x0 + t0 is set as a collation region (<R>) ((c) in FIG. 9). When the minimum value Smin of S (t) is smaller than the predetermined value Th, a left half image in the range of x0−t0 ≦ x ≦ x0 is used instead of the right half image in the range of x0 ≦ x ≦ x0 + t0. Instead of the left half-side inverted copy image (FIG. 10A) that has been flipped horizontally and the left half-side image in the range of x0−t0 ≦ x ≦ x0, the right half-side image in the range of x0 ≦ x ≦ x0 + t0 Two images of the right half-side inverted copy image (FIG. 10B) that are inverted and fitted are generated, and used as a collation image instead of the center position correction image generated by the center
図11は、照合領域抽出部105の処理を示すフローチャートである。図11において、ステップS411でt=tmin、S(t)=0とし、ステップS412で、tmin≦tかつt≦tmaxかどうかを判断する。該当する場合は、ステップS413で、y=y1とし、ステップS414で、y1≦yかつy≦y2かどうかを判断し、該当する場合は、ステップS415で、(x0,y)を中央点とした時の左右範囲tの差異D’(y、t)を計算する。そして、ステップS416で、S(t)+=D’(y、t)、y++として、ステップS414に戻る。ステップS414の判定で、y1≦yかつy≦y2が該当しない場合は、ステップS417で、相関評価値S(t)を保存し、その後、y++としてステップS412に戻る。一方、ステップS412の判定で、tmin≦tかつt≦tmaxに該当しない場合、ステップS419で、S(t)を解析し、値が急増するt=t0を決定し、x0−t0≦x≦x0+t0を照合範囲とする。そして、ステップS420で、Smin>Thかどうか判断し、該当しない場合は本処理を終了し、Smin>Thに該当する場合は、ステップS421で、左反面反転コピー画像、右反面反転コピー画像を生成する。ステップS421の処理を終えた後、本処理を終了する。
FIG. 11 is a flowchart showing the processing of the collation
このように、ステップS411〜ステップS418で、tmin≦t≦tmaxのtについての相関評価値S(t)を求め、ステップS419で、相関評価値S(t)の急激に大きくなるt値t0を求める(差異が大きいということは、相関が崩れたことを意味する)。そして、その値を元に、中央位置補正の施された画像のx0−t0≦x≦x0+t0の範囲を照合範囲とする。ここでも、中央位置補正部104と同様、左右の対象度の指標として、左右値の差の総和を用いて説明したが、2乗誤差の総和を用いてもかまわない。また、類似度や相関値での代替も可能である。但し、類似度や相関値で評価する場合には、左右値の差の総和を用いた場合とは、大小関係が逆転する。
Thus, in step S411 to step S418, the correlation evaluation value S (t) for t of tmin ≦ t ≦ tmax is obtained, and in step S419, the t value t0 where the correlation evaluation value S (t) increases rapidly is obtained. (A large difference means that the correlation is broken.) Then, based on the value, a range of x0−t0 ≦ x ≦ x0 + t0 of the image subjected to the center position correction is set as a collation range. Here, as in the central
このように、通行路に設置されたカメラで撮影された車両等の対象物を識別する際に、処理能力の高い計算機に拠らず、カメラに組み込み可能な半導体でも実現できる簡易な処理で、左右対称な特性を持つ対象物の近似的な正面画像を得ることができる。そして、これにより、さまざまな角度から撮影された人物等の対象物の識別処理を行うことが可能となる。 In this way, when identifying an object such as a vehicle photographed with a camera installed on a traffic path, it is a simple process that can be realized even with a semiconductor that can be incorporated in the camera without depending on a computer with high processing capacity, It is possible to obtain an approximate front image of an object having symmetrical characteristics. Thus, it is possible to perform identification processing of an object such as a person photographed from various angles.
(実施の形態2)
本発明の実施の形態2に係る画像処理装置は、人物の顔認証のための近似的正面画像を生成できるものであり、図12に示すように、対象物抽出部1011と、画像補正部1021と、特徴画像生成部1031と、中央位置補正部1041と、照合領域抽出部1051とを備えている。
(Embodiment 2)
The image processing apparatus according to the second embodiment of the present invention can generate an approximate front image for human face authentication, and as shown in FIG. 12, an
図13は、対象物抽出部1011の処理を示すフローチャートである。図13において、まずステップS501で画像中の人の顔の検出を行い、次いでステップS502で、顔が検出された否かを判断し、顔を検出した場合は対象物が有ると判断してステップS503で目口位置座標を検出する。次いでステップS504で、検出した目口位置に基づき対象物領域を決定する。
FIG. 13 is a flowchart showing the processing of the
図14において、(a)は入力画像、(b)は抽出された目口位置座標Pと対象物領域R1を示す。ステップS501の顔検出ステップは、例えばテンプレートを利用したパターンマッチングによる方法(例えば特開2004−318204号公報参照)といった公知の顔検出方法を用いて実行される。また、連続画像が入力される場合には、連続する画像間の変化から移動物体を検出し、対象物とする方法を用いることもできる。 In FIG. 14, (a) shows the input image, and (b) shows the extracted eye opening position coordinates P and the object region R1. The face detection step in step S501 is executed using a known face detection method such as a pattern matching method using a template (see, for example, JP-A-2004-318204). In addition, when continuous images are input, a method of detecting a moving object from a change between successive images and setting it as a target can be used.
画像補正部1021では、対象物抽出部1011で、顔が写っていると判定された画像についてカメラ位置による画像の補正を行う。図15は画像補正部102における処理を示す図である。また、図16は画像補正部102の処理を示すフローチャートである。対象物が顔の場合、まずステップS601で、顔の垂直軸を画像の垂直軸に一致させる傾き補正を行う。このとき、両目位置P1,P2を結んだ直線(P1P2)に口位置(P3)から降ろした垂線P3Hを顔の垂直軸とし(図15の(a))、この垂線P3Hを画像の垂直方向に向ける回転補正を行う(図15の(b))。次いで、ステップS602で、左右の目位置座標と前記垂線の足Hとの距離の比(P1H:P2H)に基づき、逆透視変換のための補正パラメータを決定する。そして、ステップS603で、ステップS602で得られたパラメータを用いて画像を逆透視変換する。以上の補正により、顔前面の左右方向が画像の水平方向に、垂直(上下)方向が画像の垂直方向に一致する(図15の(c))。
The
次に、特徴画像生成部1031では、画像補正部1021で画像補正の施された画像に対し、以後の処理で使用する特徴画像を生成する。例えば、濃淡画像化、2値画像化、あるいは、ハフ変換やソーベルフィルタ等のフィルタ処理を施したエッジ画像等を生成する。あるいは、特徴画像生成処理を行わず、元の画像の画素値をそのまま利用しても構わない。
Next, the feature
図17は、中央位置補正部1041における処理を示すフローチャートである。図17において、ステップS701で、特徴画像生成部1031で得られた特徴画像中での対象物領域R”1内の各y座標について中央位置x座標を求める(図18の(a))。次いで、ステップS702で、各y座標について得られた中央位置x座標の平滑化を行う。次いで、ステップS703で、平滑化された各y座標ごとの中央位置x座標の平均値X0を求める。次いで、ステップS704で、各y座標ごとの中央位置をステップS703で求めた平均値X0に一致させるよう各y座標の横方向の画素を左右にずらす(図18(b))。なお、中央位置を算出するステップS701の処理は、車両を対象とする場合の注目矩形内中央位置算出ステップ(ステップS301、S304、S307)と同一である。また、照合領域抽出部1051における処理も車両を対象とする場合と同一でよい。
FIG. 17 is a flowchart showing processing in the center
このように、通行路に設置されたカメラで撮影された車両等の対象物を識別する際に、処理能力の高い計算機に拠らず、カメラに組み込み可能な半導体でも実現できる簡易な処理で、左右対称な特性を持つ対象物の近似的な正面画像を得ることができる。そして、これにより、さまざまな角度から撮影された車両や人物等の対象物の識別処理を行うことが可能となる。 In this way, when identifying an object such as a vehicle photographed with a camera installed on a traffic path, it is a simple process that can be realized even with a semiconductor that can be incorporated in the camera without depending on a computer with high processing capacity, It is possible to obtain an approximate front image of an object having symmetrical characteristics. This makes it possible to perform identification processing of objects such as vehicles and people photographed from various angles.
なお、上記実施の形態1、2で説明した対象物抽出部101及び1011、画像補正部102及び1021、特徴画像生成部103及び1031、中央位置補正部104及び1041及び照合領域抽出部105及び1051の各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは、個別に1チップ化されてもよいし、一部又は全部等のように1チップ化されてもよい。
The
集積回路化の手法は、LSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。 The method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
また、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array )や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Also, an FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
さらには、半導体技術の進歩又は派生する別の技術により、LSIに置き換わる集積回路化の技術が登場すれば、当然その技術を用いて機能ブロックの集積化を行ってもよい。 Furthermore, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology.
(実施の形態3)
図20は、本発明の実施の形態3に係る画像処理装置の概略構成を示すブロック図である。図20において、本実施の形態の画像処理装置は、画像入力部110と、表示部111と、画像出力部112と、条件記録部113と、画像変形部114と、対称位置指示部115と、サイズ指示部116と、利用部分指示部117とを備える。
(Embodiment 3)
FIG. 20 is a block diagram showing a schematic configuration of an image processing apparatus according to Embodiment 3 of the present invention. 20, the image processing apparatus according to the present embodiment includes an
画像入力部110は、図示せぬカメラで撮影された処理対象物の画像を入力する。表示部111は、処理対象物の画像、各種指示及び各種指示による処理対象物の処理画像を表示する。ここで、各種指示は、対象位置指示、サイズ指標指示及び利用部分指示である。画像出力部112は、画像変形部114で処理された処理対象物の処理画像を出力する。条件記録部113は、処理対象物のサイズ等の既成値を記録する。対称位置指示部115は、画像変形部114に対して画像内の対象物の対称位置と中央位置を指示する。対称位置と中央位置の指示は操作者が行う。すなわち、操作者は、表示部111に表示された処理対象物の画像を見ながら対象位置指示部115を操作して処理対象物の画像の対称位置と中央位置を指定する。この指定により、対称位置指示部115は、操作者が指定した対象物の対称位置と中央位置を画像変形部114に指示する。
The
サイズ指示部116は、画像変形部114に対して画像内の対象物のサイズ指標を指示する。サイズ指標の指示は操作者が行う。すなわち、操作者は、表示部111に表示された処理対象物の画像を見ながらサイズ指示部116を操作して処理対象物の画像のサイズ指標を指定する。この指定により、サイズ指示部116は、操作者が指定した処理対象物の画像のサイズ指標を画像変形部114に指示する。
The
利用部分指示部117は、画像変形部114に対して画像内の処理対象物の非利用部分を指示する。非利用部分の指示は操作者が行う。すなわち、操作者は、表示部111に表示された処理対象物の画像を見ながら利用部分指示部117を操作して処理対象物の非利用部分を指定する。この指定により、利用部分指示部117は、操作者が指定した対象物の非利用部分を画像変形部114に指示する。
The use
画像変形部114は、画像入力部110で入力された画像を対称位置指示部115で指示された対称位置と中央位置を用いて画像変形(“第1の画像変形”)する。また、第1の画像変形を行った後、条件記録部113に記録されているサイズの既成値とサイズ指示部116で指示されたサイズ指標を用いて画像変形(“第2の画像変形”)する。また、第2の画像変形を行った後、利用部分指示部117で指示された非利用部分を対称部分の画像で補充する(“第3の画像変形”)。そして、第3の画像変形により得られた画像を画像出力部112に出力する。
The
次に、本実施の形態の画像処理装置の動作を説明する。
図21は、本実施の形態の画像処理装置の画像処理を説明するためのフローチャートである。図21において、まずステップS1001で、画像入力部110が処理対象の画像を入力し、画像変形部114に出力する。画像変形部114に出力された処理対象の画像は表示部111に表示される。
Next, the operation of the image processing apparatus according to this embodiment will be described.
FIG. 21 is a flowchart for explaining the image processing of the image processing apparatus according to the present embodiment. In FIG. 21, first, in step S <b> 1001, the
表示部111に処理対象の画像が表示されている状態で、操作者が処理対象物の対称位置と中央位置を指定する操作を行うと、ステップS1002で、対称位置指示部115が画像内の処理対象物の対称位置と中央位置を画像変形部114に指示する。画像変形部114は、対称位置指示部115からの指示を受けると、ステップS1003で、画像内の処理対象物の対称位置と中央位置を用いて処理対象物を正面画像に変形する(第1の画像変形処理)。正面画像に変形された処理対象物の画像は表示部111に表示される。
When the operator performs an operation of designating the symmetric position and the center position of the processing target object while the processing target image is displayed on the
処理対象物が正面画像に変形された後、ステップS1004で、画像変形部114が、引き続き対称位置指示があるかどうか判定し、引き続き対称位置指示があると判断するとステップS1002に戻り、引き続き対称位置指示部115からの指示を受け付ける。これに対して対称位置指示がないと判断すると次の指示を待つ。このとき表示部111には正面画像が表示されている。
After the object to be processed is deformed to the front image, in step S1004, the
第1の画像変形処理が行われた後、表示部111に正面画像が表示されている状態で操作者が処理対象物のサイズ指標を指示する操作を行うと、ステップS1005で、サイズ指示部116が操作者にて指示されたサイズ指標を画像変形部114に指示する。画像変形部114は、サイズ指示部116からの指示を受けると、ステップS1006で、指示されたサイズ指標と、条件記録部113に予め記録されているサイズの既成値とを用いて対象物のサイズを補正する(第2の画像変形処理)。サイズ補正された処理対象物の画像は表示部111に表示される。
After the first image deformation process is performed, when the operator performs an operation to specify the size index of the processing object while the front image is displayed on the
次いで、ステップS1007で、画像変形部114が、引き続きサイズ指標の指示があるかどうか判定し、引き続きサイズ指標の指示があると判断するとステップS1005に戻り、引き続きサイズ指示部116からの指示を受け付ける。これに対してサイズ指標の指示がないと判断すると、次の指示を待つ。このとき表示部111にはサイズ補正された正面画像が表示されている。
Next, in step S1007, the
第2の画像変形処理が行われた後、表示部111に正面画像が表示されている状態で操作者が処理対象物の非利用部分を指示する操作を行うと、ステップS1008で、利用部分指示部117が操作者にて指定された非利用部分を画像変形部114に指示する。画像変形部114は、利用部分指示部117からの指示を受けると、ステップS1009で、指示された画像の非利用部分を対称部分の画像で補充する(第3の画像変形処理)。非利用部分が補充された処理対象物の画像は表示部111に表示される。
After the second image transformation process is performed, if the operator performs an operation for instructing a non-use part of the processing object while the front image is displayed on the
次いで、ステップS1010で、画像変形部114が、引き続き非利用部分の補充の指示があるかどうか判定し、引き続き非利用部分の補充の指示があると判断するとステップS1008に戻り、利用部分指示部117からの指示を受け付ける。これに対して非利用部分の補充の指示がないと判断すると、次の指示を待つ。このとき表示部111には非利用部分が補充された正面画像が表示されている。
Next, in step S1010, the
以上、画像変形部114は、対称位置指示による第1の画像変形処理、サイズ指標指示による第2の画像変形処理、非利用部分指示による第3の画像変形処理を行った後、ステップS1011で、前記各変形処理後の画像を出力し、さらにステップS1012で変形処理条件を出力して本処理を終了する。ここで、変形条件は、ステップS1002で指示された対象物の対称位置と中央位置、ステップS1005で指示されたサイズ指標、ステップS1008で指示された画像の非利用部分の指示条件である。画像出力部112は、入力画像及び最終変形画像と変形条件とを出力する。上記ステップS1001〜S1012は、コンピュータで実行可能なプラグラムで記述してもよい。
As described above, the
次に、具体例を挙げて本実施の形態の画像処理装置の動作を説明する。
図22は、入力画像の一例を示す図である。同図に示す入力画像には車両の正面画像Iaが含まれている。図23〜図26は第1の画像変形処理における各過程を示す図である。第1の画像変形処理は対称位置指示部115と画像変形部114で行われる。まず操作者が車両の正面画像Iaに対して対称位置P1,P2を指示する操作を行う。この操作が行われると、図23に示すように、画像変形部114が対称位置指示部115からの指示に従って表示部111に対称位置P1,P2を表示する。さらに、図24に示すように対称位置P1,P2を結ぶ線分L1を表示する。
Next, the operation of the image processing apparatus according to the present embodiment will be described with a specific example.
FIG. 22 is a diagram illustrating an example of an input image. The input image shown in the figure includes a front image Ia of the vehicle. 23 to 26 are diagrams showing each process in the first image deformation processing. The first image deformation process is performed by the symmetrical
次いで、操作者が線分L1上の中央位置Pc1を指示する操作を行うと、図25に示すように、画像変形部114が対称位置指示部115からの指示に従って線分L1上に中央位置Pc1を表示する。操作者が同様の操作(対称位置の指示及び中央位置の指示)を必要な数分について行うことで、図26に示すような結果が得られる。なお、操作者が指示した位置が外れていた場合は位置を修正したり削除したりすることも可能である。
Then, when an operation by the operator to indicate the center position P c1 on the line segment L 1, as shown in FIG. 25, the
次に、第2の画像変形処理について説明する。第2の画像変形処理はサイズ指示部116と画像変形部114で行われる。第1の画像変形処理が終了している状態で、操作者が図示せぬ「変換」ボタンを押すと、図27に示すように、画像変形部114が正面画像Iaを複数の台形領域(一例を符号S1,S2で示している)に分割する。次いで、画像変形部114は、図28に示すように、台形領域ごとに長方形領域に変形し、さらに対称位置が中央位置から同じ長さになるように左右の縮尺を合せる(一例を符号S1’,S2’で示している)。次いで、図29に示すように、各長方形領域の中央位置を合せて正面画像Ibに変形する。図30にその正面画像Ibを示す。操作者は、その正面画像Ibを確認し、補正未完了であれば対称位置指示の操作をやり直す。
Next, the second image deformation process will be described. The second image deformation process is performed by the
次に、操作者が正面画像Ibのサイズ指標であるプレート位置を指示する操作を行うと、サイズ指示部116は、図31に示すように、指示されたプレート位置P50〜P53を表示部111に表示する。操作者が図示せぬ「変換」ボタンを押すと、画像変形部114が、条件記録部113に記録されているプレートサイズを参照し、縦横の縮尺を合せて図32に示すサイズ補正画像Ic1に変形し、表示部111に表示する。
Then, when an operation by the operator to instruct the plate position is the size indicator front image I b, the
また、サイズ補正方法は、プレートの四隅を指定して、プレート公称値でサイズ調整する以外に、図33に示すように、車幅(W)及び車高(H)を指定し、カタログ値でサイズ調整することも可能である。サイズ指示部116は、図34に示すように表示部111に表示された正面画像Ibに中央位置で線対称な枠FR1を表示する。操作者は、枠FR1の幅及び上下位置を移動させて、サイズ指標である車幅・車高を指示する操作を行う。車幅・車高を指示する操作を行った後、操作者が図示せぬ「変換」ボタンを押すと、画像変形部114が、条件記録部113に記録されている車幅・車高のカタログ値を参照し、縦横の縮尺を合せて図34に示すサイズ補正画像Ic2に変形する。操作者はサイズ補正画像Ic1あるいはIc2を確認し、補正未完了であればサイズ指示の操作をやり直す。
In addition to specifying the four corners of the plate and adjusting the size with the nominal plate value, the size correction method specifies the vehicle width (W) and vehicle height (H) as shown in FIG. It is also possible to adjust the size.
次に、第3の画像変形処理について説明する。第3の画像変形処理は利用部分指示部117と画像変形部114で行われる。図35に示すように、画像変形部114は利用部分指示部117からの指示に従い、サイズ補正画像Ic2に部分領域枠FR2を表示する。操作者はこの表示を見て、図36に示すように、非利用部分Gを指示する操作を行うと、画像変形部114は利用部分指示部117からの指示に従い、指示された非利用部分Gに対応する部分領域枠を対象外表示する。この状態で操作者が図示せぬ「変換」ボタンを押すと、図37に示すように、画像変形部114は非利用部分Gを対称部分の画像で補充して、図38に示すように、非利用部分補充画像Idに変形して表示する。操作者は非利用部分補充画像Idを確認し、補正未完了であれば利用部分指示の操作をやり直す。
Next, the third image deformation process will be described. The third image deformation process is performed by the use
このように、カメラで撮影された車両等の対象物を識別する際に、左右対称の中心や両端等の設定を人間が自由に設定することができるインタフェースを持つことにより、使用における自由度が高まる。無論、これらの設定を行った後の処理は前述した実施の形態1及び2の画像処理装置と同様に行われる。 In this way, when an object such as a vehicle photographed by a camera is identified, it has an interface that allows a human to freely set the center of symmetry and both ends, thereby providing a degree of freedom in use. Rise. Of course, the processing after making these settings is performed in the same manner as the image processing apparatuses of the first and second embodiments.
なお、本実施の形態の画像処理装置において、画像内の対象物の対称位置と中央位置を指示したが、画像が既に正面補正されている場合は中央の指示のみでもかまわない。 In the image processing apparatus according to the present embodiment, the symmetrical position and the center position of the object in the image are indicated. However, if the image has already been front-corrected, only the center instruction may be used.
また、本実施の形態の画像処理装置において、対称位置指示部115、サイズ指示部116及び利用部分指示部117の各指示部の処理結果が思わしくない場合、指示を修正入力するようにしてもかまわない。
Further, in the image processing apparatus according to the present embodiment, if the processing results of the respective instruction units of the symmetric
また、本実施の形態の画像処理装置において、画像変形部114が利用部分指示部117で指示された非利用部分を対称部分の画像で補充し、その結果を画像出力部112に出力したが、画像の補充を行わないで、利用部分指示部117で指示された非利用部分情報を補充前画像と共に出力し、以降の認識等の処理で、処理に用いる特徴量に変換した後、対称部分の特徴量で補充するようにしてもかまわない。
In the image processing apparatus according to the present embodiment, the
また、本実施の形態の画像処理装置は、各指示ごとに処理を行うものであるが、全ての指示を一度に与えて一括して処理するようにしてもかまわない。このようにした場合の動作は図39のフローチャートに示すようになる。図39に示すように、ステップS1101で画像入力部110が画像入力を行った後、ステップS1102で対称位置指示部115が画像内の処理対象物の対称位置と中央位置を画像変形部114に指示し、次いで、ステップS1103でサイズ指示部116が操作者にて指示されたサイズ指標を画像変形部114に指示する。そして、ステップS1104で利用部分指示部117が操作者にて指定された非利用部分を画像変形部114に指示する。
The image processing apparatus according to the present embodiment performs processing for each instruction. However, all the instructions may be given at once and processed in a batch. The operation in this case is as shown in the flowchart of FIG. As shown in FIG. 39, after the
利用部分指示部117が画像変形部114に指示した後、ステップS1105で画像変形部114が画像内の処理対象物の対称位置と中央位置を用いて処理対象物を正面画像に変形し(第1の画像変形処理)、変形した正面画像を表示部111に表示する。次いで、画像変形部114は、サイズ指示部116から指示されたサイズ指標と、条件記録部113に予め記録されているサイズの既成値とを用いて対象物のサイズを補正し(第2の画像変形処理)、サイズ補正した画像を表示部111に表示する。次いで、画像変形部114は、利用部分指示部117から指示された画像の非利用部分を対称部分の画像で補充し(第3の画像変形処理)、非利用部分を補充した画像を表示部111に表示する。
After the use
次いで、ステップS1106で、画像変形部114は、引き続き対称位置の指定、サイズ指定又は利用部分の指定のいずれか1つでも指示があるかどうか判定し、いずれか1つでも指示があると判断するとステップS1102に戻り、指示があった処理を繰り返し行う。そして、対称位置の指定、サイズ指定及び利用部分の指定のいずれかからも指示がなければ、ステップS1107で、処理済みの変形画像を出力し、さらにステップS1108で変形条件を出力する。変形条件の指示と入力画像の変形及び表示の処理順序を入れ替えてもかまわない。上記ステップS1101〜S1108は、コンピュータで実行可能なプラグラムで記述してもよい。
Next, in step S1106, the
なお、実施の形態3で説明した画像入力部110、画像出力部112、条件記録部113、画像変形部114、対称位置指示部115、サイズ指示部116及び利用部分指示部117の各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは、個別に1チップ化されてもよいし、一部又は全部等のように1チップ化されてもよい。
The functional blocks of the
集積回路化の手法は、LSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。 The method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
また、LSI製造後にプログラムすることが可能なFPGAや、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Further, an FPGA that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
さらには、半導体技術の進歩又は派生する別の技術により、LSIに置き換わる集積回路化の技術が登場すれば、当然その技術を用いて機能ブロックの集積化を行ってもよい。 Furthermore, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology.
以上、本発明を車両と人物の顔に適用した実施形態を説明したが、本発明の画像処理装置は、上記各実施の形態に限られるものではなく、何らかの計測方法により、物体の向きを特定できれば、左右対称の任意の物体に本発明を適用できる。 As described above, the embodiment in which the present invention is applied to the face of a vehicle and a person has been described. However, the image processing apparatus of the present invention is not limited to the above-described embodiments, and the orientation of an object is specified by some measurement method. If possible, the present invention can be applied to any symmetrical object.
本発明にかかる画像処理装置は、通行路等に設置された監視カメラ等で撮影された画像から、簡易な処理で、車両又は人物等の対象物の近似的な正面画像を得ることができるといった効果を有し、車両識別システムや顔認証を用いた入出門システム等に応用できる。 The image processing apparatus according to the present invention can obtain an approximate front image of an object such as a vehicle or a person from an image taken by a monitoring camera or the like installed on a traffic path or the like with a simple process. It has an effect and can be applied to an entrance / exit system using a vehicle identification system or face authentication.
また、さまざまな角度から撮影された車両や人物の画像の格納されたデータベースから特定の対象物の画像を選び出す検索システム等の用途にも応用可能である。 Further, the present invention can be applied to uses such as a search system for selecting an image of a specific object from a database in which images of vehicles and people taken from various angles are stored.
101、1011 対象物抽出部
102、1021 画像補正部
103、1031 特徴画像生成部
104、1041 中央位置補正部
105、1051 照合領域抽出部
110 画像入力部
111 表示部
112 画像出力部
113 条件記録部
114 画像変形部
115 対称位置指示部
116 サイズ指示部
117 利用部分指示部
101, 1011
Claims (19)
前記カメラの設置位置及び前記対象物の傾きによる画像の歪みを補正する画像補正部と、
前記画像補正部で補正された画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、該中央位置を縦に揃える中央位置補正部と、
前記中央位置補正部により得られた画像中の識別処理に使用可能な領域を決定する照合領域抽出部と、
を備えた画像処理装置。 An object extraction unit that detects an object such as a vehicle or a person from an image captured by a camera and extracts an object area;
An image correction unit that corrects image distortion due to the installation position of the camera and the inclination of the object;
A center position correcting unit that detects the center position where the left-right correlation at each height is highest for the object region in the image corrected by the image correcting unit, and aligns the center position vertically;
A collation region extraction unit that determines a region that can be used for identification processing in the image obtained by the central position correction unit;
An image processing apparatus.
前記カメラの設置位置及び前記対象物の傾きによる画像の歪みを補正する画像補正部と、
前記画像補正部で補正された画像に対し、特徴画像を生成する特徴画像生成部と、
前記特徴画像生成部で生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、該中央位置を縦に揃える中央位置補正部と、
前記中央位置補正部により得られた画像中の識別処理に使用可能な領域を決定する照合領域抽出部と、
を備えた画像処理装置。 An object extraction unit for detecting an object such as a vehicle or a person from an image taken by a camera and extracting an object area;
An image correction unit that corrects image distortion due to the installation position of the camera and the inclination of the object;
A feature image generation unit that generates a feature image for the image corrected by the image correction unit;
A center position correction unit that detects a center position where the left-right correlation at each height is highest for the object region in the feature image generated by the feature image generation unit, and aligns the center position vertically;
A collation region extraction unit that determines a region that can be used for identification processing in the image obtained by the central position correction unit;
An image processing apparatus.
前記カメラの設置位置及び前記対象物の傾きによる画像の歪みを補正する画像補正ステップと、
前記画像補正ステップで補正された画像に対し、特徴画像を生成する特徴画像生成ステップと、
前記特徴画像生成ステップで生成された特徴画像中の対象物領域に対し、各高さでの左右の相関が最も高くなる中央位置を検出し、中央位置を縦に揃える中央位置補正ステップと、
前記中央位置補正ステップにより得られた画像中の識別処理に使用可能な領域を決定する照合領域抽出ステップと、
を備えた画像処理方法。 An object extraction step of detecting an object such as a vehicle or a person from an image taken by a camera and extracting an object area;
An image correction step for correcting image distortion due to the installation position of the camera and the inclination of the object;
A feature image generation step for generating a feature image for the image corrected in the image correction step;
A center position correcting step for detecting a center position where the left-right correlation at each height is highest for the object region in the feature image generated in the feature image generating step, and aligning the center position vertically,
A collation region extraction step for determining a region that can be used for identification processing in the image obtained by the center position correction step;
An image processing method comprising:
前記画像入力部で入力された画像を表示すると共に操作者の指示を表示する表示部と、
操作者の指示に従って前記画像入力部で入力された画像内の処理対象物の対称位置と中央位置を指示する指示部と、
前記画像入力部で入力された画像を前記指示部で指示された対称位置と中央位置を用いて画像変形する画像変形部と、
前記画像変形部で画像変形された画像を出力する画像出力部と、
を備えた画像処理装置。 An image input unit for inputting an image of the processing object;
A display unit for displaying an image input by the image input unit and displaying an instruction of an operator;
An instruction unit for instructing a symmetric position and a center position of the processing object in the image input by the image input unit according to an operator's instruction;
An image deformation unit that deforms an image input by the image input unit using a symmetric position and a center position instructed by the instruction unit;
An image output unit for outputting an image transformed by the image transformation unit;
An image processing apparatus.
前記画像入力部で入力された画像を表示すると共に操作者の指示を表示する表示部と、
前記処理対象物の既成値を記録する条件記録部と、
前記画像入力部で入力された画像内の前記処理対象物の対称位置と中央位置及びサイズ指標を指示する指示部と、
前記画像入力部で入力された画像を前記指示部で指示された対称位置と中央位置を用いて画像変形し、さらに前記条件記録部に記録されている既成値と前記指示部で指示されたサイズ指標を用いて画像変形する画像変形部と、
前記画像変形部で画像変形された画像を出力する画像出力部と、
を備えた画像処理装置。 An image input unit for inputting an image of the processing object;
A display unit for displaying an image input by the image input unit and displaying an instruction of an operator;
A condition recording unit for recording an established value of the processing object;
An instruction unit for instructing a symmetrical position, a center position, and a size index of the processing object in the image input by the image input unit;
The image input by the image input unit is transformed using the symmetrical position and the center position specified by the instruction unit, and the ready-made value recorded in the condition recording unit and the size specified by the instruction unit An image transformation unit that transforms an image using an index;
An image output unit for outputting an image transformed by the image transformation unit;
An image processing apparatus.
前記画像入力部で入力された画像を表示すると共に操作者の指示を表示する表示部と、
前記処理対象物の既成値を記録する条件記録部と、
前記画像入力部で入力された画像内の前記処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を指示する指示部と、
前記画像入力部で入力された画像を前記指示部で指示された対称位置と中央位置を用いて画像変形し、これにより得られた画像に対し、前記条件記録部に記録されている既成値と前記指示部で指示されたサイズ指標を用いて画像変形し、さらに前記指示部で指示された非利用部分を対称部分の画像で補充する画像変形部と、
前記画像変形部で画像変形された画像を出力する画像出力部と、
を備えた画像処理装置。 An image input unit for inputting an image of the processing object;
A display unit for displaying an image input by the image input unit and displaying an instruction of an operator;
A condition recording unit for recording an established value of the processing object;
An instruction unit for instructing a symmetrical position and a central position, a size index, and an unused portion of the processing object in the image input by the image input unit;
The image input by the image input unit is subjected to image deformation using the symmetrical position and the center position specified by the instruction unit, and the pre-set value recorded in the condition recording unit is obtained for the image obtained thereby. An image deforming unit that deforms an image using the size index instructed by the instruction unit, and further supplements an unused portion instructed by the instruction unit with an image of a symmetric part;
An image output unit for outputting an image transformed by the image transformation unit;
An image processing apparatus.
前記画像入力ステップで入力された画像を表示すると共に操作者の指示を表示する表示ステップと、
操作者の指示に従って前記画像入力ステップで入力された画像内の処理対象物の対称位置と中央位置を指示する指示ステップと、
前記画像入力ステップで入力された画像を前記指示ステップで指示された対称位置と中央位置を用いて画像変形する画像変形ステップと、
前記画像変形ステップで画像変形された画像を出力する画像出力ステップと、
を備えた画像処理方法。 An image input step for inputting an image of the processing object;
A display step of displaying an image input in the image input step and displaying an instruction of an operator;
An instruction step for instructing the symmetrical position and the center position of the processing object in the image input in the image input step according to an instruction of the operator;
An image deformation step of deforming the image input in the image input step using the symmetrical position and the center position instructed in the instruction step;
An image output step for outputting the image transformed in the image transformation step;
An image processing method comprising:
前記画像入力ステップで入力された画像を表示すると共に操作者の指示を表示する表示ステップと、
前記処理対象物の既成値を記録する条件記録ステップと、
前記画像入力ステップで入力された画像内の前記処理対象物の対称位置と中央位置及びサイズ指標を指示する指示ステップと、
前記画像入力ステップで入力された画像を前記指示ステップで指示された対称位置と中央位置を用いて画像変形し、さらに前記条件記録ステップで記録された既成値と前記指示ステップで指示されたサイズ指標を用いて画像変形する画像変形ステップと、
前記画像変形ステップで画像変形された画像を出力する画像出力ステップと、
を備えた画像処理方法。 An image input step for inputting an image of the processing object;
A display step of displaying an image input in the image input step and displaying an instruction of an operator;
A condition recording step for recording an established value of the processing object;
An instruction step for instructing a symmetric position, a center position and a size index of the processing object in the image input in the image input step;
The image input in the image input step is deformed using the symmetrical position and the center position specified in the instruction step, and the ready-made value recorded in the condition recording step and the size index specified in the instruction step An image transformation step for transforming the image using
An image output step for outputting the image transformed in the image transformation step;
An image processing method comprising:
前記画像入力ステップで入力された画像を表示すると共に操作者の指示を表示する表示ステップと、
前記処理対象物の既成値を記録する条件記録ステップと、
前記画像入力ステップで入力された画像内の前記処理対象物の対称位置と中央位置、サイズ指標及び非利用部分を指示する指示ステップと、
前記画像入力ステップで入力された画像を前記指示ステップで指示された対称位置と中央位置を用いて画像変形し、これにより得られた画像に対し、前記条件記録ステップで記録された既成値と前記指示ステップで指示されたサイズ指標を用いて画像変形し、さらに前記指示ステップで指示された非利用部分を対称部分の画像で補充する画像変形ステップと、
前記画像変形ステップで画像変形された画像を出力する画像出力ステップと、
を備えた画像処理方法。 An image input step for inputting an image of the processing object;
A display step of displaying an image input in the image input step and displaying an instruction of an operator;
A condition recording step for recording an established value of the processing object;
An instruction step for instructing a symmetrical position and a center position of the processing object in the image input in the image input step, a size index, and an unused portion;
The image input in the image input step is subjected to image deformation using the symmetrical position and the center position specified in the instruction step, and for the image obtained thereby, the pre-formed value recorded in the condition recording step and the Image deformation using the size index indicated in the instruction step, and further, an image deformation step of replenishing the unused portion indicated in the instruction step with an image of a symmetric part;
An image output step for outputting the image transformed in the image transformation step;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010092315A JP2010267257A (en) | 2009-04-16 | 2010-04-13 | Apparatus, method and program for processing image |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009099963 | 2009-04-16 | ||
JP2010092315A JP2010267257A (en) | 2009-04-16 | 2010-04-13 | Apparatus, method and program for processing image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010267257A true JP2010267257A (en) | 2010-11-25 |
Family
ID=43364132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010092315A Withdrawn JP2010267257A (en) | 2009-04-16 | 2010-04-13 | Apparatus, method and program for processing image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010267257A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012256297A (en) * | 2011-06-10 | 2012-12-27 | Toshiba Corp | Image processing apparatus, method and program |
WO2013146206A1 (en) | 2012-03-28 | 2013-10-03 | 株式会社メガチップス | Object detection device and program |
WO2013161417A1 (en) | 2012-04-27 | 2013-10-31 | 株式会社メガチップス | Object detection device and program |
WO2013161407A1 (en) | 2012-04-26 | 2013-10-31 | 株式会社メガチップス | Object detection device and program |
WO2016136900A1 (en) * | 2015-02-27 | 2016-09-01 | 日本電気株式会社 | Comparison system, comparison device, comparison method, and program |
-
2010
- 2010-04-13 JP JP2010092315A patent/JP2010267257A/en not_active Withdrawn
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012256297A (en) * | 2011-06-10 | 2012-12-27 | Toshiba Corp | Image processing apparatus, method and program |
WO2013146206A1 (en) | 2012-03-28 | 2013-10-03 | 株式会社メガチップス | Object detection device and program |
EP2819094A4 (en) * | 2012-03-28 | 2015-12-09 | Megachips Corp | Object detection device and program |
US9514545B2 (en) | 2012-03-28 | 2016-12-06 | Megachips Corporation | Object detection apparatus and storage medium |
WO2013161407A1 (en) | 2012-04-26 | 2013-10-31 | 株式会社メガチップス | Object detection device and program |
US9330318B2 (en) | 2012-04-26 | 2016-05-03 | Megachips Corporation | Object detection apparatus and storage medium |
WO2013161417A1 (en) | 2012-04-27 | 2013-10-31 | 株式会社メガチップス | Object detection device and program |
US9245184B2 (en) | 2012-04-27 | 2016-01-26 | Megachips Corporation | Object detection apparatus and storage medium |
WO2016136900A1 (en) * | 2015-02-27 | 2016-09-01 | 日本電気株式会社 | Comparison system, comparison device, comparison method, and program |
CN107251092A (en) * | 2015-02-27 | 2017-10-13 | 日本电气株式会社 | Comparison system, comparison means, comparative approach and program |
US20180039830A1 (en) * | 2015-02-27 | 2018-02-08 | Nec Corporation | Comparison system, comparison apparatus, comparison method, and program |
US10540548B2 (en) * | 2015-02-27 | 2020-01-21 | Nec Corporation | Comparison system, comparison apparatus, comparison method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2745504B1 (en) | Image projector, image processing method, computer program and recording medium | |
US10334168B2 (en) | Threshold determination in a RANSAC algorithm | |
JP6764533B2 (en) | Calibration device, chart for calibration, chart pattern generator, and calibration method | |
US7313289B2 (en) | Image processing method and apparatus and computer-readable storage medium using improved distortion correction | |
JP3841321B2 (en) | Image registration method | |
WO2020206708A1 (en) | Obstacle recognition method and apparatus, computer device, and storage medium | |
EP0782100A2 (en) | Three-dimensional shape extraction apparatus and method | |
US20110235897A1 (en) | Device and process for three-dimensional localization and pose estimation using stereo image, and computer-readable storage medium storing the program thereof | |
US20100135595A1 (en) | Image processing apparatus and image processing method | |
TW201905573A (en) | Projector system and display image calibration method thereof | |
EP2444932A2 (en) | Device, method and program for correcting an image | |
JP2005308553A (en) | Three-dimensional image measuring device and method | |
JP5454737B2 (en) | Wrinkle detection device, wrinkle detection method and program | |
US20170132454A1 (en) | Face location detection | |
JP2010287174A (en) | Furniture simulation method, device, program, recording medium | |
CN105335748A (en) | Image feature extraction method and system | |
CN108737694B (en) | Camera system and image providing method | |
JP6897082B2 (en) | Computer program for face orientation estimation, face orientation estimation device and face orientation estimation method | |
JP2010267257A (en) | Apparatus, method and program for processing image | |
JP2011198330A (en) | Method and program for collation in three-dimensional registration | |
JP2007280088A (en) | Specific object detection device, specific object detection method, and specific object detection program | |
CN112560867B (en) | Text image correction method, device, equipment and medium | |
JP5201184B2 (en) | Image processing apparatus and program | |
JPS63311485A (en) | Automatic calibration device | |
JP7329951B2 (en) | Image processing device and its control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130702 |