JP4990960B2 - Object identification device, object identification method, and object identification program - Google Patents

Object identification device, object identification method, and object identification program Download PDF

Info

Publication number
JP4990960B2
JP4990960B2 JP2009292399A JP2009292399A JP4990960B2 JP 4990960 B2 JP4990960 B2 JP 4990960B2 JP 2009292399 A JP2009292399 A JP 2009292399A JP 2009292399 A JP2009292399 A JP 2009292399A JP 4990960 B2 JP4990960 B2 JP 4990960B2
Authority
JP
Japan
Prior art keywords
polar coordinate
unit
coordinate value
data
contour data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009292399A
Other languages
Japanese (ja)
Other versions
JP2011134065A (en
Inventor
尚生 阿部
史朗 小澤
章介 鳴戸
Original Assignee
エヌ・ティ・ティ・コムウェア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エヌ・ティ・ティ・コムウェア株式会社 filed Critical エヌ・ティ・ティ・コムウェア株式会社
Priority to JP2009292399A priority Critical patent/JP4990960B2/en
Publication of JP2011134065A publication Critical patent/JP2011134065A/en
Application granted granted Critical
Publication of JP4990960B2 publication Critical patent/JP4990960B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、物体識別装置、物体識別方法、および物体識別プログラムに関する。   The present invention relates to an object identification device, an object identification method, and an object identification program.

画像および映像から対象物を識別する処方として、特徴点や特徴量を抽出して認識を行うSIFT(Scale−invariant feature transform)やSURF(Speeded Up Robust Features)などのアルゴリズムが着目されている。これらの手法は、対象物の遮蔽、対象物の回転、対象物のスケール大小変化、対象物に対する照明灯の輝度変化などに対しても物体の認識率低下がおきにくいという特徴がある(例えば、非特許文献1参照)。   Algorithms such as SIFT (Scale-invariant feature transform) and SURF (Speeded Up Robust Features) that extract and recognize feature points and feature quantities have attracted attention as prescriptions for identifying objects from images and videos. These methods have the feature that the recognition rate of an object is not easily lowered even when the object is shielded, the object rotates, the object scale changes, the brightness of the illumination lamp changes with respect to the object (for example, Non-patent document 1).

David G.Lowe,”Object Recognition from Local Scale−Invariant Features”,Proceedings of the International Conference on Computer Vision,1999.9,pp.1150−1157David G. Low, "Object Recognition from Local Scale-Invariant Features", Proceedings of the International Conference on Computer Vision, 1999. 9, pp. 1150-1157

しかしながら、従来技術では、画像に輝度差が少なく平坦で多くの特徴点が抽出しにくい場合、物体の認識率が低下する課題があった。また、特徴点を抽出するための計算量が非常に多いため、多くの計算を行えない携帯端末装置等への実装が困難であるという課題があった。   However, in the conventional technique, there is a problem that the recognition rate of an object is reduced when it is difficult to extract many feature points because the image has a small luminance difference and is flat. Further, since the amount of calculation for extracting feature points is very large, there is a problem that it is difficult to mount on a mobile terminal device or the like that cannot perform many calculations.

本発明は、上記の問題点に鑑みてなされたものであって、特徴点が抽出しにくい画像においても高い認識精度を得ることが可能な物体識別装置、物体識別方法、および物体識別プログラムを提供することを課題としている。   The present invention has been made in view of the above problems, and provides an object identification device, an object identification method, and an object identification program capable of obtaining high recognition accuracy even in an image in which feature points are difficult to extract. The challenge is to do.

上記目的を達成するため、本発明は、物体識別装置において、入力画像から背景差分法で前記入力画像中に含まれる図形を抽出する背景差分処理部と、前記背景差分処理部が抽出した図形の画像データを二値化する二値化部と、前記二値化部が二値化した図形の画像データから輪郭データを抽出する輪郭抽出部と、前記輪郭抽出部が抽出した輪郭データの重心位置を算出する重心算出部と、前記重心算出部が算出した重心位置から前記輪郭抽出部が抽出した前記輪郭データの最外周部までの距離を所定の角度毎に算出して、前記輪郭データを極座標表現に変換して極座標値を生成する極座標値生成部と、識別対象となる図形の輪郭データの極座標値を記憶する極座標値記憶部とを備え、前記極座標値記憶部に記憶されている極座標値と、前記極座標値生成部が生成した極座標表現値とを所定の角度ずつずらしながら比較し、前記入力画像中に含まれる図形の識別を行うことを特徴としている。   To achieve the above object, according to the present invention, in the object identification device, a background difference processing unit that extracts a figure included in the input image from the input image by a background difference method, and a figure extracted by the background difference processing unit. A binarization unit that binarizes image data, a contour extraction unit that extracts contour data from graphic image data binarized by the binarization unit, and a centroid position of the contour data extracted by the contour extraction unit Calculating the distance from the center of gravity calculated by the center of gravity calculating unit to the outermost periphery of the contour data extracted by the contour extracting unit for each predetermined angle, and calculating the contour data as polar coordinates Polar coordinate values stored in the polar coordinate value storage unit, comprising a polar coordinate value generation unit that converts a representation into polar coordinate values and a polar coordinate value storage unit that stores polar coordinate values of contour data of a figure to be identified And said A polar representation value coordinate value generating unit has generated compared while shifting by a predetermined angle, it is characterized by performing the identification of the figure included in the input image.

また、本発明は、物体識別装置において、前記輪郭抽出部が抽出した前記輪郭データの内側に存在する所定の面積以上の黒画素領域を抽出し、抽出した領域の内輪郭データを抽出する内輪郭抽出部とをさらに備え、前記極座標値生成部は、前記重心算出部が算出した重心位置から前記内輪郭抽出部が抽出した前記内輪郭データの最外周部までの距離を所定の角度毎に算出して、前記内輪郭データを極座標表現に変換して極座標値を生成し、前記極座標値記憶部に記憶されている内輪郭データの極座標値と、前記極座標値生成部が生成した内輪郭データの極座標表現値とを所定の角度ずつずらしながら比較し、前記入力画像中に含まれる図形の識別を行うことを特徴としている。   In the object identification device, the present invention also extracts an inner contour for extracting a black pixel region having a predetermined area or more existing inside the contour data extracted by the contour extraction unit and extracting inner contour data of the extracted region. The polar coordinate value generation unit calculates a distance from the centroid position calculated by the centroid calculation unit to the outermost peripheral portion of the inner contour data extracted by the inner contour extraction unit for each predetermined angle. Then, the inner contour data is converted into a polar coordinate representation to generate polar coordinate values, and the polar coordinate values of the inner contour data stored in the polar coordinate value storage unit and the inner contour data generated by the polar coordinate value generation unit The polar coordinate expression value is compared with each other while shifting by a predetermined angle, and the figure included in the input image is identified.

また、本発明は、物体識別装置において、前記入力画像から抽出した図形の画像データを複数の色空間成分に分離する色空間分離部と、をさらに備え、前記二値化部は、前記色空間分離部が分離した各色空間成分を二値化し、前記輪郭抽出部は、前記二値化部が二値化した各色空間成分の画像データから輪郭データを抽出し、前記極座標値記憶部に記憶されている各色空間成分の各輪郭データの極座標値と、前記極座標値生成部が生成した各色空間成分の各輪郭データの極座標表現値とを所定の角度ずつずらしながら比較し、前記入力画像中に含まれる図形の識別を行うことを特徴としている。   In the object identification device, the present invention further includes a color space separation unit that separates image data of a graphic extracted from the input image into a plurality of color space components, and the binarization unit includes the color space. Each color space component separated by the separation unit is binarized, and the contour extraction unit extracts contour data from the image data of each color space component binarized by the binarization unit, and is stored in the polar coordinate value storage unit The polar coordinate value of each contour data of each color space component is compared with the polar coordinate expression value of each contour data of each color space component generated by the polar coordinate value generation unit while shifting by a predetermined angle and included in the input image It is characterized in that the figure to be identified is identified.

また、本発明は、物体識別装置において、前記極座標値生成部は、生成した前記極座標値の中から距離の最大値を抽出し、抽出した距離の最大値に基づいて正規化を行うことを特徴としている。   In the object identification device according to the present invention, the polar coordinate value generation unit extracts a maximum distance value from the generated polar coordinate values, and performs normalization based on the extracted maximum distance value. It is said.

また、本発明は、物体識別装置の物体識別方法において、背景差分処理部が、入力画像から背景差分法で前記入力画像中に含まれる図形を抽出する背景差分処理工程と、二値化部が、前記背景差分処理工程が抽出した図形の画像データを二値化する二値化工程と、輪郭抽出部が、前記二値化工程が二値化した図形の画像データから輪郭データを抽出する輪郭抽出工程と、重心算出部が、前記輪郭抽出工程が抽出した輪郭データの重心位置を算出する重心算出工程と、極座標値生成部が、前記重心算出工程が算出した重心位置から前記輪郭抽出工程が抽出した前記輪郭データの最外周部までの距離を所定の角度毎に算出して、前記輪郭データを極座標表現に変換して極座標値を生成する極座標値生成工程と、識別対象となる図形の輪郭データの極座標値を記憶する極座標値記憶部とを備え、前記極座標値記憶部に記憶されている極座標値と、前記極座標値生成部が生成した極座標表現値とを所定の角度ずつずらしながら比較し、前記入力画像中に含まれる図形の識別を行うことを特徴としている。   According to the present invention, in the object identification method of the object identification device, the background difference processing unit extracts a figure included in the input image from the input image by the background difference method, and the binarization unit includes: A binarization step for binarizing the graphic image data extracted by the background difference processing step, and a contour extracting unit for extracting contour data from the graphic image data binarized by the binarization step An extraction step, a centroid calculation step in which the centroid calculation unit calculates a centroid position of the contour data extracted in the contour extraction step, and a polar coordinate value generation unit calculates the contour extraction step from the centroid position calculated in the centroid calculation step. A polar coordinate value generating step of calculating a distance to the outermost peripheral portion of the extracted contour data for each predetermined angle, converting the contour data into a polar coordinate expression to generate a polar coordinate value, and a contour of a figure to be identified Data A polar coordinate value storage unit that stores coordinate values, and compares the polar coordinate value stored in the polar coordinate value storage unit with the polar coordinate expression value generated by the polar coordinate value generation unit while shifting by a predetermined angle, It is characterized by identifying a figure included in the input image.

また、本発明は、物体識別装置の物体識別プログラムにおいて、コンピューターに、入力画像から背景差分法で前記入力画像中に含まれる図形を抽出する背景差分処理工程と、前記背景差分処理工程が抽出した図形の画像データを二値化する二値化工程と、前記二値化工程が二値化した図形の画像データから輪郭データを抽出する輪郭抽出工程と、前記輪郭抽出工程が抽出した輪郭データの重心位置を算出する重心算出工程と、前記重心算出工程が算出した重心位置から前記輪郭抽出工程が抽出した前記輪郭データの最外周部までの距離を所定の角度毎に算出して、前記輪郭データを極座標表現に変換して極座標値を生成する極座標値生成工程と、識別対象となる図形の輪郭データの極座標値を記憶する極座標値記憶部とを備え、前記極座標値記憶部に記憶されている極座標値と、前記極座標値生成部が生成した極座標表現値とを所定の角度ずつずらしながら比較し、前記入力画像中に含まれる図形の識別を実行させることを特徴としている。   Further, according to the present invention, in the object identification program of the object identification device, a background difference processing step for extracting a figure included in the input image from the input image by a background difference method and a background difference processing step are extracted from the input image. A binarization step for binarizing graphic image data, a contour extraction step for extracting contour data from the graphic image data binarized by the binarization step, and the contour data extracted by the contour extraction step A center-of-gravity calculation step for calculating a center-of-gravity position; and a distance from the center-of-gravity position calculated by the center-of-gravity calculation step to the outermost peripheral portion of the contour data extracted by the contour extraction step for each predetermined angle; A polar coordinate value generation step for generating a polar coordinate value by converting into a polar coordinate representation, and a polar coordinate value storage unit for storing a polar coordinate value of contour data of a figure to be identified, the polar coordinate The polar coordinate value stored in the storage unit and the polar coordinate expression value generated by the polar coordinate value generation unit are compared while being shifted by a predetermined angle, and the figure included in the input image is identified. Yes.

本発明によれば、対象物から多くの特徴点が抽出できない場合でも適切な輪郭を、背景差分処理を用いて入力画像から抽出し、抽出した輪郭データを極座標で表現し、極座標表現した物体の認識を行うことで高い認識精度を得ることが可能になる。   According to the present invention, even when a large number of feature points cannot be extracted from an object, an appropriate contour is extracted from an input image using background difference processing, the extracted contour data is expressed in polar coordinates, and an object expressed in polar coordinates is expressed. High recognition accuracy can be obtained by performing recognition.

第一実施形態に係る物体識別装置の構成の一例を示すブロック図である。It is a block diagram showing an example of composition of an object discernment device concerning a first embodiment. 背景差分処理を説明する図である。It is a figure explaining a background difference process. 同実施形態に係る入力画像データの処理を説明する図である。It is a figure explaining the process of the input image data which concerns on the embodiment. 同実施形態に係る極座標値の生成方法の一例を説明する図である。It is a figure explaining an example of the generation method of the polar coordinate value concerning the embodiment. 同実施形態に係る極座標値記憶部が記憶する極座標値の構成の一例である。It is an example of the structure of the polar coordinate value which the polar coordinate value memory | storage part which concerns on the embodiment memorize | stores. 同実施形態に係る対象物の登録手順のフローチャートである。It is a flowchart of the registration procedure of the target object concerning the embodiment. 同実施形態に係る極座標値生成手順のフローチャートである。It is a flowchart of a polar coordinate value generation procedure according to the embodiment. 同実施形態に係る対象物の識別手順のフローチャートである。It is a flowchart of the identification procedure of the target object concerning the embodiment. 同実施形態に係る識別方法を説明する図である。It is a figure explaining the identification method concerning the embodiment. 第二実施形態に係る輪郭抽出装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the outline extraction apparatus which concerns on 2nd embodiment. 第二実施形態に係るRGB画像データの色空間チャネル分解を説明する図である。It is a figure explaining the color space channel decomposition | disassembly of the RGB image data which concerns on 2nd embodiment. 第二実施形態に係る極座標値記憶部が記憶する極座標値の構成の一例である。It is an example of the structure of the polar coordinate value which the polar coordinate value memory | storage part which concerns on 2nd embodiment memorize | stores. 第二実施形態に係る対象物の登録手順のフローチャートである。It is a flowchart of the registration procedure of the target object which concerns on 2nd embodiment. 第二実施形態に係る対象物の識別手順のフローチャートである。It is a flowchart of the identification procedure of the target object which concerns on 2nd embodiment. 本実施形態による物体識別装置の利用例を示す図である。It is a figure which shows the usage example of the object identification apparatus by this embodiment.

以下、図1〜図15を用いて本発明の実施形態について詳細に説明する。なお、本発明は係る実施形態に限定されず、その技術思想の範囲内で種々の変更が可能である。   Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. In addition, this invention is not limited to the embodiment which concerns, A various change is possible within the range of the technical thought.

[第一実施形態]
図1の物体識別装置の構成の一例を示すブロック図を用いて、本実施形態における物体識別装置の構成を説明する。物体識別装置1は、外部設定値取り込み部11と、画像データ取り込み部12と、背景画像記憶部13と、背景差分処理部14と、平滑化部15と、二値化部16と、輪郭抽出部17と、重心算出部18と、内輪郭抽出部19と、極座標値生成部20と、識別部21と、極座標値記憶部22と、識別結果出力部23とを備える。また、物体識別装置1には、カメラ2と、画像表示装置3が接続されている。
[First embodiment]
The configuration of the object identification device according to the present embodiment will be described with reference to a block diagram illustrating an example of the configuration of the object identification device in FIG. The object identification device 1 includes an external setting value capturing unit 11, an image data capturing unit 12, a background image storage unit 13, a background difference processing unit 14, a smoothing unit 15, a binarizing unit 16, and an outline extraction. Unit 17, center-of-gravity calculation unit 18, inner contour extraction unit 19, polar coordinate value generation unit 20, identification unit 21, polar coordinate value storage unit 22, and identification result output unit 23. In addition, a camera 2 and an image display device 3 are connected to the object identification device 1.

カメラ2は、例えば受光レンズとCCDカメラ等で構成され、対象物を含まない背景画像または入力画像を撮影し、撮影された入力画像を物体識別装置1に送信する。画像表示装置3は、物体識別装置1から輪郭抽出結果の表示用の画像データを受信し、受信した画像データを表示する。   The camera 2 is composed of, for example, a light receiving lens and a CCD camera, captures a background image or input image that does not include an object, and transmits the captured input image to the object identification device 1. The image display device 3 receives the image data for displaying the contour extraction result from the object identification device 1 and displays the received image data.

外部設定値取り込み部11は、外部から物体識別処理に用いる各種の設定である外部設定値を取り込む。外部設定値は、平滑化部15が行う平滑化の各種パラメータ(処理手法、処理回数、処理を行う範囲、処理を行う形状、重み付け係数など)、等を備えている。また、外部設定値取り込み部11は、取り込んだ外部設定値を、背景差分処理部14と平滑化部15と二値化部16と極座標値生成部20とに出力する。   The external setting value capturing unit 11 captures external setting values that are various settings used for object identification processing from the outside. The external set value includes various parameters of smoothing performed by the smoothing unit 15 (processing method, number of processes, range to be processed, shape to be processed, weighting coefficient, etc.) and the like. In addition, the external setting value capturing unit 11 outputs the captured external setting value to the background difference processing unit 14, the smoothing unit 15, the binarization unit 16, and the polar coordinate value generation unit 20.

画像データ取り込み部12は、カメラ2により撮影された背景画像または入力画像を取り込み、取り込んだ背景画像の画像データ(以下、背景画像データと呼ぶ)を背景画像記憶部13に書き込んで記憶させる。また、画像データ取り込み部12は、取り込んだ入力画像の画像データ(以下、入力画像データと呼ぶ)を背景差分処理部14に出力する。   The image data capturing unit 12 captures a background image or an input image captured by the camera 2, and writes and stores image data of the captured background image (hereinafter referred to as background image data) in the background image storage unit 13. Further, the image data capturing unit 12 outputs image data of the captured input image (hereinafter referred to as input image data) to the background difference processing unit 14.

背景画像記憶部13は、背景画像データを記憶する。なお、背景画像データは、予め背景画像記憶部13に記憶させておいても良い。   The background image storage unit 13 stores background image data. The background image data may be stored in the background image storage unit 13 in advance.

背景差分処理部14は、外部設定値取り込み部11が出力する外部設定値と、画像データ取り込み部12が出力する入力画像データを取り込み、また、背景画像記憶部13に記憶されている背景画像データを読み出す。また、背景差分処理部14は、取り込んだ外部設定値から、背景差分処理に関する各種パラメータを読み出す。さらに、背景差分処理部14は、読み出した背景差分処理に関する各種パラメータを用いて、入力画像データと背景画像データの差分画像データを算出し、算出した差分画像データを平滑化部15に出力する。図2は、背景差分処理を説明する図である。図2のように、予め撮影した対象物を含まない背景画像データ(図2(a))と、対象物を含む入力画像データ(図2(b))の差分を演算することで差分画像データ(図2(c))を抽出する。   The background difference processing unit 14 captures the external setting value output from the external setting value capturing unit 11 and the input image data output from the image data capturing unit 12, and the background image data stored in the background image storage unit 13. Is read. Further, the background difference processing unit 14 reads out various parameters related to the background difference processing from the fetched external setting values. Further, the background difference processing unit 14 calculates difference image data between the input image data and the background image data using various parameters related to the read background difference processing, and outputs the calculated difference image data to the smoothing unit 15. FIG. 2 is a diagram for explaining the background difference process. As shown in FIG. 2, the difference image data is obtained by calculating the difference between the background image data (FIG. 2 (a)) that does not include the object photographed in advance and the input image data (FIG. 2 (b)) that includes the object. (FIG. 2 (c)) is extracted.

平滑化部15は、外部設定値取り込み部11が出力する外部設定値と、背景差分出部14が出力する差分画像データとを取り込む。また、平滑化部15は、取り込んだ外部設定値から、平滑化手法の種類や平滑化の各種パラメータを読み出す。さらに、平滑化部15は、取り込んだ差分画像データを、読み出した平滑化手法の種類に基づき、例えばガウシアン・フィルタを用いて、取り込んだ外部設定値の回数分の平滑化を行う。さらに、平滑化部15は、所定の面積以下の領域を一般的な手法を用いて穴埋め処理を行う。例えば、平滑化部15は、所定の面積以下の領域を周辺領域の色データに変換することで、穴埋め処理を行う。さらに平滑化した差分画像データを二値化部16に出力する。   The smoothing unit 15 captures the external setting value output from the external setting value capturing unit 11 and the difference image data output from the background difference output unit 14. Further, the smoothing unit 15 reads the type of smoothing method and various parameters for smoothing from the acquired external setting values. Further, the smoothing unit 15 smoothes the acquired difference image data by the number of times of the acquired external setting value using, for example, a Gaussian filter based on the type of the read smoothing method. Further, the smoothing unit 15 performs a hole filling process on a region having a predetermined area or less using a general method. For example, the smoothing unit 15 performs hole filling processing by converting a region having a predetermined area or less into color data of a peripheral region. Further, the smoothed difference image data is output to the binarization unit 16.

二値化部16は、外部設定値取り込み部11が出力する外部設定値と、平滑化部15が出力する平滑化された差分画像データを取り込む。また、二値化部16は、取り込んだ外部設定値から、閾値設定手法、例えば1979年に大津展之によって提案された閾値設定手法(以下、大津の閾値設定手法という)を読み出す。さらに、二値化部16は、取り込んだ平滑化された差分画像データを、外部設定値の指示する閾値設定手法を用いて二値化する。さらに、二値化部16は、二値化した差分画像データを輪郭抽出部17に出力する。例えば、二値化部16は、図3(a)のような差分画像データ100を閾値に基づき二値化し、図3(b)のような二値化した差分画像データ110を生成する。図3は、入力画像データの処理を説明する図である。また、図3(a)のように、入力画像データ100は、例えば、背景101と対象物102とで構成され、さらに対象物102は、例えば、対象物102を貫通している穴103と104を有している。   The binarization unit 16 captures the external setting value output from the external setting value capturing unit 11 and the smoothed difference image data output from the smoothing unit 15. Also, the binarization unit 16 reads a threshold setting method, for example, a threshold setting method proposed by Noriyuki Otsu in 1979 (hereinafter referred to as Otsu's threshold setting method) from the acquired external setting values. Further, the binarization unit 16 binarizes the acquired smoothed difference image data using a threshold setting method instructed by an external setting value. Further, the binarization unit 16 outputs the binarized difference image data to the contour extraction unit 17. For example, the binarization unit 16 binarizes the difference image data 100 as illustrated in FIG. 3A based on the threshold value, and generates the binarized difference image data 110 as illustrated in FIG. FIG. 3 is a diagram for explaining processing of input image data. As shown in FIG. 3A, the input image data 100 is composed of, for example, a background 101 and a target object 102, and the target object 102 is, for example, holes 103 and 104 penetrating the target object 102. have.

輪郭抽出部17は、二値化部16が出力する二値化された差分画像データを取り込み、取り込んだ二値化された差分画像データから、一番面積の大きい領域の最外周の輪郭(以下、外輪郭データと呼ぶ)を抽出する。また、輪郭抽出部17は、抽出した外輪郭データを重心算出部18と内輪郭抽出部19と極座標値生成部20に出力する。例えば、輪郭抽出部17は、図3(b)のような二値化した差分画像データ110から、図3(c)のような外輪郭データ121を抽出する。すなわち、本実施形態では、従来技術のように対象物の特徴点を抽出するのではなく、背景差分処理により入力画像データから対象物を抽出し、抽出した対象物を二値化し、さらに二値化した画像データから輪郭を抽出する。   The contour extraction unit 17 takes in the binarized difference image data output from the binarization unit 16, and from the binarized difference image data that has been taken in, the contour of the outermost periphery of the region with the largest area (hereinafter referred to as “outer”) , Referred to as outer contour data). The contour extracting unit 17 outputs the extracted outer contour data to the centroid calculating unit 18, the inner contour extracting unit 19, and the polar coordinate value generating unit 20. For example, the contour extracting unit 17 extracts the outer contour data 121 as shown in FIG. 3C from the binarized difference image data 110 as shown in FIG. That is, in the present embodiment, the feature points of the target object are not extracted as in the prior art, but the target object is extracted from the input image data by background difference processing, and the extracted target object is binarized and further binarized. The contour is extracted from the converted image data.

重心算出部18は、輪郭抽出部17が出力する外輪郭データを取り込み、取り込んだ外輪郭データを用いて、輪郭の重心位置を算出し、算出した重心位置データを極座標値生成部20に出力する。   The center-of-gravity calculation unit 18 takes in the outer contour data output from the contour extraction unit 17, calculates the center-of-gravity position of the contour using the acquired outer contour data, and outputs the calculated center-of-gravity position data to the polar coordinate value generation unit 20. .

内輪郭抽出部19は、二値化部16が出力する二値化された差分画像データと輪郭抽出部17が出力する外輪郭データを取り込み、取り込んだ外輪郭内に所定の面積以上の黒画素部分を抽出し、抽出した黒画素部分の輪郭データ(以下、内輪郭データと呼ぶ)を抽出する。例えば、図3(b)と図3(c)のように、内輪郭抽出部19は、輪郭抽出部17が抽出した外輪郭121内にある所定の面積以上の黒画素部分111と112を抽出し、抽出した黒画素部分の内輪郭データ131と132を抽出する。さらに、内輪郭抽出部19は、抽出した内輪郭データを極座標値生成部20に出力する。   The inner contour extracting unit 19 takes in the binarized difference image data output from the binarizing unit 16 and the outer contour data output from the contour extracting unit 17, and black pixels having a predetermined area or more in the taken out outer contour. A portion is extracted, and contour data (hereinafter referred to as inner contour data) of the extracted black pixel portion is extracted. For example, as shown in FIGS. 3B and 3C, the inner contour extracting unit 19 extracts black pixel portions 111 and 112 having a predetermined area or more in the outer contour 121 extracted by the contour extracting unit 17. Then, the inner contour data 131 and 132 of the extracted black pixel portion are extracted. Further, the inner contour extraction unit 19 outputs the extracted inner contour data to the polar coordinate value generation unit 20.

極座標値生成部20は、外部設定値取り込み部11が出力する外部設定値と、輪郭抽出部17が出力する外輪郭データと、重心算出部18が出力する重心位置データと、内輪郭抽出部19が出力する内輪郭データを取り込む。また、極座標値生成部20は、取り込んだ外部設定値から極座標値を生成する角度間隔を抽出する。さらに、極座標値生成部20は、取り込んだ重心位置データと輪郭データを、外部設定値に基づく角度毎に極座標表現に変換して極座標値を生成し、生成した外輪郭データの極座標値を識別部21に出力する。さらに、極座標値生成部20は、取り込んだ重心位置データと内輪郭データを、外部設定値に基づく角度毎に極座標表現に変換して極座標値を生成し、生成した内輪郭データの極座標値を識別部21に出力する。   The polar coordinate value generation unit 20 includes an external setting value output from the external setting value capturing unit 11, outer contour data output from the contour extraction unit 17, centroid position data output from the centroid calculation unit 18, and an inner contour extraction unit 19. Captures the inner contour data output by. In addition, the polar coordinate value generation unit 20 extracts an angular interval for generating a polar coordinate value from the acquired external setting value. Further, the polar coordinate value generation unit 20 generates the polar coordinate value by converting the captured center-of-gravity position data and contour data into polar coordinate representation for each angle based on the external setting value, and identifies the polar coordinate value of the generated outer contour data as the identification unit To 21. Furthermore, the polar coordinate value generation unit 20 converts the captured gravity center position data and inner contour data into polar coordinate representations for each angle based on the external setting value to generate polar coordinate values, and identifies the polar coordinate values of the generated inner contour data To the unit 21.

極座標値の生成方法を、図4の極座標値の生成方法の一例を説明する図を用いて説明する。図4(a)のように、入力画像データから外輪郭201と内輪郭202、および重心位置Oが抽出されている場合を説明する。極座標値生成部20は、水平方向軸xとのなす角θに対応する輪郭201上の座標P1(x1,y1)と、θ2=θ+Δ度(Δ度は所定の角度間隔、例えば5度間隔)に対応する輪郭201上の座標P2(x2,y2)を抽出する。そして、極座標値生成部20は、抽出した特徴点P1(x1,y1)と重心位置Oとの距離L1と、特徴点P2(x2,y2)と重心位置Oとの距離L2を算出する。さらに、極座標値生成部20は、距離L1と距離L2との平均を算出して、算出した距離の平均値を角度θ1〜θ2における距離Lとする。この処理は、図4(b)のような輪郭201上の座標を所定の角度毎に、図4(c)のように距離と角度の関係である極座標表現に置き換える。   A method for generating polar coordinate values will be described with reference to an example of a method for generating polar coordinate values in FIG. The case where the outer contour 201, the inner contour 202, and the gravity center position O are extracted from the input image data as shown in FIG. 4A will be described. The polar coordinate value generation unit 20 has coordinates P1 (x1, y1) on the contour 201 corresponding to the angle θ formed with the horizontal axis x and θ2 = θ + Δ degrees (Δ degrees is a predetermined angular interval, for example, an interval of 5 degrees). The coordinates P2 (x2, y2) on the contour 201 corresponding to are extracted. Then, the polar coordinate value generation unit 20 calculates a distance L1 between the extracted feature point P1 (x1, y1) and the centroid position O and a distance L2 between the feature point P2 (x2, y2) and the centroid position O. Furthermore, the polar coordinate value generation unit 20 calculates the average of the distance L1 and the distance L2, and sets the calculated average value of the distances as the distance L at the angles θ1 to θ2. In this process, the coordinates on the contour 201 as shown in FIG. 4B are replaced with polar coordinate expressions having a relationship between distance and angle as shown in FIG.

図1に戻って、識別部21は、極座標値生成部20が出力する外輪郭データの極座標値と、内輪郭データの極座標値を受け取り、受け取った外輪郭データの極座標値と内輪郭データの極座標値とが、極座標値記憶部22に書き込まれて記憶されているか判別する。書き込まれていないと判定した場合、識別部21は、入力画像データに含まれる対象物を未登録対象物と識別し、極座標値記憶部22に外輪郭データと内輪郭データとの極座標値を関連づけて書き込んで記憶させる。また、書き込まれていると判定した場合、識別部21は、入力画像データに含まれる対象物を登録済みである対象物と識別する。さらに、識別部21は、識別結果を識別結果出力部23に出力する。   Returning to FIG. 1, the identification unit 21 receives the polar coordinate value of the outer contour data and the polar coordinate value of the inner contour data output from the polar coordinate value generation unit 20, and receives the polar coordinate value of the received outer contour data and the polar coordinate of the inner contour data. It is determined whether or not the value is written and stored in the polar coordinate value storage unit 22. If it is determined that the data has not been written, the identification unit 21 identifies the object included in the input image data as an unregistered object, and associates the polar coordinate values of the outer contour data and the inner contour data with the polar coordinate value storage unit 22. To write and memorize. If it is determined that the data has been written, the identification unit 21 identifies the target object included in the input image data as a registered target object. Further, the identification unit 21 outputs the identification result to the identification result output unit 23.

極座標値記憶部22は、外輪郭データの極座標値と、内輪郭データの極座標値を記憶する。図5は、極座標値記憶部22が記憶する極座標値の構成の一例である。図5のように、極座標値記憶部22は、外輪郭データと内輪郭のデータを有し、外輪郭データと内輪郭のデータは所定の角度ごとに重心位置から輪郭の座標までの距離を関連づけて記憶する。また、これらのデータの組み合わせを対象物ごとに関連づけて記憶する。   The polar coordinate value storage unit 22 stores the polar coordinate value of the outer contour data and the polar coordinate value of the inner contour data. FIG. 5 is an example of a configuration of polar coordinate values stored in the polar coordinate value storage unit 22. As shown in FIG. 5, the polar coordinate value storage unit 22 has outer contour data and inner contour data, and the outer contour data and the inner contour data associate the distance from the center of gravity position to the contour coordinates for each predetermined angle. And remember. Further, a combination of these data is stored in association with each object.

識別結果出力部23は、識別部21が出力する識別結果を取り込み、取り込んだ識別結果に基づき、例えば、「入力画像データに含まれる対象物がすでに登録済みのデータと一致する」、または、「入力画像データに含まれる対象物が登録済みデータと一致しない」等の識別結果を画像表示装置3に出力する。
また、画像表示装置3は、識別結果出力部23が出力する識別結果を表示部に表示する。
The identification result output unit 23 captures the identification result output from the identification unit 21 and, based on the captured identification result, for example, “the object included in the input image data matches the already registered data” or “ An identification result such as “the object included in the input image data does not match the registered data” is output to the image display device 3.
Further, the image display device 3 displays the identification result output from the identification result output unit 23 on the display unit.

次に、対象物の登録手順を図6のフローチャートを用いて説明する。まず、外部設定値読み込み部11は、物体識別処理に用いる各種の設定である外部設定値を取り込む(ステップS1)。また、外部設定値読み込み部11は、取り込んだ外部設定値を背景差分処理部14と平滑化部15と二値化部16と極座標値生成部20とに出力する。   Next, an object registration procedure will be described with reference to the flowchart of FIG. First, the external setting value reading unit 11 takes in external setting values that are various settings used in the object identification process (step S1). The external set value reading unit 11 outputs the acquired external set value to the background difference processing unit 14, the smoothing unit 15, the binarization unit 16, and the polar coordinate value generation unit 20.

次に、画像データ取り込み部12は、カメラ2が撮像した対象物を含まない背景画像データを取り込む(ステップS2)。また、画像データ取り込み部12は、取り込んだ背景画像データを背景画像記憶部13に書き込んで記憶させ、さらに取り込んだ背景画像データを背景差分処理部14に出力する。
次に、画像データ取り込み部12は、カメラ2が撮像した入力画像データを取り込む(ステップS3)。また、画像データ取り込み部12は、取り込んだ入力画像データを背景差分処理部14に出力する。
Next, the image data capturing unit 12 captures background image data that does not include an object captured by the camera 2 (step S2). The image data capturing unit 12 writes and stores the captured background image data in the background image storage unit 13, and outputs the captured background image data to the background difference processing unit 14.
Next, the image data capturing unit 12 captures input image data captured by the camera 2 (step S3). Further, the image data capturing unit 12 outputs the captured input image data to the background difference processing unit 14.

次に、背景差分処理部14は、背景画像記憶部13に記憶されている背景画像データを読み出し、外部設定値取り込み部11が出力する外部設定値と画像データ取り込み部12が出力する入力画像データとを取り込む。次に、背景差分処理部14は、取り込んだ外部設定値から、背景差分処理に関する各種パラメータを読み出す。次に、背景差分処理部14は、読み出した背景差分処理に関する各種パラメータを用いて、背景画像データと入力画像データの差分を算出し、算出した差分画像データを平滑化部15に出力する(ステップS4)。
次に、平滑化部15は、外部設定値取り込み部11が出力する外部設定値と、背景差分処理部14が出力する差分画像データを取り込む。次に、平滑化部15は、取り込んだ外部設定値に基づき差分画像データを平滑化し、平滑化した差分画像データを二値化部16に出力する(ステップS5)。
次に、二値化部16は、外部設定値取り込み部11が出力する外部設定値と、背景差分処理部14が出力する平滑化された差分画像データを取り込む。また、二値化部16は、取り込んだ平滑化された差分画像データを、外部設定値の閾値設定手法(例えば、大津の閾値設定手法)を用いて二値化し、二値化した差分画像データを輪郭抽出部17に出力する(ステップS6)。例えば、二値化された差分画像データは、図3(b)のように輪郭の外側は黒画素であり、対象物である輪郭の内側は白画素である。また、輪郭内に内輪郭を有する領域111と112は黒画素である。
Next, the background difference processing unit 14 reads the background image data stored in the background image storage unit 13, the external setting value output from the external setting value capturing unit 11, and the input image data output from the image data capturing unit 12. And capture. Next, the background difference processing unit 14 reads out various parameters related to the background difference processing from the fetched external setting values. Next, the background difference processing unit 14 calculates the difference between the background image data and the input image data using the various parameters relating to the read background difference processing, and outputs the calculated difference image data to the smoothing unit 15 (step). S4).
Next, the smoothing unit 15 captures the external setting value output from the external setting value capturing unit 11 and the difference image data output from the background difference processing unit 14. Next, the smoothing unit 15 smoothes the difference image data based on the acquired external setting value, and outputs the smoothed difference image data to the binarization unit 16 (step S5).
Next, the binarization unit 16 captures the external setting value output from the external setting value capturing unit 11 and the smoothed difference image data output from the background difference processing unit 14. Also, the binarization unit 16 binarizes the captured smoothed difference image data using an external setting value threshold setting method (for example, Otsu's threshold setting method) and binarizes the difference image data. Is output to the contour extraction unit 17 (step S6). For example, in the binarized difference image data, as shown in FIG. 3B, the outside of the contour is a black pixel, and the inside of the contour that is the object is a white pixel. In addition, regions 111 and 112 having an inner contour in the contour are black pixels.

次に、輪郭抽出部17は、二値化部16が出力する二値化された差分画像データを取り込み、取り込んだ二値化された差分画像データから外輪郭データを抽出し、抽出した外輪郭データを重心算出部18と内輪郭抽出部19とに出力する(ステップS7)。
次に、重心算出部18は、輪郭抽出部17が出力する外輪郭データを取り込み、取り込んだ外輪郭データを用いて外輪郭の重心位置を算出し、算出した重心位置データを極座標値生成部20に出力する(ステップS8)。
次に、極座標値生成部20は、外部設定値取り込み部11が出力する外部設定値と、輪郭抽出部17が出力する外輪郭データと、重心算出部18が出力する重心位置データを取り込む。次に、極座標値生成部20は、取り込んだ重心位置データと外輪郭データを、外部設定値に応じた角度ごとの重心位置から外輪郭までの距離の平均値を算出して、角度と距離を用いた極座標表現に変換して極座標値を生成し、生成した極座標値を識別部21に出力する(ステップS9)。
Next, the contour extraction unit 17 takes in the binarized difference image data output from the binarization unit 16, extracts the outer contour data from the binarized difference image data, and extracts the extracted outer contour The data is output to the center of gravity calculation unit 18 and the inner contour extraction unit 19 (step S7).
Next, the center-of-gravity calculation unit 18 takes in the outer contour data output from the contour extraction unit 17, calculates the center-of-gravity position of the outer contour using the acquired outer contour data, and uses the calculated center-of-gravity position data as the polar coordinate value generation unit 20 (Step S8).
Next, the polar coordinate value generation unit 20 captures the external setting value output from the external setting value capturing unit 11, the outer contour data output from the contour extraction unit 17, and the centroid position data output from the centroid calculation unit 18. Next, the polar coordinate value generation unit 20 calculates the average value of the distance from the centroid position to the outer contour for each angle according to the external setting value, and calculates the angle and distance from the captured centroid position data and outer contour data. The polar coordinate value is generated by converting into the polar coordinate expression used, and the generated polar coordinate value is output to the identification unit 21 (step S9).

極座標値生成部20が行う極座標値生成手順を、図7のフローチャートを用いて説明する。極座標値生成部20は、外部設定値から抽出した所定の角度(例えば5度)ごとの処理を、角度0度〜360度すべて行う(ステップS101〜S105)。まず、極座標値生成部20は、角度0度における重心位置から外輪郭データの座標までの距離L1を算出する(ステップS102)。次に、極座標値生成部20は、角度5度における重心位置から外輪郭の座標までの距離L2を算出する(ステップS103)。次に、極座標値生成部20は、角度0度〜5度の距離として、距離L1と距離L2の平均値を算出する(ステップS104)。次に、角度5度と角度10度の距離の平均値Lを算出し、これらの処理を角度0度から360度まで行う。   A polar coordinate value generation procedure performed by the polar coordinate value generation unit 20 will be described with reference to the flowchart of FIG. The polar coordinate value generation unit 20 performs all the processes for each predetermined angle (for example, 5 degrees) extracted from the external setting value, from 0 degrees to 360 degrees (steps S101 to S105). First, the polar coordinate value generation unit 20 calculates the distance L1 from the position of the center of gravity at the angle of 0 degrees to the coordinates of the outer contour data (step S102). Next, the polar coordinate value generation unit 20 calculates a distance L2 from the position of the center of gravity at the angle of 5 degrees to the coordinates of the outer contour (step S103). Next, the polar coordinate value generation unit 20 calculates an average value of the distance L1 and the distance L2 as a distance with an angle of 0 degrees to 5 degrees (step S104). Next, the average value L of the distance between the angle 5 degrees and the angle 10 degrees is calculated, and these processes are performed from the angle 0 degrees to 360 degrees.

次に、内輪郭抽出部19は、二値化部16が出力する二値化された差分画像データと、輪郭抽出部17が出力する輪郭データと外輪郭データを取り込む。次に、内輪郭抽出部19は、二値化された差分画像データと外輪郭データを用いて、外輪郭データ内の所定の面積以上を有する黒画素領域を検索する(ステップS10)。
次に、内輪郭抽出部19は、検索の結果、外輪郭データ内に所定の面積の黒画素領域が存在するか否かを判定する(ステップS11)。
判定の結果、外輪郭データ内に所定の面積の黒画素領域が存在する場合(ステップS11;Yes)、内輪郭抽出部19は、黒画素領域の内輪郭データを抽出して、抽出した内輪郭データを極座標値生成部20に出力する。具体的には、内輪郭抽出部19は、外輪郭データ121の内側に、所定の面積以上の黒領域があるか二値化された差分画像データ110と比較し、比較の結果に基づき領域111と112を抽出する。そして、内輪郭抽出部19は、抽出した黒画素領域の内輪郭データ131と132を抽出し、抽出した極座標値生成部20に出力する。
また、判定の結果、外輪郭データ内に所定の黒面積の領域が存在しない場合(ステップS11;No)、ステップS14に進む。
Next, the inner contour extraction unit 19 takes in the binarized difference image data output from the binarization unit 16 and the contour data and outer contour data output from the contour extraction unit 17. Next, the inner contour extraction unit 19 searches for a black pixel region having a predetermined area or more in the outer contour data using the binarized difference image data and the outer contour data (step S10).
Next, as a result of the search, the inner contour extraction unit 19 determines whether or not a black pixel region having a predetermined area exists in the outer contour data (step S11).
As a result of the determination, when a black pixel region having a predetermined area exists in the outer contour data (step S11; Yes), the inner contour extraction unit 19 extracts the inner contour data of the black pixel region and extracts the extracted inner contour. Data is output to the polar coordinate value generation unit 20. Specifically, the inner contour extracting unit 19 compares the difference image data 110 that is binarized to determine whether there is a black area larger than a predetermined area inside the outer contour data 121, and based on the comparison result, the region 111. And 112 are extracted. Then, the inner contour extracting unit 19 extracts the extracted inner contour data 131 and 132 of the black pixel region and outputs them to the extracted polar coordinate value generating unit 20.
If the result of determination is that there is no region of a predetermined black area in the outer contour data (step S11; No), the process proceeds to step S14.

次に、極座標値生成部20は、重心算出部18が出力する重心位置データと、内輪郭抽出部19が出力する内輪郭データを取り込む。次に、極座標値生成部20は、取り込んだ重心位置データと内輪郭データを用いて、外輪郭データの極座標値生成と同様に内輪郭データを極座標表現に変換して極座標値を生成し、生成した極座標値を識別部21に出力する(ステップS12)。
次に、内輪郭抽出部19は、外輪郭データ内の全ての内輪郭データの極座標値を生成したか否かを判定する(ステップS13)。
全ての内輪郭データの極座標値を生成が完了していない場合(ステップS13;No)、内輪郭抽出部19と極座標値生成部20は、ステップS10〜ステップS13を繰り返し、外輪郭データ内の全ての内輪郭データを抽出し、抽出した全ての内輪郭データの極座標値を生成し、生成した内輪郭データの極座標値を識別部21に出力する。
次に、識別部21は、極座標値生成部20が出力する外輪郭データの極座標値と内輪郭データの極座標値を取り込み、取り込んだ極座標値の組み合わせの物体データが極座標値記憶部22にすでに記憶されているか否かを判定する。対象物を新規に登録する場合、極座標値記憶部22には、まだ記憶されていないため、識別部21は、取り込んだ外輪郭データの極座標値と内輪郭データの極座標値を関連づけ、書き込んで記憶させる(ステップS14)。
以上で対象物の登録手順を終了する。
Next, the polar coordinate value generation unit 20 takes in the centroid position data output from the centroid calculation unit 18 and the inner contour data output from the inner contour extraction unit 19. Next, the polar coordinate value generation unit 20 generates polar coordinate values by converting the inner contour data into polar coordinate representations using the acquired center-of-gravity position data and inner contour data in the same manner as the polar coordinate value generation of the outer contour data. The polar coordinate value thus output is output to the identification unit 21 (step S12).
Next, the inner contour extraction unit 19 determines whether or not the polar coordinate values of all the inner contour data in the outer contour data have been generated (step S13).
When generation of polar coordinate values of all inner contour data has not been completed (step S13; No), the inner contour extraction unit 19 and polar coordinate value generation unit 20 repeat steps S10 to S13, and all the outer contour data in the outer contour data Are extracted, polar coordinate values of all the extracted inner contour data are generated, and the polar coordinate values of the generated inner contour data are output to the identification unit 21.
Next, the identification unit 21 takes in the polar coordinate values of the outer contour data and the inner contour data output from the polar coordinate value generation unit 20, and the object data of the combination of the fetched polar coordinate values is already stored in the polar coordinate value storage unit 22. It is determined whether or not it has been done. When a new object is registered, since it is not yet stored in the polar coordinate value storage unit 22, the identification unit 21 associates, writes and stores the polar coordinate value of the captured outer contour data and the polar coordinate value of the inner contour data. (Step S14).
This completes the registration procedure of the object.

次に、対象物の識別手順を図8のフローチャートを用いて説明する。まず、カメラ2により撮影された入力画像を取り込み、登録手順と同様にステップS1〜ステップS13を行い、外輪郭データと内輪郭データを生成する(ステップS201)。
次に、識別部21は、取り込んだ外輪郭データの極座標値と、極座標値記憶部22に記憶されている対象物の外輪郭データの極座標値とを比較する(ステップS202)。
比較方法は、例えば、以下のように行う。極座標記憶部22に記憶されている0〜π/36の距離Lと、取り込んだ入力画像データから生成した0〜π/36の距離Lの差の絶対値を計算する。次に、極座標記憶部22に記憶されているπ/36〜2π/36の距離Lm+1と、取り込んだ入力画像データから生成したπ/36〜2π/36の距離Li+1の差の絶対値を計算する。このように全ての角度について差の絶対値を計算し、算出した差の絶対値の総和を計算する。次に、極座標記憶部22に記憶されているπ/36〜2π/36の距離Lm+1と、取り込んだ入力画像データから生成した0〜π/36の距離Lの差の絶対値を計算する。この手順を繰り返し、極座標記憶部22に記憶されている0〜π/36の距離Lと、取り込んだ入力画像データから生成した35π/36〜0の距離Li+36の差の絶対値を計算する。すなわち、極座標値記憶部22に記憶されている距離をπ/36ずつずらして差の絶対値を算出し、同様に差の絶対値の総和を計算する。
このように、識別部21は、π/36ずつずらした差の絶対値の総和を計算し、差の絶対値の総和が一番小さいずらし量(角度)を算出し、一番小さい絶対値の総和を比較値として抽出する。
Next, a procedure for identifying an object will be described with reference to the flowchart of FIG. First, an input image taken by the camera 2 is captured, and steps S1 to S13 are performed in the same manner as the registration procedure to generate outer contour data and inner contour data (step S201).
Next, the identification unit 21 compares the polar coordinate value of the acquired outer contour data with the polar coordinate value of the outer contour data of the object stored in the polar coordinate value storage unit 22 (step S202).
The comparison method is performed as follows, for example. The absolute value of the difference between the distance L m of 0 to π / 36 stored in the polar storage unit 22 and the distance L i of 0 to π / 36 generated from the captured input image data is calculated. Next, the absolute value of the difference between the distance L m + 1 of π / 36 to 2π / 36 stored in the polar storage unit 22 and the distance L i + 1 of π / 36 to 2π / 36 generated from the captured input image data is obtained. calculate. In this way, the absolute value of the difference is calculated for all angles, and the sum of the absolute values of the calculated differences is calculated. Next, calculate the distance L m + 1 of π / 36~2π / 36 stored in the polar coordinate storage section 22, the absolute value of the difference between the distance L i of 0~π / 36 generated from the input image data taken in . This procedure is repeated, and the absolute value of the difference between the distance L m of 0 to π / 36 stored in the polar coordinate storage unit 22 and the distance L i + 36 of 35π / 36 to 0 generated from the captured input image data is calculated. . That is, the absolute value of the difference is calculated by shifting the distance stored in the polar coordinate value storage unit 22 by π / 36, and the sum of the absolute values of the difference is similarly calculated.
In this way, the identification unit 21 calculates the sum of absolute values of differences shifted by π / 36, calculates the shift amount (angle) with the smallest sum of absolute values of differences, and calculates the smallest absolute value. The sum is extracted as a comparison value.

次に、識別部21は、抽出した比較値を所定のしきい値と比較し、所定の比較値より小さければ極座標記憶部22に記憶されている対象物の輪郭データと、入力画像データに含まれる対象物の外輪郭データとが一致するか否かを判定する(ステップS203)。
極座標記憶部22に記憶されている対象物の外輪郭データと、入力画像データに含まれる対象物の外輪郭データとが一致しない場合(ステップS203;No)、識別部21は、対象物が一致していないと識別し、識別結果を識別結果出力部23に出力し、生成した外輪郭データと内輪郭データを関連づけて極座標値記憶部22に書き込んで記憶させる(ステップS205)。また、識別結果出力部23は、識別部21が出力する識別結果を取り込み、取り込んだ識別結果に基づく識別結果を画像表示装置3に出力する。また、画像表示装置3は、識別結果出力部23が出力する識別結果を表示部に表示する。
Next, the identification unit 21 compares the extracted comparison value with a predetermined threshold value. If the comparison value is smaller than the predetermined comparison value, the identification unit 21 includes the object contour data stored in the polar coordinate storage unit 22 and the input image data. It is determined whether or not the outer contour data of the target object matches (step S203).
When the outer contour data of the target object stored in the polar coordinate storage unit 22 does not match the outer contour data of the target object included in the input image data (step S203; No), the identification unit 21 determines that the target object is one The identification result is output to the identification result output unit 23, and the generated outer contour data and inner contour data are associated with each other and written and stored in the polar coordinate value storage unit 22 (step S205). The identification result output unit 23 captures the identification result output from the identification unit 21 and outputs the identification result based on the captured identification result to the image display device 3. Further, the image display device 3 displays the identification result output from the identification result output unit 23 on the display unit.

ステップS202とステップS203の具体的な識別の例を、図9の識別方法を説明する図を用いて説明する。説明を簡略化するため、極座標値を16等分(22.5度間隔)で生成した場合を説明する。極座標記憶部22に記憶されている極座標値が図9(a)、入力画像データから生成した極座標値が図9(b)の場合、まず、角度0〜θ1の距離L=6と距離L=3との差の絶対値=3を計算する。この手順を角度θ15〜0まで繰り返して、全ての角度の差の絶対値の総和=18を計算する。次に、極座標記憶部22に記憶されている極座標値の角度をθ1ずらして比較する。すなわち、角度θ1〜θ2の距離Lm+1=7と距離L=3との差の絶対値L=4を計算する。この手順を角度θ15〜0まで繰り返して、全ての角度の差の絶対値の総和=0を計算する。このように角度θ1ずつずらして比較し、全ての角度の差の絶対値の総和が最小であるθ1を比較値として抽出する。そして、抽出した差の絶対値の総和=0と所定のしきい値を比較して、所定の比較値より小さいと判定し、極座標記憶部22に記憶されている対象物の外輪郭データと、入力画像データに含まれる対象物の外輪郭データとが一致すると識別する。また、対象物が一致すると判定された場合、この比較値θ1は、対象物の回転角度でもある。 A specific example of identification in steps S202 and S203 will be described with reference to the identification method in FIG. In order to simplify the description, a case will be described in which polar coordinate values are generated in 16 equal parts (22.5 degree intervals). When the polar coordinate value stored in the polar coordinate storage unit 22 is FIG. 9A and the polar coordinate value generated from the input image data is FIG. 9B, first, the distance L m = 6 and the distance L between the angles 0 to θ1. Calculate the absolute value of the difference from i = 3 = 3. This procedure is repeated from the angle θ15 to 0 to calculate the sum of absolute values of differences between all angles = 18. Next, the polar coordinate values stored in the polar coordinate storage unit 22 are compared by shifting the angle of θ1. That is, the absolute value L = 4 of the difference between the distance L m + 1 = 7 of the angles θ1 to θ2 and the distance L i = 3 is calculated. This procedure is repeated from angle θ15 to 0 to calculate the sum of absolute values of all angle differences = 0. In this way, the angle θ1 is shifted and compared, and θ1 having the smallest sum of absolute values of all angle differences is extracted as a comparison value. Then, the sum of the absolute values of the extracted differences = 0 is compared with a predetermined threshold value to determine that it is smaller than the predetermined comparison value, and the outer contour data of the object stored in the polar coordinate storage unit 22; It discriminate | determines that the outer outline data of the target object contained in input image data correspond. If it is determined that the objects match, the comparison value θ1 is also the rotation angle of the object.

図8に戻って、極座標記憶部22に記憶されている対象物の輪郭データと、入力画像データに含まれる対象物の輪郭データとが一致する場合(ステップS203;Yes)、識別部21は、入力画像データに内輪郭データがあるか否かを判定する(ステップS206)。入力画像データに内輪郭データがない場合(ステップS206;No)、識別部21は極座標記憶部22に内輪郭データが外輪郭データに関連づけられて記憶されているか否かを判定する(ステップS207)。極座標記憶部22に内輪郭データが外輪郭データに関連づけられて記憶されている場合(ステップS207;Yes)、ステップS204に進み、極座標記憶部22に内輪郭データが外輪郭データに関連づけられて記憶されている場合(ステップS207;No)、ステップS213に進む。   Returning to FIG. 8, when the contour data of the target object stored in the polar coordinate storage unit 22 matches the contour data of the target object included in the input image data (step S203; Yes), the identification unit 21 It is determined whether or not there is inner contour data in the input image data (step S206). When there is no inner contour data in the input image data (step S206; No), the identification unit 21 determines whether the inner contour data is stored in association with the outer contour data in the polar coordinate storage unit 22 (step S207). . When the inner contour data is stored in the polar coordinate storage unit 22 in association with the outer contour data (step S207; Yes), the process proceeds to step S204, and the inner contour data is stored in the polar coordinate storage unit 22 in association with the outer contour data. If yes (step S207; No), the process proceeds to step S213.

入力画像データに内輪郭データがある場合(ステップS206;Yes)、識別部21は、入力画像データから生成した内輪郭データの面積を算出し、内輪郭データが複数ある場合は面積の大きい順に内輪郭データを並べる(ステップS208)。
次に、識別部21は、一番面積の大きい内輪郭データを選択し(ステップS209)、選択した内輪郭データと、ステップS202〜ステップS203で一致すると識別された外輪郭データと関連づけられて極座標記憶部22に記憶されている内輪郭データとを一致するか否か、外輪郭データ比較方法と同じ方法で比較する(ステップS210)。
When the input image data includes inner contour data (step S206; Yes), the identification unit 21 calculates the area of the inner contour data generated from the input image data. The contour data is arranged (step S208).
Next, the identifying unit 21 selects the inner contour data having the largest area (step S209), and is associated with the selected inner contour data and the outer contour data identified as matching in steps S202 to S203, and is polar coordinates. Whether the inner contour data stored in the storage unit 22 matches or not is compared by the same method as the outer contour data comparison method (step S210).

比較の結果、入力画像データの内輪郭データと、極座標記憶部22に記憶されている内輪郭データとが一致しない場合(ステップS211;No)、ステップS204に進み対象物が一致していない場合の処理を行う。比較の結果、入力画像データの内輪郭データと、極座標記憶部22に記憶されている内輪郭データとが一致している場合(ステップS211;Yes)、入力画像データから生成した全ての内輪郭データと、一致すると識別された外輪郭データと関連づけられて極座標記憶部22に記憶されている全ての内輪郭データ
とについて比較を終了したか否かを判定する(ステップS212)。
全ての内輪郭データ比較が終了していない場合(ステップS212;No)、ステップS209〜ステップS212を繰り返す。全ての内輪郭データ比較が終了し、内輪郭データが一致した場合(ステップS212;Yes)、対象物が一致したと判定し、識別結果を識別結果出力部23に出力する(ステップS213)。また、画像表示装置3は、識別結果出力部23が出力する識別結果を表示部に表示する。
以上で、対象物の識別手順を終了する。
As a result of the comparison, when the inner contour data of the input image data and the inner contour data stored in the polar coordinate storage unit 22 do not match (step S211; No), the process proceeds to step S204, and the object does not match. Process. As a result of the comparison, when the inner contour data of the input image data matches the inner contour data stored in the polar coordinate storage unit 22 (step S211; Yes), all the inner contour data generated from the input image data Then, it is determined whether or not the comparison has been completed for all the inner contour data stored in the polar coordinate storage unit 22 in association with the outer contour data identified as coincident (step S212).
If all the inner contour data comparisons have not been completed (step S212; No), steps S209 to S212 are repeated. When all the inner contour data comparisons are completed and the inner contour data match (step S212; Yes), it is determined that the objects match, and the identification result is output to the identification result output unit 23 (step S213). Further, the image display device 3 displays the identification result output from the identification result output unit 23 on the display unit.
This completes the object identification procedure.

以上のように、対象物を背景差分処理により抽出し、抽出した差分画像を二値化した画像データから輪郭データを抽出する。そして、抽出した輪郭データを用いて重心位置を算出し、重心位置と輪郭データを用いて極座標表現に変換して極座標値を生成し、生成した極座標値を用いて対象物の識別を行うようにしたので、特徴点が抽出しにくい画像においても高い認識精度を得ることができる。また、対象物の輪郭内データに二値化したときの黒画素領域を抽出し、抽出した黒画素領域の輪郭データをさらに抽出する。そして、この抽出した輪郭データを、重心位置と輪郭データを用いて極座標表現に変換して極座標値を生成し、生成した極座標値を用いて対象物の識別を行うようにしたので、複雑な形状の対象物においても従来手法と比較して計算量を軽減でき、例えばモバイル端末などの実装を行うことができる。   As described above, the object is extracted by the background difference process, and the contour data is extracted from the image data obtained by binarizing the extracted difference image. Then, the position of the center of gravity is calculated using the extracted contour data, converted into a polar coordinate expression using the position of the center of gravity and the contour data, and the polar coordinate value is generated, and the object is identified using the generated polar coordinate value. Therefore, high recognition accuracy can be obtained even in an image in which feature points are difficult to extract. Further, the black pixel region when binarized into the in-contour data of the object is extracted, and the contour data of the extracted black pixel region is further extracted. Then, the extracted contour data is converted into a polar coordinate expression using the gravity center position and the contour data to generate a polar coordinate value, and the object is identified using the generated polar coordinate value. Compared with the conventional method, the amount of calculation can be reduced for the target object, and for example, a mobile terminal or the like can be implemented.

[第二実施形態]
図10の物体識別装置300の構成の一例を示すブロック図を用いて、本実施形態における物体識別装置の構成を説明する。第一の実施形態と同じ機能部は、同じ符号を用いて説明は省略する。第一の実施形態との差異は、外部設定値取り込み部301と、平滑化部302と、色空間分離部303と、二値化部304と、輪郭抽出部305と、重心算出部306と、チャネル選択部307と、極座標値記憶部310である。
[Second Embodiment]
The configuration of the object identification device according to the present embodiment will be described with reference to a block diagram illustrating an example of the configuration of the object identification device 300 in FIG. The same functional units as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted. The difference from the first embodiment is that an external set value capturing unit 301, a smoothing unit 302, a color space separating unit 303, a binarizing unit 304, a contour extracting unit 305, a centroid calculating unit 306, A channel selection unit 307 and a polar coordinate value storage unit 310.

外部設定値取り込み部301は、外部から物体識別処理に用いる各種の設定である外部設定値を取り込み、取り込んだ外部設定値を背景差分処理部14と平滑化部302と色空間分離部303と二値化部304とチャネル選択部307と極座標値生成部308と識別部309に出力する。   The external setting value capturing unit 301 captures external setting values, which are various settings used for object identification processing, from the outside. The external setting value capturing unit 301 receives the external setting values from the background difference processing unit 14, the smoothing unit 302, the color space separation unit 303, and the like. The data is output to the value conversion unit 304, the channel selection unit 307, the polar coordinate value generation unit 308, and the identification unit 309.

色空間分離部303は、外部設定値取り込み部301が出力する外部設定値と、平滑化部302が出力する平滑化された差分画像データを取り込む。また、色空間分離部303は、外部設定値に応じて、平滑化した差分画像データをRGBやHSV(色相、彩度、明度)などの色空間に分離し、分離した各チャネルの色空間画像データを二値化304に出力する。図11は、RGB画像データの色空間チャネル分解を説明する図である。外部設定値がRGB画像データをR,G,Bの各チャネルに分離を行う設定の場合、図11のように、色空間分離部303は、差分画像データを各チャネルの画像データに分離する。   The color space separation unit 303 captures the external setting value output from the external setting value capturing unit 301 and the smoothed difference image data output from the smoothing unit 302. Further, the color space separation unit 303 separates the smoothed difference image data into color spaces such as RGB and HSV (hue, saturation, brightness) according to the external setting value, and separates the color space images of each channel. Data is output to binarization 304. FIG. 11 is a diagram for explaining color space channel decomposition of RGB image data. When the external setting value is set to separate the RGB image data into R, G, and B channels, the color space separation unit 303 separates the difference image data into the image data of each channel as shown in FIG.

二値化部304は、外部設定値取り込み部301が出力する外部設定値と、平滑化部302が出力する平滑化された差分画像データ(RGB画像データ)と色空間分離部303が出力する各チャネルの色空間画像データを取り込む。また、二値化部304は、取り込んだ平滑化された差分画像データおよび各チャネルの色空間画像データを外部設定値に応じてそれぞれ二値化し、二値化した平滑化された差分画像データと各チャネルの色空間画像データとを輪郭抽出部305に出力する。   The binarization unit 304 outputs the external setting value output from the external setting value capturing unit 301, the smoothed difference image data (RGB image data) output from the smoothing unit 302, and the color space separation unit 303. Capture color space image data for a channel. Also, the binarization unit 304 binarizes the smoothed difference image data and the color space image data of each channel according to the external setting value, and binarizes the smoothed difference image data. The color space image data of each channel is output to the contour extraction unit 305.

輪郭抽出部305は、二値化部304が出力する二値化された差分画像データ、および二値化された各チャネルの色空間画像データを取り込み、取り込んだ差分画像データ、および各チャネルの色空間画像データからそれぞれ外輪郭データを抽出する。また、輪郭抽出部305は、抽出した差分画像データの外輪郭データを重心算出部306に出力し、抽出した各チャネルの色空間画像データの各外輪郭データを極座標値生成部308に出力する。   The contour extraction unit 305 captures the binarized difference image data output from the binarization unit 304 and the binarized color space image data of each channel, and the captured difference image data and the color of each channel Outer contour data is extracted from each of the spatial image data. In addition, the contour extraction unit 305 outputs the outer contour data of the extracted difference image data to the centroid calculation unit 306, and outputs each outer contour data of the extracted color space image data of each channel to the polar coordinate value generation unit 308.

重心算出部306は、輪郭抽出部305が出力する差分画像データの外輪郭データを取り込み、取り込んだ差分画像データの外輪郭データから重心位置を算出し、算出した重心位置データを極座標値生成部308に出力する。   The center-of-gravity calculation unit 306 takes in the outer contour data of the difference image data output from the contour extraction unit 305, calculates the center of gravity position from the outer contour data of the acquired difference image data, and uses the calculated center-of-gravity position data as the polar coordinate value generation unit 308. Output to.

チャネル選択部307は、外部設定値取り込み部301が出力する外部設定値を取り込み、取り込んだ外部設定値からどの色空間分離手法を用いるかの色空間分離指示情報を抽出する。また、チャネル選択部307は、抽出した色空間分離指示情報に基づき、どのチャネルの外輪郭データを用いて極座標値生成部308が極座標値を生成するかを適時切り替えるチャネル選択データを生成し、生成したチャネル選択データを極座標値生成部308に出力する。
例えば、外部設定値がRGBに分離する場合、チャネル選択部307は、まずRGB画像データの外輪郭データを用いて極座標値を生成するチャネル選択データを極座標値生成部308に出力する。チャネル選択部307は、極座標値生成部308が出力する生成完了データを取り込み、生成完了データを取り込み後、まだ極座標値を生成していない色空間のチャネルであるRチャネルを選択し、選択したR画像データの外輪郭データを用いて極座標値を生成するチャネル選択データを極座標値生成部308に出力する。このようにして、全ての色空間画像データの各外輪郭データから極座標値を生成するチャネル選択データを、極座標値生成部308に順次出力する。
The channel selection unit 307 captures the external setting value output from the external setting value capturing unit 301, and extracts color space separation instruction information indicating which color space separation method to use from the captured external setting value. In addition, the channel selection unit 307 generates channel selection data that switches the polar coordinate value generation unit 308 from time to time using the outer contour data of which channel based on the extracted color space separation instruction information. The selected channel selection data is output to the polar coordinate value generation unit 308.
For example, when the external setting values are separated into RGB, the channel selection unit 307 first outputs channel selection data for generating polar coordinate values using the outer contour data of the RGB image data to the polar coordinate value generation unit 308. The channel selection unit 307 captures the generation completion data output from the polar coordinate value generation unit 308, selects the R channel that is the channel of the color space that has not yet generated the polar coordinate values after capturing the generation completion data, and selects the selected R Channel selection data for generating polar coordinate values using the outer contour data of the image data is output to the polar coordinate value generation unit 308. In this manner, channel selection data for generating polar coordinate values from the respective outer contour data of all color space image data is sequentially output to the polar coordinate value generating unit 308.

極座標値生成部308は、外部設定値取り込み部301が出力する外部設定値と、輪郭抽出部305が出力する差分画像データの外輪郭データと各色空間の各外輪郭データと、重心算出部306が出力する重心位置データと、チャネル選択部307が出力するチャネル選択データを取り込む。また、極座標値生成部308は、チャネル選択データに応じて、取り込んだ外輪郭データごとに外部設定値に応じて極座標値を生成する。さらに、極座標値生成部308は、各極座標値の生成完了後、生成完了データを生成し、生成した生成完了データをチャネル選択部307に出力する。   The polar coordinate value generation unit 308 includes an external setting value output from the external setting value capturing unit 301, outer contour data of difference image data output from the contour extraction unit 305, outer contour data of each color space, and a centroid calculating unit 306. The center-of-gravity position data to be output and the channel selection data output from the channel selection unit 307 are captured. Further, the polar coordinate value generation unit 308 generates a polar coordinate value according to the externally set value for each of the captured outer contour data according to the channel selection data. Further, the polar coordinate value generation unit 308 generates the generation completion data after the generation of each polar coordinate value is completed, and outputs the generated generation completion data to the channel selection unit 307.

識別部309は、外部設定値取り込み部301が出力する外部設定値と、極座標値生成部308が出力する差分画像データの外輪郭データの極座標値と、各色空間画像データの外輪郭データの極座標値とを取り込む。また、識別部309は、取り込んだ外部設定値からチャネル優先度データを抽出する。さらに、識別部309は、取り込んだ各極座標値の組み合わせが極座標値記憶部310に記憶されている極座標値と一致するか否かを、まずRGB画像データから生成された極座標値について判定する。さらに、識別部309は、チャネル優先度データに応じた色空間画像データから生成された極座標値について、極座標値記憶部310に記憶されている極座標値と一致するか否かを判定を行う。
さらに、識別部309は、判定結果に基づき対象物を識別し、識別結果を識別結果出力部23に出力する。さらに、識別部309は、判定の結果、極座標値記憶部310に記憶されていない極座標値の場合、各極座標値を極座標値記憶部310に書き込んで記憶させる。
The identification unit 309 includes an external setting value output from the external setting value capturing unit 301, a polar coordinate value of the outer contour data of the difference image data output from the polar coordinate value generation unit 308, and a polar coordinate value of the outer contour data of each color space image data. And capture. Also, the identification unit 309 extracts channel priority data from the acquired external setting value. Further, the identification unit 309 first determines whether or not the combination of each polar coordinate value acquired matches the polar coordinate value stored in the polar coordinate value storage unit 310 with respect to the polar coordinate value generated from the RGB image data. Further, the identification unit 309 determines whether or not the polar coordinate value generated from the color space image data corresponding to the channel priority data matches the polar coordinate value stored in the polar coordinate value storage unit 310.
Further, the identification unit 309 identifies the object based on the determination result, and outputs the identification result to the identification result output unit 23. Further, in the case of a polar coordinate value that is not stored in the polar coordinate value storage unit 310 as a result of the determination, the identification unit 309 writes and stores each polar coordinate value in the polar coordinate value storage unit 310.

極座標値記憶部310は、差分画像データの外輪郭データの極座標値と、各色空間画像データの外輪郭データの極座標値を、所定の角度毎に関連づけて記憶する。図12は、極座標値記憶部310が記憶する極座標値の構成の一例である。図12のように、極座標値記憶部310は、RGB画像データと各色空間チャネル(R、G、B)の画像データの各外輪郭データを有し、各外輪郭データは角度毎、例えば5度ごとに重心位置から輪郭の特徴点までの距離を関連づけて記憶する。また、これらのデータの組み合わせを対象物ごとに関連づけて記憶する。   The polar coordinate value storage unit 310 stores the polar coordinate value of the outer contour data of the difference image data and the polar coordinate value of the outer contour data of each color space image data in association with each predetermined angle. FIG. 12 is an example of the configuration of polar coordinate values stored in the polar coordinate value storage unit 310. As shown in FIG. 12, the polar coordinate value storage unit 310 includes RGB image data and outer contour data of image data of each color space channel (R, G, B), and each outer contour data is, for example, 5 degrees for each angle. The distance from the center of gravity position to the feature point of the contour is stored in association with each other. Further, a combination of these data is stored in association with each object.

次に、第二の実施形態における対象物の登録手順を図13のフローチャートを用いて説明する。第一の実施形態と同じ処理については、同じ符号を用いて説明を省略する。まず、ステップS1〜ステップS5までは、第一の実施形態と同様に行う。
次に、色空間分離部303は、外部設定値取り込み部301が出力する外部設定値と、平滑化部302が出力する平滑化された差分画像データとを取り込む。次に、色空間分離部303は、外部設定値に基づき平滑化された差分画像データをR,G,Bの各色空間成分に分離し、分離した各チャネルの色空間画像データを二値化304に出力する。(ステップS301)。
次に、二値化部304は、外部設定値取り込み部301が出力する外部設定値と、平滑化部302が出力する平滑化された差分画像データと、色空間分離部303が出力する各チャネルの色空間画像データを取り込む。また、二値化部304は、取り込んだ平滑化された差分画像データと、各チャネルの色空間画像データとを、それぞれ外部設定値の閾値設定手法(例えば、大津の閾値設定手法)を用いて二値化し、二値化した差分画像データと各チャネルの色空間画像データとを輪郭抽出部305に出力する(ステップS302)。
Next, the registration procedure of the target object in 2nd embodiment is demonstrated using the flowchart of FIG. About the same process as 1st embodiment, description is abbreviate | omitted using the same code | symbol. First, steps S1 to S5 are performed in the same manner as in the first embodiment.
Next, the color space separation unit 303 captures the external setting value output from the external setting value capturing unit 301 and the smoothed difference image data output from the smoothing unit 302. Next, the color space separation unit 303 separates the difference image data smoothed based on the external setting values into R, G, and B color space components, and binarizes the separated color space image data of each channel 304. Output to. (Step S301).
Next, the binarization unit 304 outputs the external setting value output from the external setting value capturing unit 301, the smoothed difference image data output from the smoothing unit 302, and each channel output from the color space separation unit 303. The color space image data is captured. Also, the binarization unit 304 uses the externally set value threshold setting method (for example, Otsu's threshold setting method) to convert the smoothed difference image data and the color space image data of each channel. The binarized difference image data and the color space image data of each channel are output to the contour extraction unit 305 (step S302).

次に、輪郭抽出部305は、二値化部304が出力する二値化された差分画像データを取り込み、取り込んだ二値化された差分画像データから外輪郭データを抽出し、抽出した外輪郭データを重心算出部18に出力する(ステップS303)。
次に、重心算出部18は、輪郭抽出部305が出力する外輪郭データを取り込み、取り込んだ外輪郭データを用いて外輪郭の重心位置を算出し、算出した重心位置データを極座標値生成部308に出力する(ステップS304)。
Next, the contour extraction unit 305 takes in the binarized difference image data output from the binarization unit 304, extracts outer contour data from the binarized difference image data, and extracts the extracted outer contour Data is output to the gravity center calculation unit 18 (step S303).
Next, the centroid calculating unit 18 takes in the outer contour data output from the contour extracting unit 305, calculates the centroid position of the outer contour using the acquired outer contour data, and uses the calculated centroid position data as the polar coordinate value generating unit 308. (Step S304).

次に、チャネル選択部307は、外部設定値取り込み部301が出力する外部設定値を取り込み、取り込んだ外部設定値から色空間分離指示情報を抽出する。また、チャネル選択部307は、抽出した色空間分離指示情報に基づきRGB画像データを選択するチャネル選択データを生成し、生成したチャネル選択データを極座標値生成部308に出力する。
次に、極座標値生成部308は、外部設定値取り込み部301が出力する外部設定値と、輪郭抽出部17が出力する差分画像データの外輪郭データと、重心算出部18が出力する重心位置データと、チャネル選択部307が出力するチャネル選択データとを取り込む。
次に、極座標値生成部308は、チャネル選択データに応じてRGB画像データの差分画像データの極座標値生成を行う。次に、極座標値生成部308は、取り込んだ重心位置データと外輪郭データを、外部設定値に応じた角度ごとの重心位置から外輪郭までの距離の平均値を、極座標表現に変換して極座標値を生成し、生成した極座標値を識別部309に出力する(ステップS305)。
Next, the channel selection unit 307 captures the external setting value output by the external setting value capturing unit 301, and extracts color space separation instruction information from the captured external setting value. Further, the channel selection unit 307 generates channel selection data for selecting RGB image data based on the extracted color space separation instruction information, and outputs the generated channel selection data to the polar coordinate value generation unit 308.
Next, the polar coordinate value generation unit 308 outputs the external setting value output from the external setting value capturing unit 301, the outer contour data of the difference image data output from the contour extraction unit 17, and the centroid position data output from the centroid calculation unit 18. And the channel selection data output by the channel selection unit 307 are captured.
Next, the polar coordinate value generation unit 308 generates polar coordinate values of the difference image data of the RGB image data according to the channel selection data. Next, the polar coordinate value generation unit 308 converts the captured center-of-gravity position data and outer contour data into the polar coordinate expression by converting the average value of the distance from the center of gravity position to the outer contour for each angle according to the external setting value. A value is generated, and the generated polar coordinate value is output to the identification unit 309 (step S305).

次に、チャネル選択部307は、外部設定値に応じてRチャネルを選択するチャネル選択データを極座標値生成部308に出力する(ステップS306)。
次に、極座標値生成部308は、外部設定値取り込み部301が出力する外部設定値と、輪郭抽出部17が出力する各チャネルの色空間画像データの外輪郭データと、重心算出部18が出力する重心位置データと、チャネル選択部307が出力するチャネル選択データとを取り込む。
次に、極座標値生成部308は、チャネル選択データに応じてRチャネル画像データの極座標値生成を行う。次に、極座標値生成部308は、取り込んだ重心位置データと外輪郭データを、外部設定値に応じた角度ごとの重心位置から外輪郭までの距離の平均値を、極座標表現に変換して極座標値を生成し、生成した極座標値を識別部309に出力する(ステップS307)。
次に、極座標値生成部308は、全ての色空間チャネル(R,G,B)の極座標値の生成が完了したか否かを判定する(ステップS308)。全てのチャネルの極座標値生成が完了していない場合(ステップS308;No)、ステップS306〜ステップS308を繰り返す。全てのチャネルの極座標値生成が完了した場合(ステップS308;Yes)、極座標値生成部308は、生成したRGB画像データ及び各色チャネルの色空間画像データにおける各輪郭データの各極座標値を識別部309に出力する。
Next, the channel selection unit 307 outputs channel selection data for selecting the R channel according to the external setting value to the polar coordinate value generation unit 308 (step S306).
Next, the polar coordinate value generation unit 308 outputs the external setting value output from the external setting value capturing unit 301, the outer contour data of the color space image data of each channel output from the contour extraction unit 17, and the centroid calculation unit 18 The center-of-gravity position data and the channel selection data output by the channel selection unit 307 are captured.
Next, the polar coordinate value generation unit 308 generates polar coordinate values of the R channel image data according to the channel selection data. Next, the polar coordinate value generation unit 308 converts the captured center-of-gravity position data and outer contour data into the polar coordinate expression by converting the average value of the distance from the center of gravity position to the outer contour for each angle according to the external setting value. A value is generated, and the generated polar coordinate value is output to the identification unit 309 (step S307).
Next, the polar coordinate value generation unit 308 determines whether or not the generation of polar coordinate values for all color space channels (R, G, B) has been completed (step S308). When the polar coordinate value generation of all channels is not completed (step S308; No), step S306 to step S308 are repeated. When the polar coordinate value generation of all the channels is completed (step S308; Yes), the polar coordinate value generation unit 308 identifies each polar coordinate value of each contour data in the generated RGB image data and the color space image data of each color channel. Output to.

次に、識別部309は、極座標値生成部308が出力する各外輪郭データの各極座標値を取り込み、取り込んだ各極座標値の組み合わせの物体データが極座標値記憶部310にすでに記憶されているか否かを判定する。対象物を新規に登録する場合、極座標値記憶部310には、まだ記憶されていないため、識別部309は、取り込んだ各外輪郭データの極座標値を関連づけ、書き込んで記憶させる(ステップS309)。
以上で対象物の登録手順を終了する。
Next, the identification unit 309 captures each polar coordinate value of each outer contour data output from the polar coordinate value generation unit 308, and whether or not the object data of the combination of the captured polar coordinate values is already stored in the polar coordinate value storage unit 310. Determine whether. When a new object is registered, since it is not yet stored in the polar coordinate value storage unit 310, the identification unit 309 associates, writes, and stores the polar coordinate values of each piece of outer contour data acquired (step S309).
This completes the registration procedure of the object.

次に、第二の実施形態における対象物の識別手順を図14のフローチャートを用いて説明する。まず、カメラ2により撮影された入力画像を取り込み、登録手順と同様にステップS1〜ステップS5およびステップS301〜ステップS308を行い、各外輪郭データの各極座標値を生成する(ステップS401)。
次に、識別部309は、RGB画像データから生成された外輪郭データの極座標値と、極座標値記憶部310に記憶されているRGB画像データから生成された外輪郭データとを比較する(ステップS402)。なお、極座標値の比較方法は、第一の実施形態と同様に行う。
Next, a procedure for identifying an object in the second embodiment will be described with reference to the flowchart of FIG. First, an input image photographed by the camera 2 is captured, and steps S1 to S5 and steps S301 to S308 are performed in the same manner as the registration procedure to generate each polar coordinate value of each outer contour data (step S401).
Next, the identification unit 309 compares the polar coordinate value of the outer contour data generated from the RGB image data with the outer contour data generated from the RGB image data stored in the polar coordinate value storage unit 310 (step S402). ). The polar coordinate value comparison method is performed in the same manner as in the first embodiment.

次に、極座標記憶部310に記憶されている対象物の外輪郭データと、入力画像データに含まれる対象物の外輪郭データとが一致しない場合(ステップS403;No)、識別部309は、対象物が一致していないと識別し、識別結果を識別結果出力部23に出力し、生成した各外輪郭データを関連づけて極座標値記憶部310に書き込んで記憶させる(ステップS405)。また、識別結果出力部23は、識別部309が出力する識別結果を取り込み、取り込んだ識別結果に基づく識別結果を画像表示装置3に出力する。また、画像表示装置3は、識別結果出力部23が出力する識別結果を表示部に表示する。   Next, when the outer contour data of the target object stored in the polar coordinate storage unit 310 and the outer contour data of the target object included in the input image data do not match (step S403; No), the identifying unit 309 It is identified that the objects do not match, the identification result is output to the identification result output unit 23, and the generated outer contour data is associated with each other and written and stored in the polar coordinate value storage unit 310 (step S405). Further, the identification result output unit 23 captures the identification result output by the identification unit 309 and outputs the identification result based on the captured identification result to the image display device 3. Further, the image display device 3 displays the identification result output from the identification result output unit 23 on the display unit.

次に、極座標記憶部310に記憶されている対象物の外輪郭データと、入力画像データに含まれる対象物の外輪郭データとが一致する場合(ステップS403;Yes)、識別部309は、外部取り込み部11が出力する外部設定値を取り込み、取り込んだ外部設定値からチャネル優先度データを抽出する。次に、識別部309は、チャネル優先度データに応じた色空間チャネルを選択する(ステップS406)。
次に、識別部309は、選択した色空間チャネルの極座標値と、極座標値記憶部310に記憶されている同じ色空間チャネルの極座標値とを、第一の実施形態の極座標値の比較方法と同様に行う(ステップS407)。
Next, when the outer contour data of the target object stored in the polar coordinate storage unit 310 matches the outer contour data of the target object included in the input image data (step S403; Yes), the identifying unit 309 The external setting value output by the capturing unit 11 is captured, and channel priority data is extracted from the captured external setting value. Next, the identification unit 309 selects a color space channel corresponding to the channel priority data (step S406).
Next, the identification unit 309 uses the polar coordinate value of the selected color space channel and the polar coordinate value of the same color space channel stored in the polar coordinate value storage unit 310 as the polar coordinate value comparison method of the first embodiment. The same is done (step S407).

次に、極座標記憶部310に記憶されている対象物の色空間チャネルの外輪郭データと、入力画像データに含まれる対象物の色空間チャネルの外輪郭データとが一致するか否かを判定する(ステップS408)。
判定の結果、一致しない場合(ステップS408;No)、識別部309は、対象物が一致していないと識別し、ステップS404〜ステップS405を行う。
判定の結果、一致する場合(ステップS408;Yes)、識別部309は、全ての色空間チャネルについて判定が終了したか否かを判定する(ステップS409)。
全ての色空間チャネルについて判定が終了していない場合(ステップS409;No)、ステップS406〜ステップS409を繰り返す。全ての色空間チャネルについて判定が終了した場合(ステップS409;Yes)、識別部309は、対象物が一致したと判定し、識別結果を識別結果出力部23に出力する(ステップS410)。また、画像表示装置3は、識別結果出力部23が出力する識別結果を表示部に表示する。
以上で、対象物の識別手順を終了する。
Next, it is determined whether or not the outer contour data of the object color space channel stored in the polar coordinate storage unit 310 matches the outer contour data of the object color space channel included in the input image data. (Step S408).
As a result of the determination, if they do not match (step S408; No), the identification unit 309 identifies that the objects do not match, and performs steps S404 to S405.
As a result of the determination, if they match (step S408; Yes), the identification unit 309 determines whether the determination has been completed for all color space channels (step S409).
If the determination has not been completed for all the color space channels (step S409; No), steps S406 to S409 are repeated. When the determination is completed for all the color space channels (step S409; Yes), the identification unit 309 determines that the objects match and outputs the identification result to the identification result output unit 23 (step S410). Further, the image display device 3 displays the identification result output from the identification result output unit 23 on the display unit.
This completes the object identification procedure.

以上のように、第一の実施形態に加え、入力画像データのRGB画像データを色空間に分離した画像データに基づき対象物の外輪郭データの極座標値を生成し、生成した各チャネルの極座標値も用いて対象物の識別を行うようにした。この結果、差分画像データが有する色空間成分によって、各チャネルに分離された成分も異なるため、例えば、青色など特定の色空間成分を有する対象物ではRGBの差分画像データから生成した輪郭データを用いるだけではなく、Bチャネルのみの差分画像データから生成した輪郭データをも用いることで、さらに高精度の識別を行える。さらにまた、対象物が柄や模様を有する場合等においても、色空間分離を行うことで、柄や模様の抽出を高精度に行えるため、外形が同じであっても柄や模様、色が異なる対象物を高精度に識別することができる。   As described above, in addition to the first embodiment, the polar coordinate value of the outer contour data of the object is generated based on the image data obtained by separating the RGB image data of the input image data into the color space, and the generated polar coordinate value of each channel Also used to identify objects. As a result, the component separated into each channel differs depending on the color space component of the difference image data. For example, an object having a specific color space component such as blue uses contour data generated from the RGB difference image data. In addition, the contour data generated from the differential image data of only the B channel can be used for more accurate identification. Furthermore, even when the object has a pattern or pattern, the pattern or pattern can be extracted with high accuracy by performing color space separation. The object can be identified with high accuracy.

また、第二の実施形態では、色空間成分に分離して識別する例を説明したが、第一の実施形態の内輪郭データを抽出するようにしても良い。この場合、第二の実施形態の構成に加え、内輪郭抽出部を備えるようにすれば良い。また、第二の実施形態では、色空間をR、G、Bに分離する例を説明したが、HSVなどの色空間でも同様の効果が得られる。   In the second embodiment, the example in which the color space components are separated and identified has been described. However, the inner contour data of the first embodiment may be extracted. In this case, in addition to the configuration of the second embodiment, an inner contour extraction unit may be provided. In the second embodiment, the example in which the color space is separated into R, G, and B has been described. However, the same effect can be obtained even in a color space such as HSV.

また、第一の実施形態では、内輪郭データの極座標値の比較を、内輪郭データの面積の大きい順に行う例を説明したが、順番はランダムでも良く、あるいは、所定の順番でも良い。さらに、第一の実施形態では、全ての内輪郭データの極座標値を比較する例を説明したが、面積の大きい順に比較し、所定の面積以下の内輪郭データの極座標値の比較を、用途に応じて省略して識別するようにしても良い。あるいは、所定の面積以下の比較については、所定の個数以上の内輪郭データの極座標値が一致した場合、省略するようにしても良い。   In the first embodiment, the example in which the polar coordinate values of the inner contour data are compared in the descending order of the area of the inner contour data has been described, but the order may be random or a predetermined order. Furthermore, in the first embodiment, the example in which the polar coordinate values of all the inner contour data are compared has been described, but the comparison of the polar coordinate values of the inner contour data having a predetermined area or less is performed for comparison. Accordingly, the identification may be omitted. Alternatively, the comparison of a predetermined area or less may be omitted if polar coordinate values of a predetermined number or more of inner contour data match.

また、本実施形態では、例えば、角度θ度に対応する輪郭データの座標と重心との距離L1と、角度θ+Δ度に対応する輪郭データの座標と重心との距離L2の平均値を算出して極座標値を生成する例を説明したが、角度θ度に対応する輪郭データの座標と重心との距離L1が極座標値でも良い。また、対象物がドーナツ形状のような近接する外側の輪郭と内側の輪郭で構成される場合、例えば、外側の輪郭と重心との距離L1と、内側の輪郭と重心との距離L2の平均値を距離として極座標値を生成しても良い。   In this embodiment, for example, the average value of the distance L1 between the coordinates of the contour data corresponding to the angle θ degrees and the center of gravity and the distance L2 between the coordinates of the contour data corresponding to the angle θ + Δ degrees and the center of gravity is calculated. Although the example of generating the polar coordinate value has been described, the distance L1 between the coordinates of the contour data corresponding to the angle θ degree and the center of gravity may be the polar coordinate value. In addition, when the object is configured by a close outer contour and an inner contour such as a donut shape, for example, an average value of the distance L1 between the outer contour and the center of gravity and the distance L2 between the inner contour and the center of gravity. The polar coordinate value may be generated using as a distance.

また、本実施形態では、平滑化部15または302の平滑化する回数を外部設定値取り込み部11または301が取り込んだ外部設定値で指定する例について説明したが、予め設定しておいた回数でも良く、または入力画像や対象物に応じて回数を設定するようにしても良い。この場合、例えば、高周波成分の大小や、ヒストグラムにおける成分の分布度合いなどから入力画像の複雑さを判定して、複雑な画像データに対して平滑化回数を増やすようにしても良い。また、このようにして算出した結果、平均化回数が例えば1回であった場合、平均化処理を行わずに色空間分離を行うようにしても良い。   In this embodiment, the example in which the number of times of smoothing by the smoothing unit 15 or 302 is specified by the external setting value captured by the external setting value capturing unit 11 or 301 has been described. Alternatively, the number of times may be set according to the input image or the object. In this case, for example, the complexity of the input image may be determined based on the magnitude of the high-frequency component, the distribution degree of the component in the histogram, and the like, and the number of times of smoothing may be increased for complex image data. Further, as a result of the calculation as described above, when the number of times of averaging is 1, for example, color space separation may be performed without performing the averaging process.

また、本実施形態では、重心位置から外輪郭データの座標または内輪郭データの座標までの距離をそのまま極座標値記憶部22または310に書き込んで記憶させる例を説明したが、極座標値を全て算出した後、距離の最大値を抽出し、抽出した最大値を、例えば1として正規化を行って極座標値記憶部22または310に書き込んで記憶させるようにしても良い。あるいは、極座標値の比較時に正規化を行って比較しても良い。   Further, in the present embodiment, an example has been described in which the distance from the center of gravity position to the coordinates of the outer contour data or the coordinates of the inner contour data is written and stored in the polar coordinate value storage unit 22 or 310 as they are, but all polar coordinate values have been calculated. Thereafter, the maximum value of the distance may be extracted, and the extracted maximum value may be normalized as 1, for example, and written and stored in the polar coordinate value storage unit 22 or 310. Alternatively, the comparison may be performed by normalizing the polar coordinate values.

また、本実施形態では、二値化部16または304は、大津の閾値選定手法で設定する例について説明したが、他の一般的な閾値選定手法を用いても良い。   Moreover, although the binarization part 16 or 304 demonstrated the example set with the threshold selection method of Otsu in this embodiment, you may use another general threshold selection method.

図15は、本実施形態による物体識別装置1または300の利用例を示す図である。本実施形態による物体識別装置1または300は、映像が詰まった(関連付けられた)思い出の品を使った世代間コミュニケーションツールとして用いることができる。具体的には、データの送り手である孫は、旅先で拾った貝殻などの思い出の品をテレビの前の撮像装置に置き、登録装置に対して簡単な操作をすることで、思い出の品に詰め込みたい(関連付けたい)映像を編集することができる。そして、この思い出の品を受け取った祖父母は、当該思い出の品をテレビの前の撮像装置に置くだけで、読み出し装置が動作し、思い出の品に詰められた(関連付けられた)映像を見ることができる。このようなシステムにおいて、登録装置と読み出し装置において、当該思い出の品を登録や識別する処理が必要になる。これらの処理は、一般的な家庭にあるパーソナルコンピューターや、モバイル端末などで行うことが想定される。このため、計算量が少なく、さらに、高精度な識別精度が要求される。このようなシステムにおいても、本実施形態の発明を適用することで、計算量が少なく、さらに、高精度な識別精度な識別を行うことができる。
このように、本実施形態による物体識別装置1または300は、思い出の品を置くという簡単かつ直感的な操作で動作するため、ITリテラシの低いユーザでも、ネットワークを介してデータの共有を行うことができる。
FIG. 15 is a diagram illustrating a usage example of the object identification device 1 or 300 according to the present embodiment. The object identification device 1 or 300 according to the present embodiment can be used as an intergenerational communication tool using a memorable item with a clogged image (associated). Specifically, the grandchild who is the data sender puts memorable items such as shells picked up on the trip on the imaging device in front of the TV and performs simple operations on the registration device, so You can edit the video you want to stuff (or link). Then, the grandparents who have received the memorabilia simply place the memorabilia on the imaging device in front of the television, and the reading device operates to view the video associated with the memorabilia. Can do. In such a system, it is necessary to register and identify the memorable item in the registration device and the reading device. These processes are assumed to be performed by a personal computer or a mobile terminal in a general home. For this reason, the amount of calculation is small, and furthermore, high-precision identification accuracy is required. Even in such a system, by applying the invention of the present embodiment, the amount of calculation is small, and furthermore, highly accurate identification accuracy can be performed.
As described above, the object identification device 1 or 300 according to the present embodiment operates by a simple and intuitive operation of placing memories, so that even users with low IT literacy can share data via the network. Can do.

なお、実施形態の図1および図10の各部の機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピューターシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD−ROM等の可搬媒体、USB(Universal Serial Bus) I/F(インタフェース)を介して接続されるUSBメモリー、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピューターシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
It should be noted that a program for realizing the functions of the respective units in FIG. 1 and FIG. 10 of the embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. You may process each part by. Here, the “computer system” includes an OS and hardware such as peripheral devices.
Further, the “computer system” includes a homepage providing environment (or display environment) if the WWW system is used.
“Computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM (Read Only Memory), a portable medium such as a CD-ROM, and a USB (Universal Serial Bus) I / F (interface). A storage device such as a USB memory or a hard disk built in a computer system. Furthermore, a “computer-readable recording medium” dynamically holds a program for a short time, like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. It also includes those that hold programs for a certain period of time, such as volatile memory inside computer systems that serve as servers and clients in that case. The program may be a program for realizing a part of the above-described functions, or may be a program that can realize the above-described functions in combination with a program already recorded in a computer system.

1・・・物体識別装置
2・・・カメラ
3・・・画像表示装置
11・・・外部設定値取り込み部
12・・・画像データ取り込み部
13・・・背景画像記憶部
14・・・背景差分処理部
15・・・平滑化部
16・・・二値化部
17・・・輪郭抽出部
18・・・重心算出部
19・・・内輪郭抽出部
20・・・極座標値生成部
21・・・識別部
22・・・極座標値記憶部
23・・・識別結果出力部
DESCRIPTION OF SYMBOLS 1 ... Object identification apparatus 2 ... Camera 3 ... Image display apparatus 11 ... External setting value acquisition part 12 ... Image data acquisition part 13 ... Background image storage part 14 ... Background difference Processing unit 15 ... smoothing unit 16 ... binarization unit 17 ... contour extraction unit 18 ... centroid calculation unit 19 ... inner contour extraction unit 20 ... polar coordinate value generation unit 21 ... Identification unit 22 ... polar coordinate value storage unit 23 ... identification result output unit

Claims (5)

入力画像から背景差分法で前記入力画像中に含まれる図形を抽出する背景差分処理部と、
前記背景差分処理部が抽出した図形の画像データを二値化する二値化部と、
前記二値化部が二値化した図形の画像データから輪郭データを抽出する輪郭抽出部と、
前記輪郭抽出部が抽出した輪郭データの重心位置を算出する重心算出部と、
前記輪郭抽出部が抽出した輪郭データの内側に存在する黒画素領域であって所定の面積以上の黒画素領域を抽出し、抽出した黒画素領域の内輪郭データを抽出する内輪郭抽出部と、
前記重心算出部が算出した重心位置から前記輪郭抽出部が抽出した輪郭データの最外周部までの距離及び前記重心算出部が算出した重心位置から前記内輪郭抽出部が抽出した内輪郭データの最外周部までの距離それぞれ所定の角度毎に算出して、前記輪郭データ及び前記内輪郭データを極座標表現に変換してそれぞれの極座標値を生成する極座標値生成部と、
識別対象となる図形の輪郭データの極座標値及び内輪郭データの極座標値を記憶する極座標値記憶部と
記極座標値記憶部に記憶されている輪郭データの極座標値と、前記極座標値生成部が生成した輪郭データの極座標値とを所定の角度ずつずらしながら比較し、前記極座標値記憶部に記憶されている内輪郭データの極座標値と、前記極座標値生成部が生成した内輪郭データの極座標値とを所定の角度ずつずらしながら比較することで、前記入力画像中に含まれる図形の識別を行う識別部と、
を備えることを特徴とする物体識別装置。
A background difference processing unit that extracts a figure included in the input image by a background difference method from the input image;
A binarization unit that binarizes the graphic image data extracted by the background difference processing unit;
A contour extraction unit that extracts contour data from image data of the figure binarized by the binarization unit;
A centroid calculating unit for calculating a centroid position of the contour data extracted by the contour extracting unit;
An inner contour extraction unit that extracts a black pixel region that is inside the contour data extracted by the contour extraction unit and has a predetermined area or more, and extracts inner contour data of the extracted black pixel region;
Contour data among extracted by the said contour extraction unit from the center of gravity position distance and the centroid calculating section from the center of gravity position where the center of gravity calculation unit has calculated to the outermost portion of the contour data, wherein the contour extraction unit has extracted was calculated A polar coordinate value generation unit that calculates a distance to the outermost peripheral part for each predetermined angle, converts the contour data and the inner contour data into a polar coordinate expression, and generates respective polar coordinate values;
A polar coordinate value storage unit for storing the polar coordinate value of the contour data of the figure to be identified and the polar coordinate value of the inner contour data ;
And polar value of the contour data stored before Symbol polar coordinate value storage unit, and a Gokuza target value of the contour data, wherein the polar coordinate value generating unit has generated compared while shifting by a predetermined angle, to the polar coordinate value storage unit By comparing the polar coordinate value of the stored inner contour data with the polar coordinate value of the inner contour data generated by the polar coordinate value generation unit while shifting by a predetermined angle, it is possible to identify the figure included in the input image. An identification unit to perform ,
Object identification device, characterized in that it comprises a.
前記入力画像から抽出した図形の画像データを複数の色空間成分に分離する色空間分離部と、
をさらに備え、
前記二値化部は、前記色空間分離部が分離した各色空間成分を二値化し、
前記輪郭抽出部は、前記二値化部が二値化した各色空間成分の画像データから輪郭データを抽出し、
前記極座標値記憶部に記憶されている各色空間成分の各輪郭データの極座標値と、前記極座標値生成部が生成した各色空間成分の各輪郭データの極座標表現値とを所定の角度ずつずらしながら比較し、前記入力画像中に含まれる図形の識別を行う
ことを特徴とする請求項1に記載の物体識別装置。
A color space separation unit for separating image data of a graphic extracted from the input image into a plurality of color space components;
Further comprising
The binarization unit binarizes each color space component separated by the color space separation unit,
The contour extraction unit extracts contour data from image data of each color space component binarized by the binarization unit,
The polar coordinate value of each contour data of each color space component stored in the polar coordinate value storage unit and the polar coordinate expression value of each contour data of each color space component generated by the polar coordinate value generation unit are compared while shifting by a predetermined angle. The object identification apparatus according to claim 1, wherein a figure included in the input image is identified.
前記極座標値生成部は、生成した前記極座標値の中から距離の最大値を抽出し、抽出した距離の最大値に基づいて正規化を行う
ことを特徴とする請求項1または請求項に記載の物体識別装置。
The polar coordinate value generating unit has generated to extract the maximum value of the distance among the polar coordinate values, according to claim 1 or claim 2, characterized in that normalization is performed based on the maximum value of the extracted distance Object identification device.
識別対象となる図形の輪郭データの極座標値及び内輪郭データの極座標値を記憶する極座標値記憶部を備える物体識別装置の物体識別方法において、
背景差分処理部が、入力画像から背景差分法で前記入力画像中に含まれる図形を抽出する背景差分処理工程と、
二値化部が、前記背景差分処理が抽出した図形の画像データを二値化する二値化工程と、
輪郭抽出部が、前記二値化が二値化した図形の画像データから輪郭データを抽出する輪郭抽出工程と、
重心算出部が、前記輪郭抽出が抽出した輪郭データの重心位置を算出する重心算出工程と、
内輪郭抽出部が、前記輪郭抽出部が抽出した輪郭データの内側に存在する黒画素領域であって所定の面積以上の黒画素領域を抽出し、抽出した黒画素領域の内輪郭データを抽出する内輪郭抽出工程と、
極座標値生成部が、前記重心算出が算出した重心位置から前記輪郭抽出が抽出した輪郭データの最外周部までの距離及び前記重心算出部が算出した重心位置から前記内輪郭抽出部が抽出した内輪郭データの最外周部までの距離それぞれ所定の角度毎に算出して、前記輪郭データ及び前記内輪郭データを極座標表現に変換してそれぞれの極座標値を生成する極座標値生成工程と、
識別部が、前記極座標値記憶部に記憶されている輪郭データの極座標値と、前記極座標値生成部が生成した輪郭データの極座標値とを所定の角度ずつずらしながら比較し、前記極座標値記憶部に記憶されている内輪郭データの極座標値と、前記極座標値生成部が生成した内輪郭データの極座標値とを所定の角度ずつずらしながら比較することで、前記入力画像中に含まれる図形の識別を行う識別工程と、
を有することを特徴とする物体識別方法。
In an object identification method of an object identification device comprising a polar coordinate value storage unit for storing polar coordinate values of contour data of a graphic to be identified and polar coordinate values of inner contour data ,
A background difference processing unit, a background difference processing step for extracting a figure included in the input image from the input image by a background difference method;
A binarization step for binarizing the graphic image data extracted by the background difference processing unit ;
A contour extraction step for extracting contour data from image data of the figure binarized by the binarization unit ;
A centroid calculating step of calculating a centroid position of the contour data extracted by the contour extracting unit ;
The inner contour extraction unit extracts a black pixel region that is inside the contour data extracted by the contour extraction unit and has a predetermined area or more, and extracts inner contour data of the extracted black pixel region. An inner contour extraction process;
Polar coordinate value generating portion, wherein the contour extraction unit from the center of gravity position distance and the centroid calculating section from the center of gravity position where the center of gravity calculation unit has calculated to the outermost portion of the contour data, wherein the contour extraction unit has extracted was calculated The polar coordinate value generation step of calculating the distance to the outermost peripheral portion of the extracted inner contour data for each predetermined angle, converting the contour data and the inner contour data into polar coordinate representations, and generating the respective polar coordinate values When,
Identification unit compares while shifting the polar coordinates of contour data stored in the polar coordinate value storage unit, and a Gokuza target value of the contour data, wherein the polar coordinate value generating unit has generated by a predetermined angle, the polar coordinate value A figure included in the input image by comparing the polar coordinate value of the inner contour data stored in the storage unit and the polar coordinate value of the inner contour data generated by the polar coordinate value generation unit while shifting the polar coordinate value by a predetermined angle. An identification process for identifying
An object identification method characterized by comprising:
識別対象となる図形の輪郭データの極座標値及び内輪郭データの極座標値を記憶する極座標値記憶部を備える物体識別装置のコンピューターに、
入力画像から背景差分法で前記入力画像中に含まれる図形を抽出する背景差分処理工程と、
前記背景差分処理工程により抽出された図形の画像データを二値化する二値化工程と、
前記二値化工程により二値化された図形の画像データから輪郭データを抽出する輪郭抽出工程と、
前記輪郭抽出工程により抽出された輪郭データの重心位置を算出する重心算出工程と、
前記輪郭抽出工程により抽出された輪郭データの内側に存在する黒画素領域であって所定の面積以上の黒画素領域を抽出し、抽出した黒画素領域の内輪郭データを抽出する内輪郭抽出工程と、
前記重心算出工程により算出された重心位置から前記輪郭抽出工程により抽出された輪郭データの最外周部までの距離及び前記重心算出部が算出した重心位置から前記内輪郭抽出部が抽出した内輪郭データの最外周部までの距離それぞれ所定の角度毎に算出して、前記輪郭データ及び前記内輪郭データを極座標表現に変換してそれぞれの極座標値を生成する極座標値生成工程と
記極座標値記憶部に記憶されている輪郭データの極座標値と、前記極座標値生成工程により生成され輪郭データの極座標値とを所定の角度ずつずらしながら比較し、前記極座標値記憶部に記憶されている内輪郭データの極座標値と、前記極座標値生成工程により生成された内輪郭データの極座標値とを所定の角度ずつずらしながら比較することで、前記入力画像中に含まれる図形の識別を行う識別工程と、
を実行させるための物体識別プログラム。
In the computer of the object identification device comprising a polar coordinate value storage unit for storing the polar coordinate value of the contour data of the figure to be identified and the polar coordinate value of the inner contour data ,
A background difference processing step of extracting a figure contained in the input image from the input image by a background difference method;
A binarization step of binarizing the image data of a figure that has been extracted by the background difference process,
A contour extraction step for extracting contour data from the image data of the binarized figures by the binarization process,
A centroid calculation step of calculating the center of gravity of the contour data extracted by said contour extraction step,
An inner contour extracting step of extracting a black pixel region which is present inside the contour data extracted by the contour extracting step and is a black pixel region having a predetermined area or more and extracting inner contour data of the extracted black pixel region; ,
Contour inner distance and the centroid calculating section from the center of gravity position calculated by the centroid calculating step to the outermost periphery portion of the contour data extracted by the outline extraction process is extracted by said contour extraction unit from the gravity center position calculated A polar coordinate value generation step of calculating a distance to the outermost peripheral portion of the data for each predetermined angle, converting the contour data and the inner contour data into a polar coordinate representation, and generating respective polar coordinate values ;
And polar value of the contour data stored before Symbol polar coordinate value storage unit, and a Gokuza target value of the contour data generated by the polar coordinate value generating step compares while shifting by a predetermined angle, the polar coordinate value storage unit Is compared with the polar coordinate value of the inner contour data stored in the inner coordinate data and the polar coordinate value of the inner contour data generated by the polar coordinate value generating step while shifting the predetermined contour by a predetermined angle . An identification process for identifying;
An object identification program for executing
JP2009292399A 2009-12-24 2009-12-24 Object identification device, object identification method, and object identification program Active JP4990960B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009292399A JP4990960B2 (en) 2009-12-24 2009-12-24 Object identification device, object identification method, and object identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009292399A JP4990960B2 (en) 2009-12-24 2009-12-24 Object identification device, object identification method, and object identification program

Publications (2)

Publication Number Publication Date
JP2011134065A JP2011134065A (en) 2011-07-07
JP4990960B2 true JP4990960B2 (en) 2012-08-01

Family

ID=44346735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009292399A Active JP4990960B2 (en) 2009-12-24 2009-12-24 Object identification device, object identification method, and object identification program

Country Status (1)

Country Link
JP (1) JP4990960B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5277155B2 (en) * 2009-12-25 2013-08-28 本田技研工業株式会社 Verification device, verification method, and computer program
US20140219556A1 (en) * 2011-12-29 2014-08-07 Intel Corporation Generalized robust multichannel feature detector
CN116993629B (en) * 2023-09-27 2023-12-19 福建晟哲自动化科技有限公司 Smoothing method and device based on image decomposition, electronic equipment and storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863604A (en) * 1994-08-23 1996-03-08 Sumitomo Metal Ind Ltd Image processor and its method

Also Published As

Publication number Publication date
JP2011134065A (en) 2011-07-07

Similar Documents

Publication Publication Date Title
CN106254933B (en) Subtitle extraction method and device
JP5701182B2 (en) Image processing apparatus, image processing method, and computer program
US20050196044A1 (en) Method of extracting candidate human region within image, system for extracting candidate human region, program for extracting candidate human region, method of discerning top and bottom of human image, system for discerning top and bottom, and program for discerning top and bottom
WO2017095576A1 (en) Method and system of curved object recognition using image matching for image processing
TW201437925A (en) Object identification device, method, and storage medium
JP2009070387A (en) Video processing device, method, and recording medium thereof
US10249029B2 (en) Reconstruction of missing regions of images
JP2014531097A (en) Text detection using multi-layer connected components with histograms
JP2014195148A (en) Image processing apparatus, region determination method, and computer program
JP7159384B2 (en) Image processing device, image processing method, and program
CN110807110B (en) Image searching method and device combining local and global features and electronic equipment
JP2010205067A (en) Device, method and program for extracting area
KR20130120175A (en) Apparatus, method and computer readable recording medium for generating a caricature automatically
CN108229583B (en) Method and device for fast template matching based on main direction difference characteristics
JP2018018173A (en) Image processing device, image processing method, and computer program
WO2011142313A1 (en) Object recognition device, method, program, and computer-readable medium upon which software is stored
JP4990960B2 (en) Object identification device, object identification method, and object identification program
KR101541384B1 (en) Device for Recognition of Object and method
JP5286215B2 (en) Outline extracting apparatus, outline extracting method, and outline extracting program
CN109919164B (en) User interface object identification method and device
JP2019083445A (en) Image processing apparatus, image processing method, image processing system, and program
EP2541469B1 (en) Image recognition device, image recognition method and image recognition program
JP5051671B2 (en) Information processing apparatus, information processing method, and program
JP2015060421A (en) Similar image search method, and similar image search device
CN108133204B (en) Hand body identification method, device, equipment and computer readable storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120502

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4990960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250