JP5463269B2 - Feature figure addition method, feature figure detection method, feature figure addition device, feature figure detection device, and program - Google Patents

Feature figure addition method, feature figure detection method, feature figure addition device, feature figure detection device, and program Download PDF

Info

Publication number
JP5463269B2
JP5463269B2 JP2010261716A JP2010261716A JP5463269B2 JP 5463269 B2 JP5463269 B2 JP 5463269B2 JP 2010261716 A JP2010261716 A JP 2010261716A JP 2010261716 A JP2010261716 A JP 2010261716A JP 5463269 B2 JP5463269 B2 JP 5463269B2
Authority
JP
Japan
Prior art keywords
feature
rectangle
graphic
edge
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010261716A
Other languages
Japanese (ja)
Other versions
JP2012114665A (en
Inventor
奏 山本
淳 片山
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010261716A priority Critical patent/JP5463269B2/en
Publication of JP2012114665A publication Critical patent/JP2012114665A/en
Application granted granted Critical
Publication of JP5463269B2 publication Critical patent/JP5463269B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像に図形を付与して、この図形が付与された画像を撮影した撮影画像の中から付与された図形を検出するための特徴図形付加方法、特徴図形検出方法、特徴図形付加装置、特徴図形検出装置、およびプログラムに関する。   The present invention relates to a feature figure addition method, a feature figure detection method, and a feature figure addition device for adding a figure to an image and detecting the given figure from a photographed image obtained by photographing the image to which the figure is added. , A characteristic figure detection apparatus, and a program.

処理能力の限られた端末上において、画像の中から所定の矩形や円などの図形領域を検出すための技術として、特許文献1、2および参考文献1、2に記載されている技術が知られている。
特許文献1、2の発明では、処理能力の限られた端末上で高速に矩形領域を検出するため、微小領域のフィルタを用いて画像中のエッジを探索する。エッジの探索方向と直行する方向にエッジを追跡することで辺候補を検出し、辺候補の組み合わせが矩形領域を表すかどうかを評価する方法が示されている。
As a technique for detecting a graphic region such as a predetermined rectangle or circle from an image on a terminal with limited processing capability, the techniques described in Patent Documents 1 and 2 and References 1 and 2 are known. It has been.
In the inventions of Patent Documents 1 and 2, in order to detect a rectangular area at high speed on a terminal with limited processing capability, an edge in an image is searched using a filter for a minute area. A method of detecting an edge candidate by tracing an edge in a direction orthogonal to the edge search direction and evaluating whether the combination of edge candidates represents a rectangular area is shown.

これらの技術は、写真や映像といった画像中にあらかじめ埋め込まれた電子透かしを検出するシステムにおいて、電子透かしの埋め込まれた矩形領域を検出するためにも利用されている(例えば、参考文献3、4参照)。   These techniques are also used to detect a rectangular region in which a digital watermark is embedded in a system that detects a digital watermark embedded in an image such as a photograph or video (for example, References 3 and 4). reference).

特開2005−277732号公報JP 2005-277732 A 特開2007−52670号公報JP 2007-52670 A

参考文献1:片山淳,中村高雄,山室雅司,曽根原登,電子透かし読み取りのためのiアプリ高速コーナ検出アルゴリズム,信学論D-II,Vol. J88-D-II,No. 6, pp.1035―1046, 2005Reference 1: Atsushi Katayama, Takao Nakamura, Masashi Yamamuro, Noboru Sonehara, i-αppli fast corner detection algorithm for digital watermark reading, Science theory D-II, Vol. J88-D-II, No. 6, pp. 1035-1046, 2005 参考文献2:片山淳, 北原亮, 川村春美, 小池秀樹, i アプリ用高速四辺形検出アルゴリズムSide Trace Algorithm (STA) の円形形状検出応用, 信学会全国大会, 通信講演論文集1, B-15-13, p.591 (2008).Reference 2: Satoshi Katayama, Ryo Kitahara, Harumi Kawamura, Hideki Koike, Application of high-speed quadrilateral detection algorithm for i-applis, Side Trace Algorithm (STA), circular shape detection application, IEICE National Convention, Communication Proceedings 1, B-15 -13, p.591 (2008). 参考文献3:中村高雄, 片山淳, 山室雅司, 曽根原登, カメラ付き携帯電話機を用いたアナログ画像からの高速電子透かし検出方式, 信学論D-II, Vol.J87-D-II, No.12, pp. 2145-2155, 2004.Reference 3: Takao Nakamura, Atsushi Katayama, Masashi Yamamuro, Noboru Sone, High-speed watermark detection method from analog images using a mobile phone with camera, Science theory D-II, Vol.J87-D-II, No. 12, pp. 2145-2155, 2004. 参考文献4:中村高雄, 山本奏, 北原亮, 片山淳, 安野貴之, 小池秀樹, 曽根原登,SFPSS 法に基づくリアルタイム検出可能な映像向けモバイル電子透かし, 情報処理学会論文誌, Vol.49, No.6, pp.1885-1895 (2008).Reference 4: Takao Nakamura, Kan Yamamoto, Ryo Kitahara, Kaoru Katayama, Takayuki Anno, Hideki Koike, Noboru Sone, Mobile Digital Watermark for Real-time Detectable Video Based on SFPSS Method, Transactions of Information Processing Society of Japan, Vol.49, No .6, pp.1885-1895 (2008).

しかしながら、従来技術においては以下の様に、目的の矩形領域を正しく検出できない課題が存在していた。
従来技術の課題点について、図20を参照して説明する。図20は、従来技術について説明するための図である。
従来技術においては、画像中に、目的の矩形領域(2001)とは別な矩形様の形状(2002)が存在した場合や、目的の矩形の近傍に強いエッジ成分を持つ直線(2004)が存在した場合に、これを誤って辺候補もしくは矩形候補として検出してしまう問題があった。これにより、誤った矩形領域(2003,2005)を検出してしまい、対象の図形領域の検出の精度が低下する問題があった。
However, in the prior art, there is a problem that the target rectangular area cannot be detected correctly as follows.
Problems of the prior art will be described with reference to FIG. FIG. 20 is a diagram for explaining the related art.
In the prior art, when a rectangular shape (2002) different from the target rectangular area (2001) exists in the image, or a straight line (2004) having a strong edge component in the vicinity of the target rectangle exists. In this case, there is a problem that this is erroneously detected as a side candidate or a rectangle candidate. As a result, an erroneous rectangular area (2003, 2005) is detected, and there is a problem that the accuracy of detection of the target graphic area is lowered.

本発明は、上記の点に鑑みなされたもので、対象とする図形領域以外の矩形、直線、図形等が原因となる誤検出を低減し、対象の図形領域の検出の精度を高めることできる特徴図形付加方法、特徴図形検出方法、特徴図形付加装置、特徴図形検出装置、およびプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and can reduce false detection caused by rectangles, straight lines, graphics, and the like other than the target graphic region, and can improve the accuracy of detection of the target graphic region. It is an object to provide a figure addition method, a feature figure detection method, a feature figure addition apparatus, a feature figure detection apparatus, and a program.

上述の課題を鑑み、本発明に係る特徴図形付加方法は、特徴図形を付加する対象である対象画像データを入力し、当該特徴図形が付与されている画像から前記特徴図形を検出するため前記対象画像データに前記特徴図形を付加する特徴図形付加方法において、前記対象画像データに付与する図形に応じて予め決められており、前記図形内における位置エリアに応じて画素値が異なる特徴量を決定し、当該特徴量を示す特徴量情報を出力する特徴量生成ステップと、入力する特徴量情報に基づき、前記予め決められている特徴量を含む画素値によって特徴図形を表わす特徴図形パターンを生成し、この特徴図形パターンを示す情報を出力する特徴図形パターン生成ステップと、前記対象画像データに対して前記特徴図形パターンを付与して特徴図形付加画像を作成し、当該特徴図形付与画像の画像データを出力する矩形付加ステップと、を備えることを特徴とする。   In view of the above-described problems, the feature graphic addition method according to the present invention inputs target image data to which a feature graphic is added, and detects the feature graphic from an image to which the feature graphic is added. In the feature figure addition method for adding the feature figure to the image data, a feature amount that is predetermined according to the figure to be added to the target image data and has different pixel values according to a position area in the figure is determined. A feature amount generation step for outputting feature amount information indicating the feature amount; and a feature figure pattern representing a feature figure by a pixel value including the predetermined feature amount based on the input feature amount information; A feature graphic pattern generating step for outputting information indicating the feature graphic pattern, and adding the feature graphic pattern to the target image data Create a form additional image, characterized by comprising a rectangular additional step of outputting the image data of the feature graphic imparting image.

上述の特徴図形付加方法において、前記特徴量生成ステップでは、前記特徴図形内の位置に応じて予め決められている特徴を示す複数の数値の系列により、前記特徴量を決定することを特徴とする。   In the above feature graphic adding method, the feature value generating step is characterized in that the feature value is determined by a series of a plurality of numerical values indicating characteristics predetermined according to the position in the feature graphic. .

上述の特徴図形付加方法において、前記特徴量生成ステップと前記特徴図形パターン生成ステップとを複数回行って、複数の特徴図形パターンを生成し、前記矩形付加ステップにおいて、図形が互いに近接していると認められる範囲として予め決められている近接範囲内において、前記複数の特徴図形パターンを前記対象画像データに付与して、前記特徴図形付加画像を作成することを特徴とする。   In the above-described feature figure addition method, the feature amount generation step and the feature figure pattern generation step are performed a plurality of times to generate a plurality of feature figure patterns, and in the rectangle addition step, the figures are close to each other The feature graphic additional image is created by adding the plurality of characteristic graphic patterns to the target image data within a proximity range that is predetermined as a recognized range.

上述の課題を鑑み、本発明に係る特徴図形検出方法は、特徴図形が付加されている画像の特徴図形検出対象画像データを入力し、前記特徴図形検出対象画像データから前記特徴図形を検出する特徴図形検出方法において、図形の縁に対応するエッジ候補領域を前記特徴図形検出対象画像データから検出するエッジ検出ステップと、前記エッジ候補領域に隣接するエッジ近傍領域と前記エッジ候補領域とに含まれる画素の画素値を取得する画素値取得ステップと、前記取得した画素値に基づき、前記エッジ候補領域により示される図形の特徴量を求める特徴量計算ステップと、予め決められている前記特徴図形の特徴量と、前記エッジ候補領域により示される図形の特徴量との類似性を示す評価値を算出し、前記エッジ候補領域により示される図形と前記特徴図形とが類似するか否かを前記評価値に基づき判断する特徴量評価ステップと、を備えることを特徴とする。   In view of the above-described problems, a feature graphic detection method according to the present invention is characterized by inputting feature graphic detection target image data of an image to which a feature graphic is added and detecting the feature graphic from the feature graphic detection target image data. In the graphic detection method, an edge detection step for detecting an edge candidate area corresponding to an edge of a graphic from the feature graphic detection target image data, and an edge neighboring area adjacent to the edge candidate area and a pixel included in the edge candidate area A pixel value acquisition step of acquiring a pixel value of the feature, a feature amount calculation step of obtaining a feature amount of the figure indicated by the edge candidate region based on the acquired pixel value, and a feature amount of the feature figure determined in advance And an evaluation value indicating the similarity between the feature quantity of the graphic indicated by the edge candidate area and indicated by the edge candidate area And shape and the characteristic figure is characterized in that it comprises a feature amount evaluation step of determining based on whether or not similar to the evaluation value.

上述の特徴図形検出方法の前記画素値取得ステップにおいて、前記エッジ候補領域により示される枠形状の図形の内側の縁の画素値および外側の縁の画素値、あるいは、前記エッジ候補領域により示される図形内の位置に応じて予め決められている位置の画素値を取得することを特徴とする。   In the pixel value acquisition step of the feature graphic detection method described above, the pixel values of the inner edge and the outer edge of the frame-shaped graphic indicated by the edge candidate area, or the graphic indicated by the edge candidate area The pixel value of the position decided beforehand according to the position in is acquired.

上述の特徴図形検出方法の前記特徴量計算ステップにおいて、前記エッジ候補領域により示される枠形状の図形の内側の縁の画素値および外側の縁の画素値、あるいは、前記エッジ候補領域により示される図形内の位置に応じて予め決められている位置の画素値に基づき、前記エッジ候補領域により示される図形の特徴を示す複数の数値を含む検出系列を求め、前記特徴量評価ステップにおいて、予め決められている前記特徴図形の特徴量として、前記特徴図形内の位置に応じて予め決められている特徴を示す複数の数値を含む数値系列と前記検出系列との類似度を、相関値により表わして前記評価値を算出することを特徴とする。   In the feature amount calculation step of the above-described feature figure detection method, the pixel values of the inner edge and the outer edge of the frame-shaped figure indicated by the edge candidate area, or the figure indicated by the edge candidate area A detection sequence including a plurality of numerical values indicating features of the graphic indicated by the edge candidate region is obtained based on a pixel value at a predetermined position according to a position within the position, and is determined in advance in the feature amount evaluation step. As the feature amount of the feature graphic, the similarity between the numerical series including a plurality of numerical values indicating the characteristics predetermined according to the position in the characteristic graphic and the detection series is represented by a correlation value, and An evaluation value is calculated.

上述の特徴図形検出方法の前記特徴量計算ステップにおいて、図形が互いに近接していると認められる範囲として予め決められている近接範囲内に存在する前記エッジ候補領域により示される複数の図形について、それぞれ、前記取得した画素値に基づき特徴量を求め、前記特徴量評価ステップにおいて、予め決められている組み合わせに応じた複数の前記特徴図形の特徴量と、前記エッジ候補領域により示される複数の図形の特徴量との類似性を示す評価値を算出することを特徴とする。   In the feature amount calculation step of the above-described feature figure detection method, for each of the plurality of figures indicated by the edge candidate regions existing in the proximity range determined in advance as a range in which the figures are recognized as being close to each other, The feature amount is obtained based on the acquired pixel value, and in the feature amount evaluation step, the feature amount of the plurality of feature figures according to a predetermined combination and the plurality of figures indicated by the edge candidate region An evaluation value indicating similarity to the feature amount is calculated.

上述の課題を鑑み、本発明に係る特徴図形付加装置は、特徴図形を付加する対象である対象画像データを入力し、当該特徴図形が付与されている画像から前記特徴図形を検出するため前記対象画像データに前記特徴図形を付加する特徴図形付加装置において、前記対象画像データに付与する図形に応じて予め決められており、前記図形内における位置エリアに応じて画素値が異なる特徴量を決定し、当該特徴量を示す特徴量情報を出力する特徴量生成手段と、入力する特徴量情報に基づき、前記予め決められている特徴量を有する特徴図形を表わす特徴図形パターンを生成し、この特徴図形パターンを示す情報を出力する特徴図形パターン生成手段と、前記対象画像データに対して前記特徴図形パターンを付与して特徴図形付加画像を作成し、当該特徴図形付与画像の画像データを出力する矩形付加手段とを備えることを特徴とする。   In view of the above-described problems, a feature graphic adding apparatus according to the present invention inputs target image data to which a feature graphic is added, and detects the feature graphic from an image to which the feature graphic is added. In the feature figure addition device for adding the feature figure to the image data, a feature amount that is predetermined according to the figure to be added to the target image data and has different pixel values according to the position area in the figure is determined. A feature amount generating means for outputting feature amount information indicating the feature amount; and a feature figure pattern representing the feature figure having the predetermined feature amount based on the input feature amount information; A feature graphic pattern generating means for outputting information indicating a pattern, and a feature graphic additional image is created by adding the characteristic graphic pattern to the target image data. Characterized in that it comprises a rectangular adding means for outputting the image data of the feature graphic imparting images.

上述の課題を鑑み、本発明に係る特徴図形検出装置は、特徴図形が付加されている画像の特徴図形検出対象画像データを入力し、前記特徴図形検出対象画像データから前記特徴図形を検出する特徴図形検出装置において、図形の縁に対応するエッジ候補領域を前記特徴図形検出対象画像データから検出する縁検出手段と、前記エッジ候補領域に隣接するエッジ近傍領域と前記エッジ候補領域とに含まれる画素の画素値を取得する画素値取得手段と、前記取得した画素値に基づき、前記エッジ候補領域により示される図形の特徴量を求める特徴量計算手段と、予め決められている前記特徴図形の特徴量と、前記エッジ候補領域により示される図形の特徴量との類似性を示す評価値を算出し、前記エッジ候補領域により示される図形と前記特徴図形とが類似するか否かを前記評価値に基づき判断する特徴量評価手段と、を備えることを特徴とする。   In view of the above-described problems, a feature graphic detection apparatus according to the present invention receives feature graphic detection target image data of an image to which a feature graphic is added, and detects the feature graphic from the feature graphic detection target image data. In the figure detection apparatus, an edge detection unit that detects an edge candidate area corresponding to an edge of a figure from the feature figure detection target image data, and an edge neighboring area adjacent to the edge candidate area and a pixel included in the edge candidate area A pixel value acquisition unit that acquires a pixel value of the image, a feature amount calculation unit that obtains a feature amount of the graphic indicated by the edge candidate region based on the acquired pixel value, and a feature amount of the feature graphic that is determined in advance And an evaluation value indicating a similarity between the feature amount of the graphic indicated by the edge candidate region and the graphic indicated by the edge candidate region and the feature diagram Doo is characterized by comprising a feature amount evaluation means for determining based on whether or not similar to the evaluation value.

上述の課題を鑑み、本発明に係るプログラムは、コンピュータに、上述に記載の特徴図形付加方法あるいは上述に記載の特徴図形検出方法のうち、いずれか一項に記載のステップを実行させるためのプログラムであることを特徴とする。   In view of the above-described problems, a program according to the present invention is a program for causing a computer to execute the steps described in any one of the above-described feature graphic addition method or the above-described feature graphic detection method. It is characterized by being.

本発明によれば、対象とする図形領域以外の矩形、直線、図形等が原因となる誤検出を低減し、対象の図形領域の検出の精度を高めることできる。   According to the present invention, it is possible to reduce false detection caused by rectangles, straight lines, graphics, and the like other than the target graphic area, and to increase the accuracy of detection of the target graphic area.

本発明に係る画像検出システムの構成の一例を説明するための図である。It is a figure for demonstrating an example of a structure of the image detection system which concerns on this invention. 本実施形態に係る矩形付加装置の構成の一例を説明するブロック図である。It is a block diagram explaining an example of composition of a rectangle adding device concerning this embodiment. 本実施形態に係る矩形付加装置の特徴量生成手段の構成の一例を説明するブロック図である。It is a block diagram explaining an example of a structure of the feature-value production | generation means of the rectangle addition apparatus which concerns on this embodiment. 本実施形態に係る矩形検出装置の構成の一例を説明するブロック図である。It is a block diagram explaining an example of the composition of the rectangle detecting device concerning this embodiment. 本実施形態に係る矩形検出装置の矩形特徴量計算手段の構成の一例を説明するブロック図である。It is a block diagram explaining an example of a structure of the rectangle feature-value calculation means of the rectangle detection apparatus which concerns on this embodiment. 本実施形態に係る矩形特徴量計算手段の特徴量検出手段の構成の一例を説明するブロック図である。It is a block diagram explaining an example of a structure of the feature-value detection means of the rectangular feature-value calculation means which concerns on this embodiment. 本実施形態に係る矩形検出装置の矩形特徴量評価手段の構成の一例を説明するブロック図である。It is a block diagram explaining an example of a structure of the rectangle feature-value evaluation means of the rectangle detection apparatus which concerns on this embodiment. 本実施形態に係る画像検出方法における矩形付加処理の一例を示すフローチャートである。It is a flowchart which shows an example of the rectangle addition process in the image detection method which concerns on this embodiment. 本実施形態に係る数値系列に含まれるパラメータの一例を示す図である。It is a figure which shows an example of the parameter contained in the numerical series which concerns on this embodiment. 本実施形態に係る特徴矩形図形におけるエッジ領域のそれぞれに対して数値系列を対応付けた一例を示す図である。It is a figure which shows an example which matched the numerical series with each of the edge area | region in the characteristic rectangle figure which concerns on this embodiment. 本実施形態に係る特徴矩形図形を矩形付加対象画像に付与した一例を示す図である。It is a figure which shows an example which provided the characteristic rectangular figure which concerns on this embodiment to the rectangle addition object image. 本実施形態に係る矩形検出装置による矩形検出処理の一例について説明するためのフローチャートである。It is a flowchart for demonstrating an example of the rectangle detection process by the rectangle detection apparatus which concerns on this embodiment. 本実施形態に係るエッジ追跡の一例を説明するための図である。It is a figure for demonstrating an example of the edge tracking which concerns on this embodiment. 本実施形態に係るエッジ検出フィルタの一例を説明するための図である。It is a figure for demonstrating an example of the edge detection filter which concerns on this embodiment. 本実施形態に係る画素値取得手段による画像取得の一例を説明するための図である。It is a figure for demonstrating an example of the image acquisition by the pixel value acquisition means which concerns on this embodiment. 本実施形態に係る射影変換パラメータ計算と分割位置計算の一例を説明するための図である。It is a figure for demonstrating an example of the projection transformation parameter calculation and division | segmentation position calculation which concern on this embodiment. 本実施形態に係る画素値の分割位置毎の蓄積を説明するための図である。It is a figure for demonstrating accumulation | storage for every division position of the pixel value which concerns on this embodiment. 本実施形態に係る辺検出系列を説明するための図である。It is a figure for demonstrating the edge detection series which concerns on this embodiment. 複数の矩形を多重に描画した矩形付加画像の例を示す図である。It is a figure which shows the example of the rectangle addition image which drew the several rectangle multiply. 従来技術を説明するための図である。It is a figure for demonstrating a prior art.

[第1実施形態]
以下、本発明に係る第1実施形態について説明する。第1実施形態に係る画像検出システムでは、画像中における検出対象の図形画像として、矩形の図形画像を検出する。なお、本発明に係る画像検出システムの検出対象の図形は、矩形に限らず、円等であってもよいが、本実施形態では、以下、矩形である例を用いて説明する。
本実施形態に係る画像検出システムでは、対象とする画像に対して、予め決められた所定の特徴(以下、描画特徴という)を有する矩形の図形(以下、特徴矩形図形C10という)を描画し、この特徴矩形図形C10を含む画像を撮像する。
矩形の図形に対応する領域を検出する場合、本実施形態に係る画像検出システムは、撮影により得た画像データに基づき、矩形の図形に類似する特徴を有する矩形候補を検出し、この矩形候補が、特徴矩形図形が有する描画特徴を有するか否かを判断する。なお、本発明に係る画像検出システムは、撮影により得た画像データに基づき特徴矩形図形を検出するものに限られない。例えば、特徴矩形図形の付加された画像データ(静止画)や映像データ(動画)をネットワークを通じて矩形検出装置300に配信する構成であってもよい。また、外部装置が特徴矩形図形の付加された画像を素材として利用して画像を作成し、これをネットワークを通じて矩形検出装置300に配信する構成であってもよい。
画像検出システムは、矩形候補が有する特徴量と特徴矩形図形が有する描画特徴との類似度を評価することにより、矩形候補が特徴矩形図形であることの確からしさを判定する。
[First embodiment]
The first embodiment according to the present invention will be described below. In the image detection system according to the first embodiment, a rectangular graphic image is detected as a graphic image to be detected in the image. Note that the figure to be detected by the image detection system according to the present invention is not limited to a rectangle but may be a circle or the like. In the present embodiment, an example of a rectangle will be described below.
In the image detection system according to the present embodiment, a rectangular figure (hereinafter referred to as a characteristic rectangular figure C10) having a predetermined characteristic (hereinafter referred to as a drawing characteristic) is drawn on a target image. An image including the characteristic rectangular figure C10 is captured.
When detecting an area corresponding to a rectangular figure, the image detection system according to the present embodiment detects a rectangular candidate having a feature similar to the rectangular figure based on image data obtained by shooting, and the rectangular candidate is detected. Then, it is determined whether or not the feature rectangular figure has the drawing feature. Note that the image detection system according to the present invention is not limited to one that detects a feature rectangular figure based on image data obtained by photographing. For example, the configuration may be such that image data (still image) or video data (moving image) to which a feature rectangle is added is distributed to the rectangle detection device 300 via a network. Alternatively, the external device may create an image using an image with a feature rectangle graphic added as a material, and distribute the image to the rectangle detection device 300 via a network.
The image detection system determines the likelihood that the rectangle candidate is the feature rectangle graphic by evaluating the similarity between the feature amount of the rectangle candidate and the drawing feature of the feature rectangle graphic.

矩形候補の特徴を評価するために、画像検出システムは、撮影画像から検出される矩形候補の画素値に基づき矩形候補の特徴量を算出し、算出した特徴量と矩形図形にあらかじめ付加されている所定の描画特徴の特徴量との類似性評価を行うことにより行う。
矩形に持たせる描画特徴は、矩形図形内における位置エリアに応じて画素値が異なる。例えば、矩形図形の4辺を複数個所で分割した各辺上の分割位置、各辺におけるエッジの内側と外側、画素のチャネルに応じた画素値を、所定の数値系列に従って変化させることにより、所定の特徴を持つように構成する。なお、当該明細書において、位置エリアとは、図形内における任意の位置(点)やエリア(範囲)のうち少なくとも一方の概念を表わすものである。
上述の通り、各辺上の分割位置を変更することで、境界(この場合は辺)に対し平行な方向での位置エリアを変更することができる。また、エッジの内側と外側に分けることで、境界(辺)に対し垂直な方向での位置エリアを変更することができる。
特徴量の類似性評価は、検出した矩形候補の各辺上の分割位置、辺のエッジの内側と外側、画素のチャネルに応じて取得した画素値を並べた系列と、所定の数値系列との相関計算により行う。
以下、図面とともに具体的に説明する。
In order to evaluate the feature of the rectangle candidate, the image detection system calculates the feature amount of the rectangle candidate based on the pixel value of the rectangle candidate detected from the captured image, and is added to the calculated feature amount and the rectangle figure in advance. This is performed by evaluating the similarity with the feature amount of a predetermined drawing feature.
The drawing characteristics given to the rectangles have different pixel values depending on the position area in the rectangular figure. For example, a predetermined position can be obtained by changing a division position on each side obtained by dividing the four sides of the rectangular figure at a plurality of positions, an inner side and an outer side of the edge on each side, and a pixel value according to a pixel channel according to a predetermined numerical series It is configured to have the characteristics of In this specification, the position area represents the concept of at least one of an arbitrary position (point) and area (range) in the figure.
As described above, the position area in the direction parallel to the boundary (in this case, the side) can be changed by changing the division position on each side. Further, by dividing the edge into the inside and the outside, the position area in the direction perpendicular to the boundary (side) can be changed.
The similarity evaluation of the feature amount is performed by dividing the detected rectangular candidates on each side, the inside and outside of the edge of the side, a series of pixel values acquired according to the pixel channel, and a predetermined numerical series. Perform by correlation calculation.
Hereinafter, it will be specifically described with reference to the drawings.

<第1実施形態に係る画像検出システムの構成について>
図1は、本発明に係る画像検出システムの構成の一例を説明するための図である。
図1に示す通り、本実施形態に係る画像検出システム1は、特徴図形付加装置である矩形付加装置100と、画像表示装置200と、携帯端末400に内蔵された特徴図形検出装置である矩形検出装置300から構成される。
<Configuration of Image Detection System According to First Embodiment>
FIG. 1 is a diagram for explaining an example of the configuration of an image detection system according to the present invention.
As shown in FIG. 1, the image detection system 1 according to the present embodiment includes a rectangular addition device 100 that is a feature graphic addition device, an image display device 200, and a rectangular detection that is a feature graphic detection device built in a portable terminal 400. The apparatus 300 is configured.

矩形付加装置100は、特徴矩形図形C10を付加する対象である矩形付加対象画像C11の画像データを入力する。矩形付加装置100は、予め記憶部に記憶されている情報を用いて矩形付加対象画像C11に対し特徴矩形図形C10を付加して、特徴矩形図形C10が付与された矩形付加画像C12の画像データを生成する。矩形付加装置100は、生成した矩形付加画像C12の画像データを画像表示装置200に出力する。   The rectangle adding device 100 inputs image data of a rectangle addition target image C11 that is a target to which the feature rectangle figure C10 is added. The rectangle adding device 100 adds a feature rectangle figure C10 to the rectangle addition target image C11 using information stored in advance in the storage unit, and obtains image data of the rectangle addition image C12 to which the feature rectangle figure C10 is added. Generate. The rectangle adding device 100 outputs the generated image data of the rectangle added image C12 to the image display device 200.

画像表示装置200は、矩形付加画像C12の画像データを入力し、この画像データに基づき、画面に矩形付加画像C12を表示する。画像表示装置200は、例えば液晶表示装置等のディスプレイである。
矩形検出装置300は、携帯電話やカメラ等の携帯端末400に内蔵されており、このカメラが撮影した画像データに基づき、撮像された画像の中から描画特徴を有する矩形の図形を検出する。
The image display device 200 receives the image data of the rectangular additional image C12, and displays the rectangular additional image C12 on the screen based on this image data. The image display device 200 is a display such as a liquid crystal display device.
The rectangle detection device 300 is built in a portable terminal 400 such as a mobile phone or a camera, and detects a rectangular figure having a drawing feature from the captured image based on image data captured by the camera.

次に、図2を参照して、本実施形態に係る矩形付加装置100の構成の一例について説明する。図2は、本実施形態に係る矩形付加装置100の構成の一例を説明するブロック図である。
本実施形態に係る矩形付加装置100は、特徴量生成手段101と、矩形パターン生成手段102と、矩形付加手段103と、記憶部104とを含む。この矩形付加装置100は、矩形付加対象画像C11の画像データを、有線、無線、あるいはネットワークを介して外部装置から入力し、矩形付加画像C12を出力する。
Next, an example of the configuration of the rectangle adding device 100 according to the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram illustrating an example of the configuration of the rectangle adding device 100 according to the present embodiment.
The rectangle adding apparatus 100 according to the present embodiment includes a feature amount generating unit 101, a rectangular pattern generating unit 102, a rectangle adding unit 103, and a storage unit 104. The rectangle adding device 100 inputs image data of the rectangle addition target image C11 from an external device via a wired, wireless, or network, and outputs a rectangle added image C12.

特徴量生成手段101は、記憶部104を参照して、矩形が有する描画特徴を示す描画特徴量情報D11を生成する。この特徴量生成手段101は、矩形付加対象画像C11の画像データに付与する図形に応じて予め決められており、図形内における位置エリアに応じて画素値が異なる特徴量を決定し、当該特徴量を示す描画特徴量情報D11を出力する。   The feature quantity generation unit 101 refers to the storage unit 104 and generates drawing feature quantity information D11 indicating the drawing characteristics of the rectangle. The feature quantity generation means 101 is determined in advance according to a figure to be added to the image data of the rectangle addition target image C11, determines a feature quantity having a different pixel value according to a position area in the figure, and the feature quantity The drawing feature amount information D11 indicating is output.

矩形パターン生成手段102は、特徴量生成手段101から描画特徴量情報D11を入力し、この描画特徴量情報に従い、矩形の辺上の位置や画素チャネルに応じた画素値を決定する。この矩形パターン生成手段102は、決定された画素値に基づき、描画特徴を有する特徴矩形図形の画像を示す特徴図形パターン(以下、矩形パターンという)D12を生成する。つまり、矩形パターン生成手段102は、入力する描画特徴量情報D11に基づき、予め決められている描画特徴量を含む画素値により、特徴図形を表わす矩形パターンD12を生成し、この矩形パターンD12を示す情報を出力する。   The rectangular pattern generation unit 102 receives the drawing feature amount information D11 from the feature amount generation unit 101, and determines a pixel value corresponding to the position on the side of the rectangle and the pixel channel according to the drawing feature amount information. The rectangular pattern generation unit 102 generates a feature graphic pattern (hereinafter referred to as a rectangular pattern) D12 indicating an image of a characteristic rectangular graphic having drawing characteristics based on the determined pixel value. That is, the rectangular pattern generation unit 102 generates a rectangular pattern D12 representing a feature graphic based on pixel values including a predetermined drawing feature amount based on the input drawing feature amount information D11, and indicates this rectangular pattern D12. Output information.

矩形付加手段103は、矩形付加対象画像C11の画像データと、矩形パターンD12を示す情報とを入力し、矩形パターンD12を示す情報に従って矩形付加対象画像C11に特徴矩形図形C10を描画し、矩形付加画像C12の画像データを生成する。矩形付加手段103は、この矩形付加画像C12の画像データを画像表示装置200に出力する。   The rectangle adding means 103 receives the image data of the rectangle addition target image C11 and information indicating the rectangular pattern D12, draws the feature rectangle figure C10 on the rectangle addition target image C11 according to the information indicating the rectangle pattern D12, and adds the rectangle. Image data of the image C12 is generated. The rectangle adding means 103 outputs the image data of the rectangle added image C12 to the image display device 200.

次に、図3を参照して、本実施形態に係る矩形付加装置100の特徴量生成手段101の構成の一例について説明する。図3は、本実施形態に係る矩形付加装置100の特徴量生成手段101の構成の一例を説明するブロック図である。
特徴量生成手段101は、埋め込み系列生成手段111を備える。
この埋め込み系列生成手段111は、矩形を特徴付ける所定の数値系列を生成し、描画特徴量情報D11として生成した数値系列を出力する。この数値系列は、特徴図形内の位置エリアに応じて予め決められている特徴を示す複数の数値の系列である。
Next, an example of the configuration of the feature quantity generation unit 101 of the rectangle adding apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 3 is a block diagram illustrating an example of the configuration of the feature amount generation unit 101 of the rectangle adding device 100 according to the present embodiment.
The feature quantity generation unit 101 includes an embedded sequence generation unit 111.
The embedded sequence generation unit 111 generates a predetermined numerical sequence characterizing the rectangle, and outputs the generated numerical sequence as the drawing feature amount information D11. This numerical series is a series of a plurality of numerical values indicating features predetermined according to the position area in the feature graphic.

次に、図4を参照して、本実施形態に係る矩形検出装置300の構成の一例について説明する。図4は、本実施形態に係る矩形検出装置300の構成の一例を説明するブロック図である。
本実施形態に係る矩形検出装置300は、エッジ検出手段である辺候補検出手段301と、矩形候補算出手段302と、矩形特徴量計算手段303と、矩形特徴量評価手段304とを含む。この矩形検出装置300は、例えば、携帯端末400に搭載されているカメラによって撮影された画像データを、矩形検出対象画像C14の画像データとして入力する。この携帯端末400に搭載されているカメラは、画像表示装置200に表示された矩形付加画像C12を撮像して、この矩形画像検出画像C14の画像データを矩形検出装置300に出力する。
この矩形検出装置300は、入力する矩形画像検出画像C14に基づき、描画特徴を有する特徴矩形図形C10に類似する矩形の画像を検出する矩形検出処理を行う。矩形検出装置300は、矩形検出処理の結果を示す矩形検出結果C15を出力する。
Next, an example of the configuration of the rectangular detection device 300 according to the present embodiment will be described with reference to FIG. FIG. 4 is a block diagram illustrating an example of the configuration of the rectangle detection apparatus 300 according to the present embodiment.
The rectangle detection apparatus 300 according to the present embodiment includes an edge candidate detection unit 301 that is an edge detection unit, a rectangle candidate calculation unit 302, a rectangle feature amount calculation unit 303, and a rectangle feature amount evaluation unit 304. The rectangle detection apparatus 300 inputs, for example, image data captured by a camera mounted on the mobile terminal 400 as image data of the rectangle detection target image C14. The camera mounted on the portable terminal 400 captures the rectangular additional image C12 displayed on the image display device 200, and outputs the image data of the rectangular image detection image C14 to the rectangular detection device 300.
The rectangle detection apparatus 300 performs a rectangle detection process for detecting a rectangular image similar to the feature rectangle figure C10 having a drawing feature based on the input rectangle image detection image C14. The rectangle detection device 300 outputs a rectangle detection result C15 indicating the result of the rectangle detection process.

辺候補検出手段301は、矩形検出対象画像C14の画像データを例えば携帯端末400に内蔵されているカメラから入力し、矩形検出対象画像C14の画像データを解析する。この辺候補検出手段301は、矩形検出対象画像C14から直線部分を検出し、この直線を矩形の図形の辺に類似する辺候補を示す情報D31を、矩形候補算出手段302に出力する。なお、辺候補を示す情報D31は、図形の縁に対応するエッジ候補領域の画素値を示す情報である。   The edge candidate detection unit 301 inputs image data of the rectangular detection target image C14 from, for example, a camera built in the portable terminal 400, and analyzes the image data of the rectangular detection target image C14. The side candidate detection unit 301 detects a straight line portion from the rectangular detection target image C14 and outputs information D31 indicating a side candidate similar to the side of the rectangular figure to the rectangle candidate calculation unit 302. The information D31 indicating the edge candidate is information indicating the pixel value of the edge candidate area corresponding to the edge of the figure.

矩形候補算出手段302は、辺候補を示す情報D31を入力し、この辺候補の中から、矩形を構成する可能性のある組み合わせを矩形候補として決定する。この矩形候補算出手段302は、この矩形候補を示す情報D32を矩形特徴量計算手段303に出力する。   The rectangle candidate calculation unit 302 inputs information D31 indicating a side candidate, and determines a combination that may form a rectangle as a rectangle candidate from the side candidates. The rectangle candidate calculation unit 302 outputs information D32 indicating the rectangle candidate to the rectangle feature amount calculation unit 303.

矩形特徴量計算手段303は、矩形候補算出手段302から矩形候補を示す情報D32と、携帯端末400に内蔵されているカメラから矩形検出対象画像C14を示す画像データとを入力し、矩形候補の矩形特徴量を計算する。この矩形特徴量計算手段303は、各矩形候補に対応する矩形特徴を示す矩形特徴量D33を、矩形特徴量評価手段304に出力する。   The rectangle feature amount calculation unit 303 inputs the information D32 indicating the rectangle candidate from the rectangle candidate calculation unit 302 and the image data indicating the rectangle detection target image C14 from the camera built in the portable terminal 400, and the rectangle candidate rectangle. Calculate features. The rectangular feature quantity calculation unit 303 outputs a rectangular feature quantity D33 indicating a rectangular feature corresponding to each rectangle candidate to the rectangular feature quantity evaluation unit 304.

矩形特徴量評価手段304は、矩形特徴量D33を入力し、矩形特徴量D33と描画特徴量との類似性を評価して、最も適切な矩形を決定し、矩形検出結果C15を出力する。
この矩形特徴量評価手段304は、例えば、矩形特徴量D33と描画特徴量との類似性を示す評価値を算出し、両者が類似している範囲として予め決められている閾値範囲内に評価値が入っているか否かを判断する。
算出した評価値が閾値範囲内に入っていれば、矩形特徴量評価手段304は、この矩形特徴量D33を有する矩形候補D32が検出対象であることを示す矩形検出結果C15(結果:矩形検出あり)を例えば外部出力装置に出力する。本実施形態において、矩形特徴量評価手段304は、矩形検出結果C15(結果:矩形検出あり)として、検出対象であると判定された矩形候補D22と、この矩形候補D22に対応する矩形検出対象画像C14の画像データとを出力する。
The rectangular feature quantity evaluation unit 304 receives the rectangular feature quantity D33, evaluates the similarity between the rectangular feature quantity D33 and the drawing feature quantity, determines the most appropriate rectangle, and outputs the rectangle detection result C15.
The rectangular feature quantity evaluation unit 304 calculates, for example, an evaluation value indicating the similarity between the rectangular feature quantity D33 and the drawing feature quantity, and the evaluation value falls within a threshold range that is predetermined as a range in which both are similar. It is determined whether or not.
If the calculated evaluation value falls within the threshold range, the rectangular feature amount evaluation unit 304 determines that the rectangle candidate D32 having the rectangular feature amount D33 is a detection target. ) For example to an external output device. In the present embodiment, the rectangular feature amount evaluation unit 304 uses, as the rectangle detection result C15 (result: with rectangle detection), the rectangle candidate D22 determined to be a detection target and the rectangle detection target image corresponding to this rectangle candidate D22. C14 image data is output.

一方、算出した評価値が閾値範囲内に入っていない場合、矩形特徴量評価手段304は、この矩形特徴量D33を有する矩形候補D32が検出対象でないことを示す矩形検出結果C15(結果:矩形検出なし)を出力する。本実施形態において、矩形特徴量評価手段304は、矩形検出結果C15(結果:矩形検出なし)を出力する代わりに、検出対象でないと判定された矩形候補D32と、この矩形候補D32に対応する矩形検出対象画像C14の画像データとを出力しない。   On the other hand, when the calculated evaluation value does not fall within the threshold range, the rectangular feature value evaluation unit 304 determines that the rectangle candidate D32 having the rectangular feature value D33 is not a detection target, a rectangle detection result C15 (result: rectangle detection). None) is output. In this embodiment, instead of outputting the rectangle detection result C15 (result: no rectangle detection), the rectangle feature amount evaluation unit 304 and the rectangle candidate D32 determined not to be a detection target and the rectangle corresponding to the rectangle candidate D32 The image data of the detection target image C14 is not output.

次に、図5を参照して、本実施形態に係る矩形検出装置300の矩形特徴量計算手段303の構成の一例について説明する。図5は、本実施形態に係る矩形検出装置300の矩形特徴量計算手段303の構成の一例を説明するブロック図である。
本実施形態に係る矩形特徴量計算手段303は、エッジ追跡手段331と、画素値取得手段332と、特徴量計算手段333を含む。この矩形特徴量計算手段303は、矩形特徴量候補算出手段302から矩形候補D32を示す情報と、携帯端末400のカメラから矩形検出対象画像C14の画像データとを入力する。この矩形特徴量計算手段103は、この矩形候補D32を示す情報と矩形検出対象画像C14の画像データに基づき、矩形候補D32の特徴を示す矩形特徴量D33を生成し、この矩形特徴量D33を、矩形特徴量評価手段304に出力する。
Next, an example of the configuration of the rectangular feature amount calculation unit 303 of the rectangular detection device 300 according to the present embodiment will be described with reference to FIG. FIG. 5 is a block diagram illustrating an example of the configuration of the rectangular feature amount calculation unit 303 of the rectangular detection device 300 according to the present embodiment.
The rectangular feature amount calculation unit 303 according to the present embodiment includes an edge tracking unit 331, a pixel value acquisition unit 332, and a feature amount calculation unit 333. The rectangular feature amount calculation unit 303 receives information indicating the rectangle candidate D32 from the rectangular feature amount candidate calculation unit 302 and image data of the rectangular detection target image C14 from the camera of the portable terminal 400. Based on the information indicating the rectangle candidate D32 and the image data of the rectangle detection target image C14, the rectangle feature amount calculation unit 103 generates a rectangle feature amount D33 indicating the feature of the rectangle candidate D32. The result is output to the rectangular feature amount evaluation unit 304.

エッジ追跡手段331は、矩形候補を示す情報D32を入力し、矩形を構成する各辺候補を辺と平行な方向に走査し、辺のエッジ位置を検出して、検出したエッジ座標を示す情報D34を出力する。   The edge tracking unit 331 inputs information D32 indicating a rectangle candidate, scans each side candidate constituting the rectangle in a direction parallel to the side, detects the edge position of the side, and information D34 indicating the detected edge coordinates. Is output.

画素値取得手段332は、エッジ座標を示す情報D34に基づき、矩形検出対象画像C14から検出したエッジ位置において、エッジの内側と外側の各点の画素値を示す情報D35を取得する。この画素値取得手段332は、このエッジの内側と外側の各点の画素値を示す情報D35を特徴量計算手段333に出力する。つまり、画素値取得手段332は、エッジ候補領域に隣接するエッジ近傍領域とエッジ候補領域とに含まれる画素の画素値を示す情報D35を取得する。   Based on the information D34 indicating edge coordinates, the pixel value acquisition unit 332 acquires information D35 indicating the pixel value of each point inside and outside the edge at the edge position detected from the rectangular detection target image C14. The pixel value acquisition unit 332 outputs information D35 indicating the pixel value of each point inside and outside the edge to the feature amount calculation unit 333. That is, the pixel value acquisition unit 332 acquires information D35 indicating pixel values of pixels included in the edge vicinity region and the edge candidate region adjacent to the edge candidate region.

特徴量計算手段333は、このエッジの内側と外側の各点の画素値を示す情報D35を内蔵するメモリに蓄積する。この特徴量計算手段333は、辺に対する特徴量を計算し、各辺の特徴量を統合した矩形特徴量D33を計算する。つまり、特徴量計算手段333は、矩形候補を示す情報D32、エッジ座標を示す情報D34、および画素値を示す情報D35に基づき、エッジ候補領域(辺候補に対応する領域)により示される図形の特徴量を求める。   The feature quantity calculation means 333 accumulates information D35 indicating the pixel value of each point inside and outside the edge in a built-in memory. The feature quantity calculation means 333 calculates a feature quantity for each side, and calculates a rectangular feature quantity D33 obtained by integrating the feature quantities for each side. In other words, the feature amount calculation means 333 is based on information D32 indicating a rectangle candidate, information D34 indicating edge coordinates, and information D35 indicating a pixel value, and the feature of the figure indicated by the edge candidate region (region corresponding to the side candidate). Find the amount.

次に、図6を参照して、本実施形態に係る矩形特徴量計算手段303の特徴量検出手段333構成の一例について説明する。図6は、本実施形態に係る矩形特徴量計算手段303の特徴量検出手段333の構成の一例を説明するブロック図である。   Next, an example of the configuration of the feature amount detection unit 333 of the rectangular feature amount calculation unit 303 according to the present embodiment will be described with reference to FIG. FIG. 6 is a block diagram illustrating an example of the configuration of the feature amount detection unit 333 of the rectangular feature amount calculation unit 303 according to the present embodiment.

本実施形態に係る特徴量計算手段333は、変換パラメータ計算手段3331と、分割位置計算手段3332と、辺検出系列計算手段3333と、検出系列統合手段3334を含む。この特徴量検出手段333は、矩形候補を示す情報D32と、エッジ座標を示す情報D34と、画素値を示す情報D35とを入力し、矩形特徴量として検出系列を出力する。   The feature amount calculation unit 333 according to the present embodiment includes a conversion parameter calculation unit 3331, a division position calculation unit 3332, an edge detection series calculation unit 3333, and a detection series integration unit 3334. The feature amount detection means 333 receives information D32 indicating a rectangle candidate, information D34 indicating edge coordinates, and information D35 indicating a pixel value, and outputs a detection series as a rectangle feature amount.

変換パラメータ計算手段3331は、矩形候補の辺上の座標を矩形の分割位置を表す座標値に変換する変換パラメータを計算する。
分割位置計算手段3332は、得られた変換パラメータを用いてエッジ座標を変換し、辺上の分割位置を計算する。
辺検出系列計算手段3333は、検出した辺上の各点の画素値を分割位置毎に蓄積し、辺に対する辺検出系列を計算する。
検出系列統合手段3334は、辺毎の辺検出系列を統合し、矩形全体の検出系列を算出する。
The conversion parameter calculation means 3331 calculates a conversion parameter for converting the coordinates on the sides of the rectangle candidates into coordinate values representing the rectangular division positions.
The division position calculation means 3332 converts the edge coordinates using the obtained conversion parameter, and calculates the division position on the side.
The edge detection series calculation means 3333 accumulates the pixel values of each point on the detected edge for each division position, and calculates an edge detection series for the edge.
The detection sequence integration unit 3334 integrates the side detection sequences for each side and calculates a detection sequence for the entire rectangle.

次に、図7を参照して、本実施形態に係る矩形検出装置300の矩形特徴量評価手段304構成の一例について説明する。図7は、本実施形態に係る矩形検出装置300の矩形特徴量評価手段304の構成の一例を説明するブロック図である。
本実施形態に係る矩形特徴量評価手段304は、埋め込み特徴量計算手段341と、特徴量類似度計算手段342と、特徴量類似度比較手段343とを含む。
この矩形特徴量評価手段304は、矩形特徴量D33として、特徴量計算手段333の検出系列統合手段3334が出力する検出系列D39を入力し、矩形検出結果D40を出力する。
Next, an example of the configuration of the rectangular feature amount evaluation unit 304 of the rectangular detection device 300 according to the present embodiment will be described with reference to FIG. FIG. 7 is a block diagram illustrating an example of the configuration of the rectangular feature amount evaluation unit 304 of the rectangular detection device 300 according to the present embodiment.
The rectangular feature quantity evaluation unit 304 according to the present embodiment includes an embedded feature quantity calculation unit 341, a feature quantity similarity calculation unit 342, and a feature quantity similarity comparison unit 343.
This rectangular feature quantity evaluation means 304 receives the detection series D39 output from the detection series integration means 3334 of the feature quantity calculation means 333 as the rectangular feature quantity D33, and outputs a rectangular detection result D40.

埋め込み特徴量計算手段341は、目的の矩形が持っているべき特徴量情報として埋め込み系列D41を計算する。
特徴量類似度計算手段342は、各矩形候補から得られた検出系列と埋め込み系列の類似度D42を計算する。
特徴量類似度比較手段343は、各矩形候補に対して得られた類似度を比較し、最も適切な矩形を決定する。
The embedded feature amount calculation means 341 calculates an embedded sequence D41 as feature amount information that the target rectangle should have.
The feature amount similarity calculation unit 342 calculates the similarity D42 between the detection series obtained from each rectangular candidate and the embedded series.
The feature amount similarity comparison unit 343 compares the similarities obtained for the respective rectangle candidates, and determines the most appropriate rectangle.

次に、図8を参照して、本実施形態に係る画像検出方法における矩形付加処理の一例について説明する。図8は、本実施形態に係る画像検出方法における矩形付加処理の一例を示すフローチャートである。
図8に示す通り、矩形付加装置100は、矩形付加対象画像C12の画像データを入力する(ステップST1)。この工程を、以下、矩形付加対象画像入力ステップという。
次いで、矩形付加装置100は、矩形付加対象画像C14の画像データに対し、所定の描画特徴を持つ特徴矩形画像を付加し、矩形付加画像C12を生成する(ステップST2)。この工程を、以下、特徴量生成ステップという。
そして、矩形付加装置100の矩形パターン生成手段102は、特徴量生成ステップST2において特徴量生成手段101(埋め込み系列生成手段111)が生成した特徴量情報D11である数値系列に従い、矩形の辺上の分割位置や画素チャネルに応じた画素値を決定し、決定した画素値によって表わされる特徴矩形図形を示す特徴図形パターンを生成する(ステップST3)。この工程を、以下、矩形パターン生成ステップという。
次いで、矩形付加装置100の矩形付加手段103が、矩形パターン生成手段102により生成された矩形パターンD12に従って矩形付加対象画像C11に特徴矩形図形C10を描画する(ステップST4)。この工程を、以下、矩形付加ステップという。
Next, an example of rectangle addition processing in the image detection method according to the present embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of a rectangle addition process in the image detection method according to the present embodiment.
As shown in FIG. 8, the rectangle adding apparatus 100 inputs image data of the rectangle addition target image C12 (step ST1). This process is hereinafter referred to as a rectangle addition target image input step.
Next, the rectangle adding apparatus 100 adds a feature rectangle image having a predetermined drawing feature to the image data of the rectangle addition target image C14, and generates a rectangle addition image C12 (step ST2). This process is hereinafter referred to as a feature quantity generation step.
Then, the rectangular pattern generation unit 102 of the rectangle adding device 100 follows the numerical sequence that is the feature amount information D11 generated by the feature amount generation unit 101 (embedded sequence generation unit 111) in the feature amount generation step ST2, and is on the side of the rectangle. A pixel value corresponding to the division position and the pixel channel is determined, and a feature graphic pattern indicating a feature rectangular graphic represented by the determined pixel value is generated (step ST3). This process is hereinafter referred to as a rectangular pattern generation step.
Next, the rectangle adding unit 103 of the rectangle adding apparatus 100 draws the feature rectangle figure C10 on the rectangle addition target image C11 in accordance with the rectangular pattern D12 generated by the rectangle pattern generating unit 102 (step ST4). This process is hereinafter referred to as a rectangle adding step.

<特徴量生成ステップST2>
次に、図9を参照して、図8に示すステップST2の特徴量生成ステップについて詳細に説明する。図9は、本実施形態に係る矩形付加装置100による特徴量生成ステップの一例を説明するための図である。
<Feature Quantity Generation Step ST2>
Next, the feature quantity generation step of step ST2 shown in FIG. 8 will be described in detail with reference to FIG. FIG. 9 is a diagram for explaining an example of the feature amount generation step by the rectangle adding device 100 according to the present embodiment.

特徴量生成ステップST2では、特徴量生成手段101が、記憶部104に記憶されてる情報を参照して、付加する矩形が持つべき特徴量情報を生成する。
本実施例の特徴量生成ステップST2では、埋め込み系列生成手段111が、矩形を特徴付ける所定の数値系列を生成する。
In the feature quantity generation step ST2, the feature quantity generation unit 101 refers to the information stored in the storage unit 104 and generates the feature quantity information that should be included in the rectangle to be added.
In the feature value generation step ST2 of this embodiment, the embedded sequence generation unit 111 generates a predetermined numerical sequence that characterizes a rectangle.

埋め込み系列生成手段111は、数値系列の長さを、以下の式(1)に従って決定する。なお、式(1)において、Nは、矩形を構成する4辺のうちの任意の1辺を分割する分割数である。cは、特徴量として用いる画素値のチャネル数である。なお、辺のエッジの内側と外側の2通りである。   The embedded sequence generation unit 111 determines the length of the numerical sequence according to the following equation (1). In Equation (1), N is the number of divisions for dividing any one of the four sides constituting the rectangle. c is the number of channels of pixel values used as feature quantities. Note that there are two ways of the inner edge and the outer edge of the side.

Figure 0005463269
Figure 0005463269

埋め込み系列生成手段111は、矩形を構成する4辺のうちの任意の1辺に対応する描画特徴量情報D11を示す数値系列の長さを、式(1)に示す値と定める。
なお、4辺全体に対応する数値系列の長さLは、各辺の分割数をそれぞれN、N、N、Nとすると、以下に示す式(2)で表わすことができる。
The embedded sequence generation unit 111 determines the length of the numerical sequence indicating the drawing feature amount information D11 corresponding to an arbitrary one of the four sides constituting the rectangle as the value shown in the equation (1).
Note that the length L of the numerical sequence corresponding to the entire four sides can be expressed by the following equation (2), where N 1 , N 2 , N 3 , and N 4 are the number of divisions for each side.

Figure 0005463269
Figure 0005463269

ここで、分割数N{各辺の分割数N、N、N、N}および画素値のチャネル数cは、矩形付加装置100と矩形検出装置300とが共有する値であり、1以上の整数であればよい。また、これら分割数N{各辺の分割数N、N、N、N}および画素値のチャネル数cは、矩形付加対象画像C11、矩形検出対象画像C14、および画像表示装置200の解像度や画素の条件、画像表示装置200と携帯端末400との距離、携帯端末400の備えるカメラの画角など、想定される撮影環境や条件に応じてあらかじめ決定しておく。 Here, the division number N {number of divisions N 1 , N 2 , N 3 , N 4 } of each side and the channel number c of the pixel value are values shared by the rectangle adding device 100 and the rectangle detecting device 300, Any integer greater than or equal to 1 is acceptable. Further, the division number N {division number N 1 , N 2 , N 3 , N 4 } of each side and the channel number c of the pixel value are the rectangular addition target image C11, the rectangular detection target image C14, and the image display device 200. Resolution and pixel conditions, the distance between the image display device 200 and the mobile terminal 400, the angle of view of the camera provided in the mobile terminal 400, and the like, are determined in advance according to the assumed shooting environment and conditions.

また、分割数Nの上限としては、例えば、矩形付加対象画像C11、矩形検出対象画像C14、および画像表示装置200の解像度が、矩形を構成する4辺のうちの任意の1辺の長手方向に対応する画素数がW画素であるならば、W画素よりも細かく辺を分割することは、画素値に反映されない分割位置が生じ無意味である。このため、分割数Nの上限はWと考えてもよい。   The upper limit of the division number N is, for example, that the resolution of the rectangular addition target image C11, the rectangular detection target image C14, and the image display device 200 is in the longitudinal direction of any one of the four sides constituting the rectangle. If the corresponding number of pixels is W pixels, dividing the sides more finely than W pixels results in a division position that is not reflected in the pixel value and is meaningless. For this reason, the upper limit of the division number N may be considered as W.

具体的には、例えば、矩形付加装置100および矩形検出装置300の利用が想定される環境条件下で、分割数Nを下限値1〜上限値Wの間で変化させて、矩形の付加、検出の結果を評価する。目的の矩形の検出に成功する検出成功率が最大、もしくは十分な精度の高さ(例えば検出成功確率80%以上)になるような分割数Nを実験的に予め求めておき、分割数N、各辺の分割数N、N、N、N、および画素値のチャネル数cをユーザが決定してもよい。 Specifically, for example, a rectangle is added and detected by changing the number of divisions N between a lower limit value 1 and an upper limit value W under an environmental condition in which use of the rectangle adding device 100 and the rectangle detecting device 300 is assumed. Evaluate the results. A division number N is determined experimentally in advance so that the detection success rate for successful detection of the target rectangle is maximized or sufficiently accurate (for example, a detection success probability of 80% or more). The user may determine the number of divisions N 1 , N 2 , N 3 , N 4 for each side and the channel number c of the pixel value.

なお、本実施形態において、画素値のチャネル数cは、矩形付加対象画像C11の色が白黒であるか、カラーであるか、あるいは、色の表次元方法に応じて異なる。例えば、矩形付加対象画像がモノクロ画像である場合はチャネル数c=1である。カラー画像である場合において、画素のR,G,Bの値を用いる場合や、画素のY,Cb,Crの値、H,S,Vの値を用いる場合はチャネル数c=3である。また、画素のCb値のみを用いる場合は、チャネル数c=1になる。   In the present embodiment, the channel number c of the pixel value differs depending on whether the color of the rectangular addition target image C11 is black and white, color, or the color table dimension method. For example, when the rectangular addition target image is a monochrome image, the number of channels c = 1. In the case of a color image, the number of channels c = 3 when the R, G, and B values of the pixels are used, or when the Y, Cb, and Cr values and H, S, and V values of the pixels are used. When only the Cb value of the pixel is used, the channel number c = 1.

埋め込み系列生成手段111は、数値系列の生成において、擬似乱数列を用いてもよいし、あらかじめ矩形検出装置300と共有する数値列を用いてもよい。
疑似乱数列を用いる場合、埋め込み系列生成手段111は、例えば、疑似乱数のシード値を矩形検出装置300と共有しておけばよい。この共有とは、例えば、同じ擬似乱数のシード値を、埋め込み系列生成手段111と矩形検出装置300の記憶部に予め記憶させておくことをいう。
The embedded sequence generation unit 111 may use a pseudo-random number sequence or a numerical sequence shared with the rectangle detection apparatus 300 in advance in generating a numerical sequence.
When using a pseudo-random number sequence, the embedded sequence generation unit 111 may share the pseudo-random number seed value with the rectangle detection device 300, for example. This sharing means, for example, that the same pseudo-random seed value is stored in advance in the storage unit of the embedded sequence generation unit 111 and the rectangle detection device 300.

擬似乱数列を用いる場合、埋め込み系列生成手段111は、例えば、{1;−1}をとる長さLの擬似乱数列として、以下(3)に示す値の数値列を用いてもよい。   In the case of using a pseudo-random number sequence, the embedded sequence generation unit 111 may use, for example, a numerical sequence of values shown in (3) below as a length L pseudo-random number sequence taking {1; -1}.

Figure 0005463269
Figure 0005463269

この擬似乱数列として、埋め込み系列生成手段111は、例えばM系列やGOLD系列を用いて生成するようにしてもよい。
あらかじめ、矩形検出装置300と共有する数値列を用いる場合には、例えば、{1,−1,1,−1・・・}と示すように、1,−1を繰り返すような数値列を用いてもよい。
As this pseudo-random number sequence, the embedded sequence generation unit 111 may generate, for example, an M sequence or a GOLD sequence.
When using a numerical sequence shared with the rectangle detection apparatus 300 in advance, for example, a numerical sequence that repeats 1, -1 is used, as shown by {1, -1,1, -1. May be.

また、埋め込み系列生成手段111は、所定の関数f(x)を用い、以下(4)に示す値の数値列を用いてもよい。   Further, the embedded sequence generation unit 111 may use a predetermined function f (x) and use a numerical string of values shown in (4) below.

Figure 0005463269
Figure 0005463269

所定の関数として三角関数を用いた数値列の例を、式(5)に示す。   An example of a numerical sequence using a trigonometric function as the predetermined function is shown in Expression (5).

Figure 0005463269
Figure 0005463269

また、埋め込み系列生成手段111は、所定の関数として、入力値xに対して、数値系列のx番目の要素の値f(x)を決定する様な任意の関数を用いてもよい。
生成した数値列を、矩形が持つべき特徴量情報とする。
In addition, the embedded sequence generation unit 111 may use an arbitrary function that determines the value f (x) of the xth element of the numerical sequence for the input value x as the predetermined function.
The generated numerical sequence is the feature amount information that the rectangle should have.

<矩形パターン生成ステップST3>
次に、矩形パターン生成ステップについて詳細に説明する。
矩形パターン生成ステップST3では、矩形パターン生成手段102が、特徴量生成ステップST2において特徴量生成手段101(埋め込み系列生成手段111)が生成した特徴量情報D11である数値系列に従い、矩形の辺上の分割位置や画素チャネルに応じた画素値を決定し、決定した画素値によって表わされる特徴矩形図形を示す特徴図形パターンを生成する。
<Rectangle pattern generation step ST3>
Next, the rectangular pattern generation step will be described in detail.
In the rectangular pattern generation step ST3, the rectangular pattern generation unit 102 follows the numerical sequence that is the feature amount information D11 generated by the feature amount generation unit 101 (embedded series generation unit 111) in the feature amount generation step ST2 on the side of the rectangle. A pixel value corresponding to the division position and the pixel channel is determined, and a feature graphic pattern indicating a feature rectangular graphic represented by the determined pixel value is generated.

STEP301:
始めに、矩形パターン生成手段102は、特徴量生成ステップST2で埋め込み系列生成手段111が生成した数値系列mを、矩形の各辺上の分割位置、辺のエッジの内側と外側、画素のチャネルに対応付けるよう、順に並べる。
STEP301:
First, the rectangular pattern generating means 102, a numerical sequence m i of the embedding sequence generation unit 111 is generated by the feature value generating step ST2, the divided positions on each side of the rectangular, inner and outer sides of the edges, the channel of the pixel Arrange them in order so that they correspond to each other.

ここで、図9を参照して説明する。図9は、数値系列に含まれる、矩形の各辺上の分割位置、辺のエッジの内側と外側、画素のチャネル等の一例を示す図である。図9には、特徴矩形図形を構成する4辺のうち任意の1辺のみを抜き出した辺図形Pを示す。なお、辺図形Pは、矩形特徴図形を構成する1辺を太さのある細長い長方形の図形であるとみなして表わした図形である。
図9に示す通り、矩形パターン生成手段102は、特徴矩形図形の辺図形Pを辺図形Pの長手方向に分割数Nで分割し、この辺図形Pを特徴矩形図形の辺の短手方向に内側と外側それぞれ分割して、N×2のエッジ領域P〜PN×2を決定する。
Here, it demonstrates with reference to FIG. FIG. 9 is a diagram illustrating an example of division positions on each side of the rectangle, inner and outer sides of the edges of the sides, pixel channels, and the like included in the numerical series. FIG. 9 shows a side figure P in which only one arbitrary side is extracted from the four sides constituting the characteristic rectangular figure. The side figure P is a figure that represents one side constituting the rectangular feature figure as a long and narrow rectangular figure having a thickness.
As shown in FIG. 9, the rectangular pattern generation unit 102 divides the side figure P of the feature rectangular figure by the division number N in the longitudinal direction of the side figure P, and the side figure P is arranged in the short direction of the side of the feature rectangular figure. And N × 2 edge regions P 1 to P N × 2 are determined.

そして、図9には、矩形パターン生成手段102が、このエッジ領域P〜PN×2のそれぞれに対して、画素のY,Cb,Crの3チャネル毎に、数値系列{m|1≦i≦6N}を対応付けした例を示している。 In FIG. 9, the rectangular pattern generation unit 102 applies a numerical sequence {m i | 1 for each of the three channels Y, Cb, and Cr of the pixels for each of the edge regions P 1 to P N × 2. An example in which ≦ i ≦ 6N} is associated is shown.

矩形パターン生成手段102は、これを4辺に対し行う。このようにして、矩形パターン生成手段102が矩形全体の例を、図10に示す。図10は、特徴矩形図形におけるエッジ領域のそれぞれに対して、画素のY,Cb,Crの3チャネル毎に、数値系列を対応付けた一例を示す。   The rectangular pattern generation means 102 performs this for the four sides. FIG. 10 shows an example in which the rectangular pattern generation unit 102 thus forms an entire rectangle. FIG. 10 shows an example in which a numerical series is associated with each of the edge regions in the feature rectangle figure for each of the three channels Y, Cb, and Cr of the pixel.

矩形パターン生成手段102は、矩形全体に対して、上述の処理を行う。つまり、矩形パターン生成手段102は、特徴矩形図形の辺図形Pを構成する辺図形P1、P2、P3、P4を、それぞれ辺図形P1、P2、P3、P4の長手方向に分割数N、N、N、Nで分割し、かつ、辺図形P1、P2、P3、P4の短手方向にそれぞれのエッジの内側と外側分割する。この矩形パターン生成手段102は、各辺図形P1、P2、P3、P4を分割することにより、エッジ領域P1〜P1N1×2、P2〜P2N2×2、P3〜P3N3×2、P4〜P4N4×2を得て、これらに対して、画素のY,Cb,Crの3チャネル毎の数値系列{m|1≦i≦6(N+N+N+N)}を対応付ける対応付けを行う。 The rectangular pattern generation unit 102 performs the above processing on the entire rectangle. That is, the rectangular pattern generation means 102 divides the side figures P1, P2, P3, and P4 constituting the side figure P of the feature rectangular figure into the number of divisions N 1 and N in the longitudinal direction of the side figures P1, P2, P3, and P4, respectively. 2 , N 3 , and N 4 , and inside and outside of each edge in the short direction of the side figures P 1, P 2, P 3, and P 4. The rectangular pattern generation unit 102 divides each of the side figures P1, P2, P3, and P4 to thereby obtain edge regions P1 1 to P1 N1 × 2 , P2 1 to P2 N2 × 2 , P3 1 to P3 N3 × 2 , P4 1 to P4 N4 × 2 are obtained, and for these, a numerical series {m i | 1 ≦ i ≦ 6 (N 1 + N 2 + N 3 + N 4 )} for every three channels Y, Cb, and Cr of the pixel Perform the association to associate.

なお、図10は、N=N=N=N=Nである場合の例を表している。
また、図10に通り、例えば(m,m,m)は、Yチャネルの値に対応する値がm、Cbチャネルの値に対応する値がm、Crチャネルの値に対応する値がmであることを表している。
FIG. 10 illustrates an example in which N 1 = N 2 = N 3 = N 4 = N.
Further, as shown in FIG. 10, for example, (m 1 , m 2 , m 3 ) corresponds to the value corresponding to the Y channel value m 1 , the value corresponding to the Cb channel value m 2 , and the value corresponding to the Cr channel. The value to be expressed is m 3 .

図10では、矩形パターン生成手段102が、埋め込み系列生成手段111によって生成された数値系列を矩形の各位置(エッジ領域)に対応付けるために、順に並べる形としたが、この順序はこれ以外のどのような順序であってもかまわない。例えば、矩形検出装置300と共有する疑似乱数に従い、対応付けの位置をランダムに決定するようにしてもよいし、一つ置きにとびとびに対応位置を決定するようにしてもかまわない。この他の所定の順序で並べるようにされていてもよい。   In FIG. 10, the rectangular pattern generation unit 102 arranges the numerical series generated by the embedded series generation unit 111 in order in order to correspond to each position (edge area) of the rectangle. The order may be as follows. For example, in accordance with a pseudo-random number shared with the rectangle detection device 300, the corresponding positions may be determined randomly, or every other corresponding position may be determined. It may be arranged in another predetermined order.

STEP302:
次いで、矩形パターン生成手段102は、矩形の各位置(エッジ領域)に対応付けられた数値系列の値に従い、その位置の画素値を決定する。具体的には、矩形パターン生成手段102が、エッジの内側と外側に対しそれぞれ基準の画素値を設定し、その値に数値系列の値を重みづけ加算することで画素値を決定する。
Y,Cb,Crの3チャネルを用いる場合を例に以下に説明する。
矩形パターン生成手段102は、エッジの内側に対するY,Cb,Crの基準値を、それぞれ、以下の(6)に示す値とする。
STEP302:
Next, the rectangular pattern generation unit 102 determines a pixel value at that position in accordance with the value of the numerical series associated with each position (edge region) of the rectangle. Specifically, the rectangular pattern generation unit 102 sets a reference pixel value for each of the inside and outside of the edge, and determines the pixel value by weighting and adding the value of the numerical series to the value.
An example in which three channels of Y, Cb, and Cr are used will be described below.
The rectangular pattern generation unit 102 sets the reference values of Y, Cb, and Cr for the inside of the edge to values shown in the following (6).

Figure 0005463269
Figure 0005463269

また、矩形パターン生成手段102は、エッジの外側に対するY,Cb,Crの基準値を、それぞれ、以下の(7)に示す値とする。   Further, the rectangular pattern generation means 102 sets the reference values of Y, Cb, and Cr for the outside of the edge to values shown in the following (7).

Figure 0005463269
Figure 0005463269

矩形パターン生成手段102は、特徴矩形図形の辺図形Pにおけるエッジをエッジとして描画するため、1つ以上のチャネルのエッジの内外の基準値の差が、予め決められた所定の範囲となるようにする。例えば、輝度Yの値がエッジの内側で大きく、外側で小さくなるようにすれば、図10の例のように内側が白く、外側が黒い矩形を描画することとなる。逆に輝度Yの値がエッジの内側で小さく、外側で大きくなるようにすれば、内側が黒く、外側が白い矩形を描画することとなる。同様に、矩形パターン生成手段102は、例えば、内側と外側で色が異なるようなにしてもかまわない。   Since the rectangular pattern generation unit 102 draws the edge of the side figure P of the characteristic rectangular figure as an edge, the difference between the reference values inside and outside the edge of one or more channels is within a predetermined range. To do. For example, if the value of the luminance Y is large on the inside of the edge and small on the outside, a rectangle having a white inside and a black outside is drawn as in the example of FIG. Conversely, if the value of the luminance Y is small on the inside of the edge and large on the outside, a rectangle with the black inside and the white outside is drawn. Similarly, the rectangular pattern generation unit 102 may have different colors on the inner side and the outer side, for example.

また、矩形パターン生成手段102は、1つのチャネルでエッジの内外の基準値が所定の差を持つようにして、当該チャネルのエッジで辺を検出するようにすれば、他のチャネルについてはエッジの内外の基準値が同じ値をとるようにしてもよい。例えば、Y,Cb,Crの各チャネルの値が0〜255の値をとる場合を例に説明すると、矩形パターン生成手段102は、輝度Yについてエッジの内外の基準値が差を持つように設定し、Cb,Crについてはエッジの内外の基準値を、それぞれ127とするように設定してもよい。   In addition, if the rectangular pattern generation unit 102 detects a side at the edge of the channel so that the reference value inside and outside the edge has a predetermined difference in one channel, the edge of the other channel is detected. The internal and external reference values may take the same value. For example, the case where the values of the Y, Cb, and Cr channels take values from 0 to 255 will be described as an example. The rectangular pattern generation unit 102 sets the reference value for the luminance Y so that there is a difference between the reference values inside and outside the edge. However, for Cb and Cr, the reference values inside and outside the edge may be set to 127 respectively.

エッジの内外の基準値の間の差は、後述する矩形検出装置300における辺候補検出ステップおよびエッジ追跡ステップにおけるエッジ検出フィルタを用いたエッジ成分の判定において、フィルタの演算結果が、エッジ成分を持つと判定される閾値を超えるような差を持つように予め決められている。ただし、携帯端末400のカメラによる画像撮影により、矩形付加時点での画素値の差が矩形検出対象画像での画素値にはノイズが付加されることを考慮する必要がある。   The difference between the reference values inside and outside the edge is that the calculation result of the filter has an edge component in the edge component determination using the edge detection filter in the edge candidate detection step and the edge tracking step in the rectangle detection apparatus 300 described later. Is determined in advance so as to have a difference that exceeds a threshold value determined as. However, it is necessary to consider that noise is added to the pixel value in the rectangular detection target image due to the difference between the pixel values at the time of adding the rectangle due to image capturing by the camera of the mobile terminal 400.

具体的には、矩形パターン生成手段102は、例えば画素値が0〜255の値をとる際にエッジの内外の基準値の差が50〜255などの値をとるようにして矩形を付加し、矩形検出装置300において適切な矩形検出精度を持つように閾値を実験的に求めればよい。   Specifically, the rectangular pattern generation unit 102 adds a rectangle so that, for example, when the pixel value takes a value of 0 to 255, the difference between the reference values inside and outside the edge takes a value such as 50 to 255, The threshold value may be obtained experimentally so that the rectangle detection apparatus 300 has appropriate rectangle detection accuracy.

この矩形パターン生成手段102は、辺上の位置(エッジ領域)xにおける内側点のY,Cb,Cr毎に対応付けられた数値系列の値を、それぞれ、以下(8)に示す値とする。   The rectangular pattern generation unit 102 sets the values of the numerical series associated with each of Y, Cb, and Cr of the inner point at the position (edge region) x on the side as the values shown in (8) below.

Figure 0005463269
Figure 0005463269

また、矩形パターン生成手段102は、辺上の位置(エッジ領域)xにおける外側点のY,Cb,Cr毎に対応付けられた数値系列の値を、それぞれ、以下(9)に示す値とする。   Also, the rectangular pattern generation unit 102 sets the values of the numerical series associated with the outer points Y, Cb, and Cr at the position (edge region) x on the side as the values shown in (9) below. .

Figure 0005463269
Figure 0005463269

このとき、矩形パターン生成手段102は、辺上の位置(エッジ領域)xにおける内側点のY,Cb,Crの画素値Zin [Y]、Zin [Cb]、Zin [Cr]をそれぞれ、以下の式(10)に示す値とする。 At this time, the rectangular pattern generation means 102 obtains the pixel values Z in [Y] , Z in [Cb] , and Z in [Cr] of the inner points Y, Cb, and Cr at the position (edge region) x on the side, respectively. The value is shown in the following formula (10).

Figure 0005463269
Figure 0005463269

また、矩形パターン生成手段102は、辺上の位置(エッジ領域)xにおける外側点のY,Cb,Crの画素値Zout [Y]、Zout [Cb]、Zout [Cr]をそれぞれ、以下の式(11)に示す値とする。 Further, the rectangular pattern generation unit 102 obtains the pixel values Z out [Y] , Z out [Cb] , and Z out [Cr] of the outer points Y, Cb, and Cr at the position (edge region) x on the side, The value is shown in the following formula (11).

Figure 0005463269
Figure 0005463269

ここでαとβは、予め決められた埋め込みの強さを決定するパラメータである。なお、矩形パターン生成手段102は、αとβをチャネルごとの人の視覚特性に応じて、それぞれ異なる値α[Y]、α[Cb]、α[Cr]、β[Y]、β[Cb]、β[Cr]を用いるようにしてもよい。 Here, α and β are parameters for determining a predetermined embedding strength. Note that the rectangular pattern generation unit 102 sets α and β to different values α [Y] , α [Cb] , α [Cr] , β [Y] , β [Cb according to the human visual characteristics for each channel. ] And β [Cr] may be used.

具体例として、矩形パターン生成手段102は、例えば、画素値が0〜255の範囲をとり、数値系列の値が−1〜+1の範囲をとるときに、Cin [Y]=223、Cout [Y]=32、Cin [Cb]=Cout [Cb]=Cin [Cr]=Cout [Cr]=127とし、αとβの値が1〜32の値をとるようにしてもよい。 As a specific example, for example, the rectangular pattern generation unit 102 takes C in [Y] = 223, C out when the pixel value ranges from 0 to 255 and the numerical value series ranges from −1 to +1. [Y] = 32, C in [Cb] = C out [Cb] = C in [Cr] = C out [Cr] = 127, and α and β take values from 1 to 32. Good.

この場合、例えばα=β=32であれば、矩形パターン生成手段102は、矩形パターンの内側点の画素値と、矩形パターンの外側点の画素値が、以下の(12)(13)に示す範囲で変動するように決定する。   In this case, for example, if α = β = 32, the rectangular pattern generation unit 102 indicates that the pixel value of the inner point of the rectangular pattern and the pixel value of the outer point of the rectangular pattern are shown in (12) and (13) below. Decide to vary in range.

矩形パターンの内側点の画素値

Figure 0005463269
Pixel value of inner point of rectangular pattern
Figure 0005463269

矩形パターンの外側点の画素値

Figure 0005463269
Pixel value of outer point of rectangular pattern
Figure 0005463269

また、矩形パターン生成手段102は、αとβの値を、矩形の分割位置毎の色の変化が人にとって視覚的に気づきにくくなるように設定してもよく、画素値の範囲の5%以内の値とするようにして、矩形パターンの画素値の変動の幅を小さくするようにしてもよい。
矩形パターン生成手段102は、上記のように矩形パターンを生成することで、特徴矩形図形が数値系列で表現される所定の特徴を持つようになすことができる。
Further, the rectangular pattern generation means 102 may set the values of α and β so that the color change at each rectangular division position is not easily noticeable by humans, and is within 5% of the pixel value range. The width of the fluctuation of the pixel value of the rectangular pattern may be made small.
The rectangular pattern generation unit 102 can generate the rectangular pattern as described above, so that the characteristic rectangular figure has a predetermined characteristic represented by a numerical series.

なお、上記では、矩形パターン生成手段102がY,Cb,Crの3チャネルの色空間を用いた矩形付加パターンを生成する例について説明したが、この他の色空間を用いても構わない。例えば、R,G,B(R:赤、G: 緑、B:青)やH,S,V(H:色相、S:彩度、V:明度)の色空間であってもよいし、XYZ表色系やL*a*b*表色系の色空間であってもよい。   In the above description, an example in which the rectangular pattern generation unit 102 generates a rectangular additional pattern using a three-channel color space of Y, Cb, and Cr has been described. However, other color spaces may be used. For example, the color space may be R, G, B (R: red, G: green, B: blue) or H, S, V (H: hue, S: saturation, V: lightness) The color space may be an XYZ color system or L * a * b * color system.

<矩形付加ステップST4>
矩形付加ステップST4では、矩形付加手段103が、矩形パターン生成手段102が生成した矩形パターンに従って矩形付加対象画像C11に特徴矩形図形C10を描画する。矩形付加手段103による矩形の描画は、例えば次のような手順で実現できる。
ここで、特徴矩形図形C10の各辺は、あらかじめ決められた画素の幅として内側辺の幅Winと外側辺の幅Woutを持つものとし、図11の様な形状を有する。また、各辺や縁の内側、外側と言った場合は、この内側辺(白色部分)と外側辺(黒色部分)の境界に対する内側、外側を指す。つまり、特徴矩形図形C11は、枠上の矩形図形であって、その内側が白色かつ外側が黒色の模様を持つ。
<Rectangle addition step ST4>
In the rectangle addition step ST4, the rectangle addition unit 103 draws the feature rectangle figure C10 on the rectangle addition target image C11 according to the rectangle pattern generated by the rectangle pattern generation unit 102. Drawing of a rectangle by the rectangle adding unit 103 can be realized by the following procedure, for example.
Here, each side of the feature rectangular shape C10, it is assumed that the width of the predetermined pixels with a width W out of the width W in the outer edges of the inner sides, having such shape of FIG. In addition, the term “inside and outside of each side or edge” refers to the inside and outside of the boundary between the inside side (white portion) and the outside side (black portion). That is, the characteristic rectangular figure C11 is a rectangular figure on the frame, and has a white pattern on the inside and a black pattern on the outside.

以下、矩形付加手段103による矩形付加手段103
STEP401:
矩形付加手段103は、矩形付加対象画像C11上の画素を1つ選択する。
STEP402:
矩形付加手段103は、選択した画素の座標が描画したい矩形の辺上にあるかどうかを判定する。
STEP403:
矩形付加手段103は、選択した画素の座標が矩形の辺上にない場合、矩形付加画像の当該座標の画素値として、矩形付加対象画像の画素の値を出力し、STEP406に進む
STEP404:
矩形付加手段103は、選択した画素の座標が矩形の辺上にある場合、画素の座標に対応する矩形上の辺の分割位置および内側、外側の種別を計算する。
Hereinafter, the rectangle adding means 103 by the rectangle adding means 103 is used.
STEP 401:
The rectangle adding unit 103 selects one pixel on the rectangle addition target image C11.
STEP402:
The rectangle adding means 103 determines whether the coordinates of the selected pixel are on the side of the rectangle to be drawn.
STEP403:
If the coordinate of the selected pixel is not on the side of the rectangle, the rectangle adding unit 103 outputs the value of the pixel of the rectangle addition target image as the pixel value of the coordinate of the rectangle added image, and proceeds to STEP 406. STEP 404:
When the coordinates of the selected pixel are on the side of the rectangle, the rectangle adding unit 103 calculates the division position and the inside and outside types of the side on the rectangle corresponding to the pixel coordinate.

STEP405:
矩形付加手段103は、矩形付加画像の当該座標の画素値として、矩形パターンの中のSTEP404で得られた位置の画素の値を出力する
STEP406:
矩形付加手段103は、矩形付加対象画像C11の全ての画素を走査するまで、STEP401〜405を繰り返す。なお、矩形付加手段103による矩形の描画はこの他にも、例えば直線を描画するブレゼンハムアルゴリズムを用い、描画する画素の位置に対応する矩形パターン上の位置に応じて画素値を設定するようにしてもよい。
また、矩形付加手段103は、矩形付加対象画像の全体が、矩形付加画像C12上で、内側辺の内側に収まるように、拡大縮小処理を行いながら矩形付加を行うようにしてもよい。
STEP405:
The rectangle adding means 103 outputs the value of the pixel at the position obtained in STEP 404 in the rectangular pattern as the pixel value of the coordinate of the rectangle added image. STEP 406:
The rectangle adding unit 103 repeats STEPs 401 to 405 until all the pixels of the rectangle addition target image C11 are scanned. In addition to the rectangle drawing by the rectangle adding means 103, for example, the Bresenham algorithm for drawing a straight line is used, and the pixel value is set according to the position on the rectangular pattern corresponding to the position of the pixel to be drawn. Also good.
Further, the rectangle adding unit 103 may perform the rectangle addition while performing the enlargement / reduction process so that the entire rectangle addition target image fits inside the inner side on the rectangle addition image C12.

また、矩形付加手段103は、描画する矩形が視覚的に目立ちにくくするため、STEP405において、矩形付加画像の当該座標の画素値として、矩形パターンの中のSTEP404で得られた位置の画素値を出力する代わりに、矩形パターンの中のSTEP404で得られた位置の画素値と、矩形付加対象画像の画素値をαブレンド(すなわち所定の重みづけをして加算した値)した値を出力するようにしてもよい。
例えば、矩形パターンの中のSTEP404で得られた位置の画素の値をx、矩形付加対象画像の画素の値yとして、出力する画素値zは、以下の式(14)で表わすことができる。
Further, the rectangle adding unit 103 outputs the pixel value at the position obtained in STEP 404 in the rectangular pattern as the pixel value of the coordinate of the rectangle added image in STEP 405 so that the rectangle to be drawn is not visually noticeable. Instead, the pixel value at the position obtained in STEP 404 in the rectangular pattern and the pixel value of the rectangular addition target image are α blended (that is, a value obtained by adding a predetermined weight), and a value is output. May be.
For example, assuming that the value of the pixel at the position obtained in STEP 404 in the rectangular pattern is x and the value y of the pixel of the rectangular addition target image, the output pixel value z can be expressed by the following equation (14).

Figure 0005463269
Figure 0005463269

また、矩形付加手段103は、αの値を画素の座標によって変化させるようにして、例えば画像の内側に行くほど矩形付加対象画像の画素の重みが大きくなるようにしてもよい。
ここで、αの値は0〜1.0の値をとり、α=0の場合は矩形付加対象画像の画素値yをzとして、α〜1.0の場合は矩形パターンの画素値xをzとして、α=0.5の場合は矩形付加対象画像と矩形パターンを50%ずつ混合した画素値をzとして出力する。
In addition, the rectangle adding unit 103 may change the value of α according to the coordinates of the pixels so that, for example, the weight of the pixels of the rectangle addition target image increases toward the inside of the image.
Here, the value of α takes a value of 0 to 1.0. When α = 0, the pixel value y of the rectangular addition target image is set to z, and when α is 1.0 to 1.0, the pixel value x of the rectangular pattern is set. As z, when α = 0.5, a pixel value obtained by mixing the rectangular addition target image and the rectangular pattern by 50% is output as z.

<画像出力ステップST5>
画像出力ステップST5において、矩形付加手段103は、矩形付加ステップST4で生成した矩形付加画像C12を処理の結果として画像表示装置200に出力する。
<Image output step ST5>
In the image output step ST5, the rectangle adding means 103 outputs the rectangle added image C12 generated in the rectangle adding step ST4 to the image display device 200 as a result of the processing.

<画像値の決定方法>
矩形パターン生成手段102による矩形パターンの画素値の決定方法について、以下説明する。
記憶部104は、矩形パターン生成ステップST3で用いる、エッジの内側に対するY,Cb,Crの基準値Cin [Y]、Cin [Cb]、Cin [Cr]、およびエッジの外側に対するY,Cb,Crの基準値Cout [Y]、Cout [Cb]、Cout [Cr]について、前述の矩形パターン生成ステップST3の説明で示した考え方によって矩形パターン生成手段102が決定する画素値を、それぞれあらかじめ保存しておくものであってもよい。この場合、矩形パターン生成手段102は、矩形パターン生成ステップST3において、記憶部104を参照して矩形パターンを構成する画素値を決定する。
<Method for determining image values>
A method for determining the pixel value of the rectangular pattern by the rectangular pattern generation unit 102 will be described below.
The storage unit 104 uses Y, Cb, Cr reference values C in [Y] , C in [Cb] , C in [Cr] for the inside of the edge and Y, C for the outside of the edge used in the rectangular pattern generation step ST3. For the reference values C out [Y] , C out [Cb] , and C out [Cr] of Cb and Cr, the pixel values determined by the rectangular pattern generation unit 102 according to the concept described in the description of the rectangular pattern generation step ST3 described above are used. These may be stored in advance. In this case, the rectangular pattern generation means 102 determines the pixel value which comprises a rectangular pattern with reference to the memory | storage part 104 in rectangular pattern generation step ST3.

また、矩形パターン生成手段102は、埋め込みの強さαとβの値や、数値系列のとりうる値の範囲に応じ、画素値の値が所定の範囲を超えない最大値、最小値となるように基準値を決定するようにしてもよい。
具体的には、矩形パターン生成手段102は、例えば、数値系列が−wmax,・・・,+wmaxの値をとり、埋め込みの強さα=βで、画素値のとりうる範囲がcmin,・・・,cmaxである場合、内側と外側の基準値Cin、Coutの値を、以下の式(15)に示すように決定してもよい。
In addition, the rectangular pattern generation unit 102 sets the pixel value to a maximum value and a minimum value that do not exceed a predetermined range according to the values of the embedding strengths α and β and the range of values that the numerical series can take. Alternatively, the reference value may be determined.
Specifically, for example, the rectangular pattern generation unit 102 takes a value of −w max ,..., + W max as the numerical series, the embedding strength α = β, and the range of possible pixel values is c min. ,..., C max , the inner and outer reference values C in and C out may be determined as shown in the following equation (15).

Figure 0005463269
Figure 0005463269

ここでは、矩形パターン生成手段102は、内側の画素がcmaxを超えない範囲での最大値、外側の画素がcminを下回らない範囲での最小値となるようにしている。
例えば、cmin=0、cmax=255で、α=β=8、wmax=1であれば、Cin=247、Cout=8となる。
Here, the rectangular pattern generation means 102 is set to a maximum value in a range where the inner pixel does not exceed c max and a minimum value in a range where the outer pixel does not fall below c min .
For example, if c min = 0, c max = 255, α = β = 8, and w max = 1, C in = 247 and C out = 8.

また、矩形パターン生成手段102は、例えば、矩形パターンとして生成する画素のチャネルとは別な色空間での画素値が所定の範囲を超えないように基準値を決定するようにしてもよい。チャネルがY,Cb,CrのときにR,G,B空間での画素値が所定の範囲を超えないように基準値を決定する例を示す。
ここで、Y,Cb,CrとR,G,Bの色空間の変換係数が、以下の式(16)に示す場合を例に説明する。
In addition, the rectangular pattern generation unit 102 may determine the reference value so that the pixel value in a color space different from the channel of the pixel generated as a rectangular pattern does not exceed a predetermined range, for example. An example in which the reference value is determined so that the pixel value in the R, G, B space does not exceed a predetermined range when the channel is Y, Cb, Cr.
Here, the case where the conversion coefficients of the Y, Cb, Cr and R, G, B color spaces are represented by the following equation (16) will be described as an example.

Figure 0005463269
Figure 0005463269

この場合、矩形パターン生成手段102は、Y,Cb,Crの各チャネルで数値系列が−wmax,・・・,+wmaxの値をとり、埋め込みの強さα=βで、R,G,Bの値のとりうる範囲がcmin,・・・,cmaxである場合、例えば、以下の式(17)とすることで、R,G,Bの値が所定の範囲を超えずにYの値が最大となるようにできる。 In this case, the rectangular pattern generation means 102 takes the values of −w max ,..., + W max for each of Y, Cb, and Cr channels, and R, G, When the possible range of the value of B is c min ,..., C max , for example, by setting the following expression (17), the values of R, G, B do not exceed the predetermined range, and Y The value of can be maximized.

Figure 0005463269
Figure 0005463269

<第1実施形態に係る矩形検出手順>
次に、図12を参照して、本実施形態に係る矩形検出装置300による矩形検出処理の一例について説明する。図12は、本実施形態に係る矩形検出装置300による矩形検出処理の一例について説明するためのフローチャートである。
<Rectangle detection procedure according to the first embodiment>
Next, an example of a rectangle detection process performed by the rectangle detection apparatus 300 according to this embodiment will be described with reference to FIG. FIG. 12 is a flowchart for explaining an example of a rectangle detection process by the rectangle detection apparatus 300 according to this embodiment.

本実施形態に係る矩形検出装置300では、矩形検出対象画像C14から得られた矩形候補が、特徴矩形図形に対して予め与えられている特徴を持っているかどうかを評価することにより、矩形候補の確からしさを判定する。
図12は、矩形検出装置300による矩形検出処理の手順を示すフローチャートである。
In the rectangle detection apparatus 300 according to the present embodiment, a rectangle candidate obtained from the rectangle detection target image C14 is evaluated by determining whether or not the rectangle candidate has a feature given in advance to the feature rectangle figure. Determine the certainty.
FIG. 12 is a flowchart illustrating a procedure of rectangle detection processing by the rectangle detection apparatus 300.

次に、図12を参照して、本実施形態に係る画像検出方法における矩形検出処理の一例について説明する。図12は、本実施形態に係る画像検出方法における矩形検出処理の一例を示すフローチャートである。
図12に示す通り、矩形検出装置300は、矩形検出の対象である矩形検出対象画像C14の画像データを入力する(ステップST11)。この工程を、以下、矩形検出対象画像入力ステップという。
Next, an example of rectangle detection processing in the image detection method according to the present embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an example of a rectangle detection process in the image detection method according to the present embodiment.
As shown in FIG. 12, the rectangle detection apparatus 300 inputs image data of a rectangle detection target image C14 that is a rectangle detection target (step ST11). This process is hereinafter referred to as a rectangle detection target image input step.

<辺候補検出ステップ>
次いで、矩形検出装置300の辺候補検出手段301は、矩形検出対象画像C14を解析し、矩形の縁を検出する(ステップST12)。この工程を、以下、辺候補検出ステップという。
辺候補検出手段301は、辺候補となる直線を検出することで矩形における縁の検出を行う。
辺候補検出手段301による辺候補となる直線の検出には、例えば、特許文献1や参考文献1の手法を用いて行うことで高速な検出が可能である。
<Edge candidate detection step>
Next, the edge candidate detection unit 301 of the rectangle detection apparatus 300 analyzes the rectangle detection target image C14 and detects the edge of the rectangle (step ST12). This process is hereinafter referred to as an edge candidate detection step.
The edge candidate detection unit 301 detects edges in a rectangle by detecting straight lines that are edge candidates.
The detection of a straight line as a side candidate by the side candidate detection unit 301 can be performed at a high speed by using, for example, the methods of Patent Literature 1 and Reference Literature 1.

具体的には、例えば次のような手順を行うことができる。
STEP1201:
辺候補検出手段301は、矩形検出対象画像C14における画像中心点を探索開始点とする。
ここで、探索開始点としては、画像中心点以外の、例えば、画像の中心付近における中心点以外の座標であってもよい。また例えば、複数のフレーム画像からなる映像に対する矩形検出の場合には、直前のフレームで検出された矩形の中心付近の座標、例えば矩形の頂点の重心点や、矩形の対角線の交点を辺候補検出手段301が求め、これを探索開始点として用いてもよい。
Specifically, for example, the following procedure can be performed.
STEP1201:
The edge candidate detection unit 301 uses the image center point in the rectangular detection target image C14 as a search start point.
Here, the search start point may be a coordinate other than the image center point, for example, a coordinate other than the center point near the center of the image. In addition, for example, in the case of rectangle detection for a video composed of a plurality of frame images, edge candidate detection is performed on coordinates near the center of the rectangle detected in the immediately preceding frame, for example, the center of gravity of the vertex of the rectangle or the intersection of the diagonal of the rectangle. Means 301 may be obtained and used as a search start point.

STEP1202:
辺候補検出手段301は、上下左右の各探索方向に探索位置を移動する。
STEP1203:
辺候補検出手段301は、探索位置の周囲の領域にエッジ検出フィルタを適用し、探索位置がエッジ成分を持つかどうかを判定する。
STEP1204:
辺候補検出手段301は、エッジ成分を持つと判断した場合、そのときの探索位置をエッジ追跡開始点とする。
STEP1202:
The edge candidate detection unit 301 moves the search position in each of the upper, lower, left, and right search directions.
STEP1203:
The edge candidate detection unit 301 applies an edge detection filter to a region around the search position, and determines whether the search position has an edge component.
STEP 1204:
If the edge candidate detection unit 301 determines that the edge component has an edge component, the search position at that time is set as an edge tracking start point.

STEP1205:
辺候補検出手段301は、探索方向と直行する方向(例えば、探索方向が上方向の場合は左右の方向)にエッジ追跡位置を移動する。
STEP1206:
辺候補検出手段301は、エッジ追跡位置の近傍の各点に対し、周囲の領域にエッジ検出フィルタを適用し、エッジ追跡位置の近傍点のいずれかがエッジ成分を持つかどうかを判定する。
STEP1207:
辺候補検出手段301は、エッジ成分を持つと判断した場合は、近傍点の中で最もエッジ成分の強い点をエッジ追跡位置としSTEP1205〜1206を繰り返す。エッジ成分を持たないと判断した場合、辺候補検出手段301は、直前のエッジ追跡位置を辺の端点として記憶する。
辺候補検出手段301は、STEP1205〜1207を、エッジ追跡開始点から見た辺の両方向(例えば、探索方向が上方向の場合は左右の方向) について行い、辺の両側の端点を得る。
STEP 1205:
The edge candidate detection unit 301 moves the edge tracking position in a direction orthogonal to the search direction (for example, the left and right directions when the search direction is upward).
STEP 1206:
The edge candidate detection unit 301 applies an edge detection filter to the surrounding area for each point near the edge tracking position, and determines whether any of the points near the edge tracking position has an edge component.
STEP 1207:
If the edge candidate detection unit 301 determines that the edge component has an edge component, the point 1205 to 1206 is repeated with the point having the strongest edge component among the neighboring points as the edge tracking position. When it is determined that the edge component is not included, the side candidate detecting unit 301 stores the immediately preceding edge tracking position as the end point of the side.
The edge candidate detection unit 301 performs STEPs 1205 to 1207 in both directions of the edge viewed from the edge tracking start point (for example, the left and right directions when the search direction is upward) to obtain end points on both sides of the edge.

STEP1208:
辺候補検出手段301は、探索位置が画像の端に到達していなければ、STEP1202に戻り処理を繰り返す。
この結果、辺候補検出手段301は、辺候補を表す情報として、
・)当該辺候補のエッジをはじめに検出したエッジ追跡開始点、
・)当該辺候補の追跡を終了した両側の端点座標、)
・当該辺候補を検出した探索方向を、辺候補の数だけ得る。
STEP1208:
If the search position has not reached the end of the image, the edge candidate detection unit 301 returns to STEP 1202 and repeats the process.
As a result, the edge candidate detection unit 301 has information as the edge candidate as
・) Edge tracking start point that first detected the edge of the corresponding side candidate,
・) The coordinates of the endpoints on both sides that have finished tracking the candidate,)
-The search direction which detected the said edge candidate is obtained by the number of edge candidates.

辺候補検出手段301は、得られた辺候補に対して、検出できた辺の長さ(例えば両側の端点座標間の距離や、エッジ追跡が可能であった回数など)や、検出できたエッジ成分の強度(例えば、エッジ検出フィルタの結果の値の大きさの平均値や累積値など)によって、十分な長さや強度を持つ辺候補だけを残し、他を棄却するようにしてもかまわない。
ここで示した辺候補検出の例は一例であり、矩形検出対象画像中の直線成分を検出する方法であればこれ以外の方法を用いてもかまわない。例えば、辺候補検出手段301は、ハフ変換(参考文献5参照)を利用して直線の検出を行ってもかまわない。
<参考文献5>:高木幹雄監修, 新編画像解析ハンドブック, pp.1254-1258, ISBN4-
13-061119-4, 東京大学出版会(2004).
The edge candidate detecting unit 301 detects, for the obtained edge candidate, the length of the detected edge (for example, the distance between the end point coordinates on both sides, the number of times edge tracking was possible, etc.) and the detected edge Depending on the intensity of the component (for example, the average value or cumulative value of the value of the result of the edge detection filter), it is possible to leave only the edge candidates having sufficient length and intensity and reject others.
The example of edge candidate detection shown here is only an example, and any other method may be used as long as it is a method for detecting a linear component in a rectangular detection target image. For example, the edge candidate detection unit 301 may detect a straight line using Hough transform (see Reference 5).
<Reference 5>: Supervision by Mikio Takagi, New Image Analysis Handbook, pp.1254-1258, ISBN4-
13-061119-4, University of Tokyo Press (2004).

なお、辺候補検出手段301は、上記のSTEP1201、1202において、画像中心点を探索開始点とし、画像の外側に向かって探索位置を移動するようにした。しかし、これに限られず、例えば、画像の4つの外縁上の点をそれぞれ探索開始点とし画像の中心に向かって探索を行うようにしてもよい。この場合は、以下の例での探索方向と、辺の内側、外側の関係が逆転することに注意されたい。   In step 1201 and 1202, the edge candidate detection unit 301 uses the image center point as a search start point and moves the search position toward the outside of the image. However, the present invention is not limited to this, and for example, the search may be performed toward the center of the image with the points on the four outer edges of the image as search start points, respectively. In this case, it should be noted that the relationship between the search direction and the inside and outside of the side in the following example is reversed.

<矩形候補算出ステップ>
矩形候補算出ステップST13では、矩形候補算出手段302が、辺候補検出ステップST12において得られた辺候補の中から、矩形を構成する可能性のある組み合わせを決定する。矩形候補の算出には、例えば、特許文献2や参考文献1の手法を用いて行うことで高速な算出が可能である。
<Rectangle candidate calculation step>
In the rectangle candidate calculation step ST13, the rectangle candidate calculation unit 302 determines a combination that may form a rectangle from the edge candidates obtained in the edge candidate detection step ST12. The calculation of the rectangle candidates can be performed at high speed by using, for example, the methods of Patent Document 2 and Reference Document 1.

具体的には、例えば次のような手順を行うことができる。
STEP1301:
矩形候補算出手段302は、上下左右の各探索方向で検出された辺候補から1つずつ、計4つの辺候補を選択する。
STEP1302:
4つの辺候補を各々表す直線が構成する矩形を矩形候補とし、直線の交点を4点求める。
STEP1303:
矩形候補算出手段302は、交点を矩形の推定頂点座標とし、矩形候補の4辺の長さを算出する。
STEP1304:
矩形候補算出手段302は、4つの辺候補の端点座標から4つの辺候補の長さを算出する。
Specifically, for example, the following procedure can be performed.
STEP1301:
The rectangle candidate calculation unit 302 selects a total of four side candidates, one by one from the side candidates detected in the search directions of the top, bottom, left, and right.
STEP1302:
A rectangle formed by straight lines representing the four side candidates is defined as a rectangular candidate, and four intersections of the straight lines are obtained.
STEP1303:
The rectangle candidate calculation unit 302 calculates the lengths of the four sides of the rectangle candidate using the intersection as the estimated vertex coordinates of the rectangle.
STEP 1304:
The rectangle candidate calculation unit 302 calculates the lengths of the four side candidates from the end point coordinates of the four side candidates.

STEP1305:
矩形候補算出手段302は、STEP1303で求めた矩形候補の4辺の長さに対するSTEP1304で求めた4つの辺候補の長さの割合を算出し、これを矩形評価値とする。ただし、辺候補の長さが矩形候補の辺の長さよりも長い場合は次のいずれかの方法をとるようにしてもよい
・矩形候補算出手段302は、辺候補の長さと矩形候補の辺の長さの差分を、矩形候補の辺の長さから減じた値を辺候補の長さとして用いる。
・矩形候補算出手段302は、得られた割合の逆数を矩形評価値とする
STEP1306:
矩形候補算出手段302は、矩形評価値が所定の閾値以下の物を棄却する。
STEP 1305:
The rectangle candidate calculation unit 302 calculates the ratio of the lengths of the four side candidates obtained in STEP 1304 to the lengths of the four sides of the rectangle candidate obtained in STEP 1303, and uses this as the rectangle evaluation value. However, if the length of the side candidate is longer than the length of the side of the rectangle candidate, one of the following methods may be used. The rectangle candidate calculation unit 302 determines the length of the side candidate and the side of the rectangle candidate. A value obtained by subtracting the difference in length from the side length of the rectangle candidate is used as the length of the side candidate.
The rectangle candidate calculation means 302 uses the reciprocal of the obtained ratio as the rectangle evaluation value STEP 1306:
The rectangle candidate calculation means 302 rejects an object whose rectangle evaluation value is a predetermined threshold value or less.

本実施形態において、所定の閾値は、例えば、0〜1の間の範囲である。矩形候補算出手段302は、検出したい矩形が矩形検出対象画像中でどの程度鮮明に撮影できるかと、計算処理時間のトレードオフに基づき決定する。
すなわち、矩形が鮮明に撮影できる環境で矩形検出装置300を利用する場合、辺候補検出ステップST12において、矩形候補算出手段302は、正解の矩形候補について実際の辺の端点まで辺をたどることができる。この場合、矩形評価値が1に近づくため、矩形候補算出手段302が、矩形評価値の閾値として1に近い値を用いることにより、検出される矩形候補が少なくなり、以降の処理の計算処理時間を短くすることができる。
一方、矩形が鮮明に撮影できない環境で矩形検出装置を利用する場合、辺候補検出ステップST12において、矩形候補算出手段302は、正解の矩形候補に対しても実際の辺の途中までしか辺をたどれない。あるいは、実際の辺を超過して辺をたどってしまったりする場合が生じる。このため、矩形候補算出手段302は、小さめの閾値を設定し、正解の矩形候補の取りこぼしが起こらないようにしてもよい。具体的な閾値の値は、例えば0.5〜0.95程度の値の範囲で実験的に定めればよい。
In the present embodiment, the predetermined threshold is a range between 0 and 1, for example. The rectangle candidate calculation unit 302 determines how clear the rectangle to be detected can be captured in the rectangle detection target image and based on a trade-off between calculation processing times.
That is, when the rectangle detection apparatus 300 is used in an environment in which a rectangle can be clearly photographed, the rectangle candidate calculation unit 302 can trace the edge of the correct rectangle candidate to the end point of the actual edge in the edge candidate detection step ST12. . In this case, since the rectangle evaluation value approaches 1, the rectangle candidate calculation unit 302 uses a value close to 1 as the threshold value of the rectangle evaluation value, so that the number of detected rectangle candidates decreases, and the calculation processing time of the subsequent processing Can be shortened.
On the other hand, when the rectangle detection apparatus is used in an environment where the rectangle cannot be clearly captured, in the edge candidate detection step ST12, the rectangle candidate calculation unit 302 extends the edge only to the middle of the actual edge with respect to the correct rectangle candidate. None Or the case where the actual side is exceeded and the side is traced occurs. Therefore, the rectangle candidate calculation unit 302 may set a small threshold value so that the correct rectangle candidate is not overlooked. A specific threshold value may be experimentally determined within a range of about 0.5 to 0.95, for example.

この結果、矩形候補算出手段302は、矩形候補を表す情報として、
・対応する4つの辺候補
・STEP1302、1303で得られた矩形の推定頂点座標
を、矩形候補の数だけ得る。
ここで示した矩形候補算出の例は一例であり、矩形検出対象画像中の矩形を検出する方法であればこれ以外の方法を用いてもかまわない。
As a result, the rectangle candidate calculation unit 302 has information as a rectangle candidate as
-Four corresponding side candidates-The estimated vertex coordinates of the rectangle obtained in STEPs 1302 and 1303 are obtained by the number of rectangle candidates.
The example of rectangle candidate calculation shown here is only an example, and any other method may be used as long as it is a method for detecting a rectangle in the rectangle detection target image.

<矩形特徴量計算ステップ>
矩形特徴量計算ステップST14において、矩形特徴量計算手段303は、矩形候補算出ステップST13で得られた矩形候補に対し、当該矩形候補が目的とする矩形領域であるかを評価するための矩形特徴量を計算する。この矩形特徴量計算手段303は、矩形特徴量計算ステップST14において、エッジ追跡ステップST141、画素値取得ステップST142、特徴量計算ステップST143を順に実施する。
<Rectangle feature calculation step>
In the rectangular feature amount calculating step ST14, the rectangular feature amount calculating unit 303 evaluates the rectangular candidate obtained in the rectangular candidate calculating step ST13 to determine whether the rectangular candidate is a target rectangular region. Calculate In the rectangular feature amount calculation step ST14, the rectangular feature amount calculation means 303 sequentially performs an edge tracking step ST141, a pixel value acquisition step ST142, and a feature amount calculation step ST143.

<エッジ追跡ステップ>
エッジ追跡ステップST141において、エッジ追跡手段331は、矩形候補に含まれる4つの辺候補の各々に対し、辺を構成するエッジを辺と平行な方向に走査し、辺上の各点におけるエッジ座標を検出する。
<Edge tracking step>
In the edge tracking step ST141, the edge tracking unit 331 scans the edges constituting the side in a direction parallel to the side for each of the four side candidates included in the rectangle candidate, and calculates the edge coordinates at each point on the side. To detect.

具体的には、例えば次のような手順でエッジ追跡を行う。
STEP1411:
エッジ追跡手段331は、対象とする辺候補上の任意の点をエッジ追跡現在位置として設定する。エッジ追跡現在位置は、例えば、辺候補検出ステップST12において対象とする辺候補のエッジをはじめに検出したエッジ追跡開始点の座標を用いてもよい。また、辺候補検出ステップST12において対象とする辺候補の追跡を終了した端点の座標を用いてもよい。
STEP1412:
エッジ追跡手段331は、エッジ追跡現在位置の座標をエッジ座標として出力する。
STEP1413:
エッジ追跡手段331は、対象とする辺候補と平行な方向にエッジ追跡現在位置を移動する。エッジ追跡現在位置の移動の方向は、例えば、辺候補検出ステップST12において対象とする辺候補を検出した際の探索方向と直行する方向(例えば、探索方向が上方向の場合は左右の方向)であってもよい。また例えば、辺候補検出ステップST12において対象とする辺候補の追跡を終了した両側の端点座標から算出した、対象とする辺候補の傾きの方向であってもよい。
Specifically, for example, edge tracking is performed in the following procedure.
STEP1411:
The edge tracking unit 331 sets an arbitrary point on the target side candidate as the edge tracking current position. As the edge tracking current position, for example, the coordinates of the edge tracking start point detected first in the edge candidate detection step ST12 may be used. In addition, the coordinates of the end point that has finished tracking the target side candidate in the side candidate detection step ST12 may be used.
STEP1412:
The edge tracking unit 331 outputs the coordinates of the current edge tracking position as edge coordinates.
STEP1413:
The edge tracking unit 331 moves the current edge tracking position in a direction parallel to the target side candidate. The direction of movement of the edge tracking current position is, for example, a direction orthogonal to the search direction when the target side candidate is detected in the side candidate detection step ST12 (for example, the left and right directions when the search direction is upward). There may be. Further, for example, the direction of the inclination of the target side candidate calculated from the end point coordinates on both sides after the tracking of the target side candidate in the side candidate detection step ST12 may be used.

STEP1414:
エッジ追跡手段331は、エッジ追跡現在位置の近傍の各点に対し、周囲の領域にエッジ検出フィルタを適用し、エッジ追跡現在位置の近傍点のいずれかがエッジ成分を持つかどうかを判定する。
STEP1415:
エッジ追跡手段331は、エッジ成分を持つと判断した場合、近傍点の中で最もエッジ成分の強い点をエッジ追跡現在位置とし、STEP1412に戻る。エッジ追跡手段331は、エッジ成分を持たないと判断した場合、処理を終了する。エッジ追跡の開始点を辺候補の端点以外に定めた場合、エッジ追跡手段331は、STEP1412〜1415の処理を、エッジ追跡の開始点から辺の両方向について行う。
STEP1416:
エッジ追跡手段331は、STEP1411〜1415の各手順を、矩形候補に含まれる4つの辺候補に対して各々適用し、4つの辺候補上の各点に対応するエッジ座標を出力する。
STEP 1414:
The edge tracking unit 331 applies an edge detection filter to the surrounding area for each point in the vicinity of the current edge tracking position, and determines whether any of the neighboring points in the current edge tracking position has an edge component.
STEP1415:
If the edge tracking unit 331 determines that it has an edge component, the point having the strongest edge component among the neighboring points is set as the edge tracking current position, and the process returns to STEP 1412. If the edge tracking unit 331 determines that the edge tracking unit 331 has no edge component, the process ends. When the start point of edge tracking is determined to be other than the end points of the side candidates, the edge tracking unit 331 performs the processing of STEPs 1412 to 1415 in both directions of the side from the start point of edge tracking.
STEP1416:
The edge tracking unit 331 applies each procedure of STEPs 1411 to 1415 to each of the four side candidates included in the rectangle candidate, and outputs edge coordinates corresponding to each point on the four side candidates.

ここで、エッジ追跡手段331によるSTEP1414でのエッジ成分の判定について、図13、14を用いて以下に説明する。
図13は、エッジ追跡の一例を説明するための図である。図14は、エッジ検出フィルタの一例を説明するための図である。
図13に示す例では、エッジ追跡手段331が、エッジ追跡現在位置を中心にした近傍位置の各々を注目座標とする。
近傍位置は、例えば、エッジ追跡現在位置に対し、エッジ追跡現在位置の移動の方向と直行する方向に幅Wピクセルの範囲で設定してもよい。
Here, the determination of the edge component in STEP 1414 by the edge tracking means 331 will be described below with reference to FIGS.
FIG. 13 is a diagram for explaining an example of edge tracking. FIG. 14 is a diagram for explaining an example of the edge detection filter.
In the example illustrated in FIG. 13, the edge tracking unit 331 sets each of the neighboring positions centered on the current edge tracking position as a target coordinate.
For example, the proximity position may be set in a range of W pixels in the direction orthogonal to the movement direction of the edge tracking current position with respect to the edge tracking current position.

図13の格子は矩形検出対象画像の画素の列を表しており、濃淡が画素値の大きさを表している。
図13では、エッジ追跡現在位置q1に対し、W=5として、エッジ追跡の方向Yqと直行する左右のXq方向に、5×1画素の範囲を、近傍位置の範囲Q1として設定した例を示している。
The grid in FIG. 13 represents a row of pixels of the rectangular detection target image, and the shading represents the size of the pixel value.
FIG. 13 shows an example in which a range of 5 × 1 pixels is set as a neighborhood position range Q1 in the left and right Xq directions orthogonal to the edge tracking direction Yq with W = 5 with respect to the edge tracking current position q1. ing.

ここで、エッジ追跡手段331は、任意の注目画素に対し、この注目画素の周囲の複数の画素についての重み付き和を求める。重み付き和は、例えば、図14のエッジ検出フィルタ係数1401を用い、注目画素の周囲の複数の画素の画素値の積和演算により求めることができる。   Here, the edge tracking unit 331 calculates a weighted sum for a plurality of pixels around the target pixel for an arbitrary target pixel. The weighted sum can be obtained, for example, by multiplying the pixel values of a plurality of pixels around the target pixel by using the edge detection filter coefficient 1401 of FIG.

図14に示す重み付き和の計算例1504では、格子が矩形検出対象画像C14の画素の列を表しており、数値は画素値を表している。
注目画素1402の場合、エッジ追跡手段331は、計算範囲1403に対してエッジ検出フィルタ係数1401との積和演算により、以下(18)に示すように、重み付き和を求める。
In the calculation example 1504 of the weighted sum shown in FIG. 14, the grid represents a column of pixels of the rectangular detection target image C14, and the numerical value represents a pixel value.
In the case of the pixel of interest 1402, the edge tracking unit 331 obtains a weighted sum as shown in (18) below by performing a product-sum operation with the edge detection filter coefficient 1401 on the calculation range 1403.

Figure 0005463269
Figure 0005463269

エッジ追跡手段331は、この値を注目画素1402のエッジ強度とする。
このエッジ追跡手段331は、近傍位置の各注目座標に対してエッジ強度を算出し、最も大きな値を持つ注目画素を決定する。さらに、エッジ追跡手段331は、この値があらかじめ定められた所定の閾値を超えている場合に、注目座標がエッジ成分を持つと判定する。
The edge tracking unit 331 sets this value as the edge strength of the target pixel 1402.
The edge tracking unit 331 calculates the edge strength for each target coordinate in the vicinity position, and determines the target pixel having the largest value. Furthermore, the edge tracking unit 331 determines that the target coordinate has an edge component when this value exceeds a predetermined threshold value.

ここで、所定の閾値は、画素値のとりうる範囲とエッジ検出フィルタの係数値から決まるエッジ強度のとりうる範囲に基づき、エッジ以外の部分を誤って検出することのない程度に大きく、検出したいエッジがエッジと判定されなくならない程度に小さな値を設定する。また、エッジ追跡手段331は、前述の矩形パターン生成ステップST3におけるエッジの内外の基準値の差と、矩形検出対象画像C14でのノイズ付加の程度も考慮し、実験的に求めればよい。具体的には、エッジ検出フィルタ係数1401の例において、各画素値が0〜255の値をとりうる場合、エッジ強度のとりうる値の範囲は0〜1020となり、例えば、10〜512などの値を閾値として用いればよい。
エッジ追跡手段331は、このような方法でエッジ成分を持つ画素を判断することで、例えば、図11のように矩形が描画されている場合に、白い内側の辺と黒い外側の辺の境界位置の座標が得られることになる。
Here, the predetermined threshold is based on the range of pixel values and the range of edge strength determined from the coefficient value of the edge detection filter, and is large enough to prevent detection of portions other than edges. A small value is set so that the edge is not determined to be an edge. Further, the edge tracking means 331 may be obtained experimentally in consideration of the difference between the reference values inside and outside the edge in the above-described rectangular pattern generation step ST3 and the degree of noise addition in the rectangular detection target image C14. Specifically, in the example of the edge detection filter coefficient 1401, when each pixel value can take a value of 0 to 255, the range of values that the edge intensity can take is 0 to 1020, for example, a value such as 10 to 512 May be used as a threshold value.
The edge tracking unit 331 determines a pixel having an edge component by such a method, for example, when a rectangle is drawn as shown in FIG. 11, the boundary position between the white inner side and the black outer side. Will be obtained.

ここでは近傍位置の幅Wの値を5としたがこれ以外の値であってもよいことは言うまでもない。
また、ここではエッジ検出フィルタ係数として3×3の大きさのものを用いたが、これ以外の大きさであってもよい。
例えば、図14のエッジ検出フィルタ係数1401の別な例である重み付き和の計画例1404であるエッジ検出フィルタ係数1405のように3×1の大きさであってもよい。
なお、辺候補検出ステップST12において、特許文献1の手法を用いている場合は、エッジ追跡手段331は、エッジ追跡ステップST141においてエッジ追跡を行う代わりに、辺候補検出ステップST12におけるエッジ追跡時に追跡したエッジ座標を記録しておき、それを出力に用いてもかまわない。
Here, the value of the width W of the neighboring position is set to 5, but it goes without saying that other values may be used.
In addition, although the edge detection filter coefficients having a size of 3 × 3 are used here, other sizes may be used.
For example, the size may be 3 × 1 as an edge detection filter coefficient 1405 that is a weighted sum planning example 1404 that is another example of the edge detection filter coefficient 1401 of FIG.
When the method of Patent Document 1 is used in the edge candidate detection step ST12, the edge tracking unit 331 tracks the edge tracking in the edge candidate detection step ST12 instead of performing edge tracking in the edge tracking step ST141. The edge coordinates may be recorded and used for output.

<画素値取得ステップ>
画素値取得ステップST142では、画素値取得手段332が、エッジ追跡ステップST141で得られたエッジ座標に対し、辺候補のエッジの内側と外側の各点の画素値を矩形検出対象画像から取得する。
<Pixel value acquisition step>
In the pixel value acquisition step ST142, the pixel value acquisition unit 332 acquires, from the rectangular detection target image, the pixel values of the points inside and outside the edge of the edge candidate with respect to the edge coordinates obtained in the edge tracking step ST141.

具体的には以下の手順で画素値の取得を行う。
STEP1421:
画素値取得手段332は、エッジ追跡ステップST141で得られたエッジ座標に対し、辺候補と直行する方向に1〜n画素離れた点までの座標値を求める。
画素値取得手段332は、辺候補と直行する方向として、例えば、辺候補検出ステップST12において対象とする辺候補を検出した際の探索方向としてもよい。また、画素値取得手段332は、例えば、辺候補検出ステップST12において対象とする辺候補の追跡を終了した両側の端点座標から算出した、対象とする辺候補の傾きと直行する方向であってもよい。
Specifically, the pixel value is acquired by the following procedure.
STEP1421:
The pixel value acquisition unit 332 obtains coordinate values up to a point that is 1 to n pixels away from the edge coordinates obtained in the edge tracking step ST141 in a direction orthogonal to the edge candidate.
The pixel value acquisition unit 332 may use the search direction when the target side candidate is detected in the side candidate detection step ST12 as the direction orthogonal to the side candidate, for example. Further, the pixel value acquisition unit 332 may be, for example, in a direction orthogonal to the inclination of the target side candidate calculated from the end point coordinates on both sides that have finished tracking the target side candidate in the side candidate detection step ST12. Good.

STEP1422:
画素値取得手段332は、エッジ座標に対し、辺候補検出時の探索方向に離れた座標の画素値を、辺の外側の画素値として取得し、出力する。図15では、n=2とした場合の例を示しており、エッジ座標1501に対し、辺の外側の画素1502の2画素の画素値を取得し出力する。図15は、画素値取得手段332による画像取得の一例を説明するための図である。
STEP 1422:
The pixel value acquisition unit 332 acquires and outputs a pixel value at a coordinate away from the edge coordinate in the search direction when the side candidate is detected as a pixel value outside the side. FIG. 15 shows an example where n = 2, and the pixel values of two pixels of the pixel 1502 outside the side are acquired and output with respect to the edge coordinate 1501. FIG. 15 is a diagram for explaining an example of image acquisition by the pixel value acquisition unit 332.

STEP1423:
画素値取得手段332は、エッジ座標に対し、辺候補検出時の探索方向と逆方向に離れた座標の画素値を、辺の内側の画素値として取得し、出力する。図15では、同様に、エッジ座標1501に対し、辺の内側の画素1503の2画素の画素値を取得し出力する。
このようにエッジ座標の外側と内側の画素の画素値を取得することで、例えば図12のように矩形が描画されている場合に、黒い外側の辺の部分の画素値がエッジ座標の外側の画素値として、また、白い内側の辺の部分の画素値がエッジ座標の内側の画素値として取得されることになる。
上述のエッジ追跡ステップST141で述べたエッジ追跡の方法は、高速にエッジ座標を追跡することができるとともに、正確にエッジ座標を判定することができるため、エッジの内側と外側の画素値をそれぞれ取得するのに適している。
STEP 1423:
The pixel value acquisition unit 332 acquires and outputs a pixel value at a coordinate separated from the edge coordinate in the direction opposite to the search direction when the side candidate is detected as a pixel value inside the side. In FIG. 15, similarly, the pixel values of two pixels of the pixel 1503 inside the side are acquired and output with respect to the edge coordinate 1501.
By acquiring the pixel values of the pixels outside and inside the edge coordinates in this way, for example, when a rectangle is drawn as shown in FIG. 12, the pixel values of the black outer side portion are outside the edge coordinates. As the pixel value, the pixel value of the white inner side is acquired as the pixel value inside the edge coordinates.
The edge tracking method described in the above-described edge tracking step ST141 can track edge coordinates at high speed and accurately determine the edge coordinates, so that the pixel values inside and outside the edge are respectively acquired. Suitable for doing.

STEP1422、1423で取得する画素値は、矩形検出対象画像C14がモノクロ画像である場合は、対象画素の輝度値となる。矩形検出対象画像C14がカラー画像である場合は、矩形検出対象画像の色空間に応じ、対象画素のR,G,B の各値であってもよい。また、Y,Cb,Cr(Y(:輝度、Cb,Cr:色値))や、H,S,V((H:色相、S:彩度、V:明度))であってもかまわない。また、矩形検出対象画像の色空間を、矩形特徴量の算出に都合のよい、別な色空間の値に変換するようにしてもかまわない。   The pixel values acquired in STEPs 1422 and 1423 are the luminance values of the target pixels when the rectangular detection target image C14 is a monochrome image. When the rectangular detection target image C14 is a color image, the R, G, and B values of the target pixel may be used according to the color space of the rectangular detection target image. Also, Y, Cb, Cr (Y (: luminance, Cb, Cr: color value)) or H, S, V ((H: hue, S: saturation, V: lightness)) may be used. . Further, the color space of the rectangular detection target image may be converted to a value in another color space that is convenient for calculating the rectangular feature amount.

例えば、矩形付加装置100の矩形パターン生成ステップST3において、XYZ表色系を用いている場合、画素値取得手段332は、XYZ表色系に変換するようにしてもかまわない。
nの値は、矩形描画の時点で描画する矩形の太さと矩形検出対象画像の撮影環境や撮影サイズなどの条件に合わせて決定する。ここでは、対象とする画素の範囲nの値を2とした例を示した。しかしこれに限られず、これ以外の値、例えば1や3であってもよいことは言うまでもない。
For example, when the XYZ color system is used in the rectangular pattern generation step ST3 of the rectangle adding apparatus 100, the pixel value acquisition unit 332 may convert the pixel value acquisition unit 332 into the XYZ color system.
The value of n is determined in accordance with conditions such as the thickness of the rectangle to be drawn at the time of drawing the rectangle and the shooting environment and shooting size of the rectangle detection target image. Here, an example in which the value of the target pixel range n is 2 is shown. However, the present invention is not limited to this, and needless to say, other values such as 1 and 3 may be used.

<特徴量計算ステップ>
特徴量計算ステップST143では、特徴量計算手段333が、取得した画素値を蓄積し、辺に対する特徴量を計算し、各辺の特徴量を統合した矩形特徴量を計算する。
具体的には以下の手順で矩形特徴量を計算する。
STEP1431(変換パラメータ計算ステップ):
変換パラメータ計算手段3331は、矩形候補算出ステップST13で得られた矩形候補に対し、矩形候補の辺上の座標を矩形の分割位置を表す座標値に変換するための変換パラメータを計算する。これは、矩形候補の頂点座標の分割位置を表す座標系における長方形の頂点座標に写す射影変換行列を計算することで求められる。
<Feature amount calculation step>
In the feature amount calculation step ST143, the feature amount calculation unit 333 accumulates the acquired pixel values, calculates the feature amounts for the sides, and calculates a rectangular feature amount that integrates the feature amounts of the sides.
Specifically, the rectangular feature amount is calculated by the following procedure.
STEP1431 (conversion parameter calculation step):
The conversion parameter calculation means 3331 calculates a conversion parameter for converting the coordinates on the sides of the rectangle candidates into the coordinate values representing the division positions of the rectangles for the rectangle candidates obtained in the rectangle candidate calculation step ST13. This can be obtained by calculating a projective transformation matrix that is projected onto the rectangular vertex coordinates in the coordinate system that represents the division position of the vertex coordinates of the rectangular candidate.

具体的な例について図16を用いて説明する。図16は、射影変換パラメータ計算と分割位置計算の一例を説明するための図である。ここでは、分割数N=4として説明する。
矩形候補算出ステップST13で得られた矩形候補が、図16の矩形候補1601であるとし、その頂点座標(x,y)、(x,y)、(x,y)、(x,y)をそれぞれ、分割位置を表す座標系における長方形1602の頂点、(0,0)、(4,0)、(0,4)、(4,4)に移す射影変換パラメータは、以下の通り計算することができる。つまり、変換パラメータ計算手段3331は、例えば参考文献6などに記載の射影変換を表す以下の関係式(19)に4つの頂点座標を代入して得られる方程式を解き、行列Hを求めることで計算することができる。
A specific example will be described with reference to FIG. FIG. 16 is a diagram for explaining an example of projective transformation parameter calculation and division position calculation. Here, description will be made assuming that the division number N = 4.
Assume that the rectangle candidate obtained in the rectangle candidate calculation step ST13 is the rectangle candidate 1601 in FIG. 16, and its vertex coordinates (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), Projective transformation parameters for transferring (x 4 , y 4 ) to the vertices of the rectangle 1602 in the coordinate system representing the division position, (0, 0), (4, 0), (0, 4), (4, 4), respectively. Can be calculated as follows: That is, the conversion parameter calculation unit 3331 calculates the matrix H by solving an equation obtained by substituting the four vertex coordinates into the following relational expression (19) representing the projective conversion described in Reference 6 or the like, for example. can do.

Figure 0005463269
Figure 0005463269

但し、x~は変換前の頂点を表す同次座標、x~´は変換後の頂点を表す同次座標、Hは、射影変換パラメータを表す3×3の行列である。
<参考文献6>「ディジタル画像処理」, CG-ARTS 協会, ISBN4-906665-47-0
ここでは分割数N=4としたが、この値は任意の自然数であればこれ以外の値であってもよいことは言うまでもない。
Here, x˜ is a homogeneous coordinate representing a vertex before transformation, x˜ ′ is a homogeneous coordinate representing a vertex after transformation, and H is a 3 × 3 matrix representing a projective transformation parameter.
<Reference 6>"Digital image processing", CG-ARTS Association, ISBN4-906665-47-0
Here, the division number N = 4, but it goes without saying that this value may be any other natural number.

STEP1432(分割位置計算ステップ):
分割位置計算手段3332は、STEP1431において変換パラメータ計算手段3331により得られた変換パラメータを用いて、エッジ追跡手段331で得られたエッジ座標を変換し、辺上の分割位置を計算する。
分割位置の計算の具体例を図16を用いて説明する。
例えば、エッジ追跡手段331で得られたエッジ座標が、座標(x,y)(図16中の1603)であるとする。これをSTEP1431で得られた変換パラメータを用い分割位置を表す座標値に変換し、座標(ξ,η)、(図16中の1604)を得る。
STEP1432 (division position calculation step):
The division position calculation unit 3332 converts the edge coordinates obtained by the edge tracking unit 331 using the conversion parameter obtained by the conversion parameter calculation unit 3331 in STEP1431, and calculates the division position on the side.
A specific example of division position calculation will be described with reference to FIG.
For example, it is assumed that the edge coordinates obtained by the edge tracking unit 331 are coordinates (x E , y E ) (1603 in FIG. 16). This is converted into a coordinate value representing the division position using the conversion parameter obtained in STEP 1431 to obtain coordinates (ξ 1 , η 1 ) (1604 in FIG. 16).

Figure 0005463269
Figure 0005463269

但し、ξ~、x~は、それぞれ、以下の式(21)に示す座標(ξ,η)、(x,y)を表す同次座標とする。 However, ξ ~ and x ~ are homogeneous coordinates representing coordinates (ξ E , η E ) and (x E , y E ) shown in the following formula (21), respectively.

Figure 0005463269
Figure 0005463269

対象としているエッジ座標(x,y)は矩形候補の下辺上の点であることから、分割位置計算手段3332は、得られた座標(ξ,η)のX座標値ξを小数点以下切捨てし整数値とする事で、この場合、分割位置1を決定することができる。 Since the target edge coordinates (x E , y E ) are points on the lower side of the rectangle candidate, the division position calculation means 3332 calculates the X coordinate value ξ E of the obtained coordinates (ξ E , η E ). In this case, the division position 1 can be determined by rounding off the decimal point to an integer value.

分割位置計算手段3332は、対象のエッジ座標が上辺もしくは下辺上の点の場合にはこの例の様に座標(ξ,η)のX座標値ξを、対象のエッジ座標が左辺もしくは右辺上の点の場合には座標(ξ,η)のY座標値ηを用いることで、適切な分割位置を決定することができる。 When the target edge coordinate is a point on the upper side or the lower side, the division position calculation means 3332 uses the X coordinate value ξ E of the coordinates (ξ E , η E ) as in this example, and the target edge coordinate is the left side or In the case of a point on the right side, an appropriate division position can be determined by using the Y coordinate value η E of the coordinates (ξ E , η E ).

分割位置計算手段3332は、対象のエッジ座標が上下左右のどの辺上の点であるかについて、例えば、エッジ追跡手段331において、対象のエッジ座標を出力した際に追跡した辺候補が、辺候補検出手段301において上下左右のどの探索方向で検出された辺候補であるかを記憶しておくことで判断することができる。   For example, the edge position tracked when the edge tracking unit 331 outputs the target edge coordinates is the edge candidate. It can be determined by memorizing which of the search directions in the upper, lower, left, and right sides is detected by the detection means 301.

STEP1433(辺検出系列計算ステップ):
辺検出系列計算手段3333は、STEP1432で得られた分割位置を用いて、検出した辺上の各点の画素値を分割位置毎に蓄積し、辺に対する検出系列を計算する。
STEP 1433 (edge detection sequence calculation step):
The edge detection series calculation means 3333 uses the division position obtained in STEP 1432 to accumulate the pixel values of each point on the detected edge for each division position, and calculates a detection series for the edge.

具体例を、図17、図18を用いて説明する。
図17は、画素値の分割位置毎の蓄積説明図である。図17に示す通り、矩形候補の下辺上で得られたエッジ座標x〜x13が、STEP1432でそれぞれ、ξ〜ξ13へと変換され、図で示す分割位置に分類されている状態を表している。
また、画素値取得手段332において、辺の内側、及び外側に対して画素値として各々Y,Cb,Crの各値が取得されている場合の例を示している。
次に、辺検出系列計算手段3333は、各分割位置に分類された各画素値の平均値を各々求める。すなわち、辺検出系列計算手段3333は、
A specific example will be described with reference to FIGS.
FIG. 17 is an explanatory diagram of accumulation for each pixel value division position. As shown in FIG. 17, the edge coordinates x 1 to x 13 obtained on the lower side of the rectangle candidate are converted into ξ 1 to ξ 13 in STEP 1432 and classified into the division positions shown in the figure. Represents.
Also, an example is shown in which the pixel value acquisition unit 332 acquires Y, Cb, and Cr values as pixel values for the inside and outside of the side, respectively.
Next, the edge detection series calculation means 3333 obtains the average value of each pixel value classified into each division position. That is, the edge detection series calculation means 3333

Figure 0005463269
Figure 0005463269

とし、iは分割位置、nはエッジ座標の数を表す。   I represents the division position, and n represents the number of edge coordinates.

(x)、Cb(x)、Cr(x)、は各々エッジ座標xの辺の内側点に対するY,Cb,Cr の成分、Y(x)、Cb(x)、Cr(x)は各々エッジ座標xの辺の外側点に対するY,Cb,Cr の成分を表す。また、以下の(23)は、xを超えない最大の整数値を表す。 The Y (x), the Cb (x), the Cr (x), each Y with respect to the inner points of the sides of the edge coordinates x, Cb, components Cr, Y out (x), Cb out (x), Cr Outer (x) represents Y, Cb, and Cr components for the outer points of the edge coordinate x. The following (23) represents the maximum integer value not exceeding x.

Figure 0005463269
Figure 0005463269

具体的には、例えば、図17の例で、分割位置0における内側の画素の輝度値Y内0については、以下の式(24)が成立つ。 Specifically, for example, in the example of FIG. 17, the luminance value Y in 0 of inner pixels in the divided position 0, the following equation (24) holds.

Figure 0005463269
Figure 0005463269

辺検出系列計算手段3333は、上記で得られた各分割位置毎の各画素値の平均値を順に並べたものを辺検出系列とする。平均値を並べる順は、矩形付加装置100における矩形パターン生成手段102における数値系列上の位置と辺上の分割位置との対応に合致していればどのような並べ方でもよい。   The edge detection series calculation means 3333 sets an average of the pixel values for each division position obtained above in order as the edge detection series. The average value may be arranged in any order as long as it matches the correspondence between the position on the numerical value series and the division position on the side in the rectangular pattern generation means 102 in the rectangle adding device 100.

辺検出系列計算手段3333は、例えば、図18の1801のようにY,Cb,Crの辺の内外の値を分割位置の順に並べるようにしてもよいし、矩形パターン生成手段102と同じ擬似乱数列を用いてランダムに順序を入れ替えるようにしてもよい。なお、図18は、辺検出系列を説明するための図である。   For example, the edge detection series calculation unit 3333 may arrange the inside and outside values of the sides Y, Cb, and Cr in the order of division positions as indicated by 1801 in FIG. The order may be changed at random using columns. FIG. 18 is a diagram for explaining the edge detection series.

STEP1434(辺検出系列統合ステップ):
検出系列統合手段3334は、STEP1433で得られた辺検出系列を統合し、矩形候補全体に対する検出系列を求める。
検出系列統合手段3334は、辺検出系列の統合について、矩形付加装置100における矩形パターン生成ステップST3で用いた数値系列と各辺上の位置との対応関係に基づき行われる。
例えば、矩形の上辺の辺検出系列が図18のように得られているとき、矩形パターン生成ステップST3での数値系列m={m|1≦i≦L}と各辺上の位置が、図10に示すような例で表されているならば、検出系列d={d|1≦i≦L}と辺検出系列の関係を、以下、式(25)に示す。
STEP 1434 (edge detection sequence integration step):
The detection sequence integration unit 3334 integrates the edge detection sequences obtained in STEP 1433 to obtain a detection sequence for the entire rectangle candidate.
The detection series integration unit 3334 performs integration of the edge detection series based on the correspondence between the numerical series used in the rectangular pattern generation step ST3 in the rectangle adding device 100 and the position on each side.
For example, when the side detection series of the upper side of the rectangle is obtained as shown in FIG. 18, the numerical series m = {m i | 1 ≦ i ≦ L} and the position on each side in the rectangular pattern generation step ST3 are If expressed in an example as shown in FIG. 10, the relationship between the detection sequence d = {d i | 1 ≦ i ≦ L} and the edge detection sequence is shown below in Expression (25).

Figure 0005463269
Figure 0005463269

検出系列統合手段3334は、このように定め、矩形パターン生成ステップST3での数値系列の要素mと検出系列の要素dが対応づくようにし、これにより辺検出系列を統合した検出系列d={d|1≦i≦L}を求める。
なお、検出系列の要素と各辺上の位置との対応付けは、矩形パターン生成ステップST3での数値系列と各辺上の位置との対応関係と共通であればどの様な対応付けであってもよい。
Detection sequence integration unit 3334 is thus defined, the elements d i elements m i and detection sequence of numerical sequence as brute corresponding rectangular pattern generating step ST3, the thereby detected sequence with integrated edge detection sequence d = {D i | 1 ≦ i ≦ L} is obtained.
It should be noted that the correspondence between the elements of the detection series and the positions on each side is any kind of correspondence as long as the correspondence between the numerical series in the rectangular pattern generation step ST3 and the positions on each side is common. Also good.

図10では、各辺に順に系列が並ぶようにしているが、例えば、矩形付加装置100と共有する疑似乱数に従い、対応付けの位置をランダムに決定するようにしてもよいし、一つおきにとびとびに対応位置を決定するようにしてもかまわない。   In FIG. 10, the series is arranged in order on each side. However, for example, according to a pseudo-random number shared with the rectangle adding device 100, the correspondence position may be determined at random, or every other position. The corresponding position may be determined quickly.

<矩形特徴量評価ステップ>
矩形特徴量評価ステップST15では、矩形特徴量評価手段304が、矩形特徴量計算ステップST14で計算した矩形特徴量と、所定の特徴量との類似性を評価し、最も適切な矩形を決定する。
矩形特徴量評価ステップST15において、矩形特徴量評価手段304は、埋め込み特徴量計算ステップST151、特徴量類似度計算ステップ152、特徴量類似度比較ステップ153を、順に実施する。
<Rectangle feature evaluation step>
In the rectangular feature amount evaluation step ST15, the rectangular feature amount evaluation means 304 evaluates the similarity between the rectangular feature amount calculated in the rectangular feature amount calculation step ST14 and the predetermined feature amount, and determines the most appropriate rectangle.
In the rectangular feature amount evaluation step ST15, the rectangular feature amount evaluation unit 304 sequentially performs an embedded feature amount calculation step ST151, a feature amount similarity calculation step 152, and a feature amount similarity comparison step 153.

<埋め込み特徴量計算ステップ>
埋め込み特徴量計算ステップST152では、埋め込み特徴量計算手段341が、矩形付加装置100における矩形付加手順の、特徴量生成ステップST2と同様の手順により、目的の矩形が持っているべき特徴量情報として所定の数値系列を計算し、これを埋め込み系列とする。
数値系列の計算に必要な各種のパラメータは、矩形付加装置100と矩形検出装置300とで共有しておく。共有するパラメータの具体例としては、例えば、以下の様なものがある。
・矩形の各辺を分割する分割数N;N;N;N
・特徴量として用いる画素値のチャネル数c
・辺のエッジの内側と外側の2通り
・数値系列の生成に用いる疑似乱数列の生成方法および鍵パラメータ
・数値系列として用いる数列そのもの
<Embedded feature amount calculation step>
In the embedded feature amount calculating step ST152, the embedded feature amount calculating unit 341 performs predetermined processing as feature amount information that the target rectangle should have by the same procedure as the feature amount generating step ST2 of the rectangle adding procedure in the rectangle adding device 100. Is calculated as an embedded sequence.
Various parameters necessary for calculation of the numerical series are shared by the rectangle adding device 100 and the rectangle detecting device 300. Specific examples of parameters to be shared include the following.
Number of divisions for dividing each side of the rectangle N 1 ; N 2 ; N 3 ; N 4
-Number of channels of pixel values used as feature values c
・ Inside and outside edge of edge ・ Generating method and key parameter of pseudo random number sequence used to generate numerical sequence ・ Numeric sequence used as numerical sequence itself

また、ここで共有とは、予め矩形付加装置100と矩形検出装置300とで共通の値を内部の記憶装置に保持しているようになされればどの様な方法で共有が行われてもよい。例えば、装置の製造時に共通の値を矩形付加装置100と矩形検出装置300の記憶装置に記録するようにしても良い。矩形付加装置100 と矩形検出装置300の両方もしくは一方に共有パラメータを入力する手段を設け、システムの運用者が、共通の値を入力するようにしても良い。さらに、矩形付加装置100と矩形検出装置300の一方が他方に対してネットワークを経由して接続し、ネットワークを介して共有パラメータを通信するようにしてもよい。また、これらの方法を組み合わせて使用してもよい。
埋め込み特徴量計算手段341は、埋め込み特徴量計算ステップST151の結果として、特徴量生成ステップST2と同様の数値列{m|1≦i≦L}を埋め込み系列として生成する。ここで、Lは数値列の長さである。
Here, the sharing may be performed by any method as long as a common value is held in the internal storage device in advance by the rectangle adding device 100 and the rectangle detecting device 300. . For example, a common value may be recorded in the storage devices of the rectangle adding device 100 and the rectangle detecting device 300 when the device is manufactured. Means for inputting a shared parameter may be provided in both or one of the rectangle adding device 100 and the rectangle detecting device 300, and the system operator may input a common value. Furthermore, one of the rectangle adding device 100 and the rectangle detecting device 300 may be connected to the other via a network, and the shared parameter may be communicated via the network. Moreover, you may use combining these methods.
The embedded feature amount calculating means 341 generates a numerical sequence {m i | 1 ≦ i ≦ L} similar to the feature amount generating step ST2 as an embedded sequence as a result of the embedded feature amount calculating step ST151. Here, L is the length of the numeric string.

<特徴量類似度計算ステップ>
特徴量類似度計算ステップST152では、特徴量類似度計算手段342が、特徴量計算手段333で求められた検出系列と、埋め込み特徴量計算ステップST151で求められた埋め込み系列との間の類似度を計算する。
一般に画像処理において、特徴量の間の類似性の尺度として様々な方法が存在し、矩形検出装置300においてもそれらの類似性の尺度を用いて類似度を計算することができる。
以下、特徴量計算手段333で求められた検出系列をd={d|1≦i≦L}、埋め込み特徴量計算ステップST151で求められた埋め込み系列をm={m|1≦i≦L}と表す。
<Feature amount similarity calculation step>
In the feature quantity similarity calculation step ST152, the feature quantity similarity calculation means 342 calculates the similarity between the detection series obtained by the feature quantity calculation means 333 and the embedded series obtained in the embedded feature quantity calculation step ST151. calculate.
In general, in image processing, various methods exist as a measure of similarity between feature amounts, and the rectangle detection apparatus 300 can also calculate a similarity using these measures of similarity.
Hereinafter, the detection sequence obtained by the feature quantity calculation means 333 is d = {d i | 1 ≦ i ≦ L}, and the embedded series obtained in the embedded feature quantity calculation step ST151 is m = {m i | 1 ≦ i ≦. L}.

例えば、二つの数値列をベクトルと見て、値を正規化した上でLノルムや、Lノルム、Canberra distance、Czekanowski‘s coefficient、正規化相互相関、劣化モデルを考慮した拡張Lノルム等の値を類似性の尺度として用いる方法がある。これらの類似度の計算方法については、参考文献7に述べられている。
<参考文献7>: 岡藍子、和田俊和、「劣化の影響を受けにくい画像間相違度に関する研究」、画像の認識・理解シンポジウム(MIRU2010) OS4-2,pp.683-690 (2010/7)
For example, two numerical sequences are regarded as vectors, values are normalized, and L 1 norm, L 2 norm, Camberra distance, Czekanowski's coefficient, normalized cross-correlation, extended L 0 norm considering degradation model There is a method of using values such as as a measure of similarity. These similarity calculation methods are described in Reference 7.
<Reference 7>: Aiko Oka and Toshikazu Wada, “Study on image dissimilarity that is less susceptible to degradation”, Image Recognition and Understanding Symposium (MIRU2010) OS4-2, pp.683-690 (2010/7)

また例えば、特徴量類似度計算手段342は、類似度の計算において、以下の様な積和演算により相関値ρを求めこれを類似度として用いてもよい。これを用いると類似度の計算量が小さく、高速に処理することができる。   In addition, for example, the feature quantity similarity calculation unit 342 may calculate the correlation value ρ by the following product-sum operation and use this as the similarity. When this is used, the calculation amount of the similarity is small and processing can be performed at high speed.

Figure 0005463269
Figure 0005463269

ここで「・」は、数列をベクトルとみたときの内積演算を表す。
また例えば、特徴量類似度計算手段342は、類似度の計算において、以下に示すような、dおよびmの各要素をあらかじめ平均0、分散1となるように正規化した数列d´、m´を用いて相関値演算を行うことで、正規分布からのずれの大きさを考慮した評価指標ρを求めこれを類似度として用いてもよい。これを用いると類似度の大きさをfalse positiveの大きさに基づいた絶対値として評価することができる。
参考文献3にあるような検出信頼性の評価基準が揃えられ、誤検出の可能性を排除したより精度の高い矩形の検出が可能である。
Here, “·” represents an inner product operation when the sequence is regarded as a vector.
Further, for example, the feature quantity similarity calculation unit 342 normalizes the d and m elements in advance so that each element of d and m has an average of 0 and a variance of 1, as shown below. By performing correlation value calculation using, an evaluation index ρ considering the magnitude of deviation from the normal distribution may be obtained and used as the similarity. If this is used, the magnitude of the similarity can be evaluated as an absolute value based on the magnitude of false positives.
The detection reliability evaluation criteria as described in Reference 3 are aligned, and more accurate detection of a rectangle that eliminates the possibility of erroneous detection is possible.

Figure 0005463269
Figure 0005463269

ここでは標本平均、標本分散を用いた例を示したが、特徴量類似度計算手段342は、不偏分散を用いて正規化を行うようにしてもかまわない。   Although an example using the sample mean and sample variance is shown here, the feature quantity similarity calculation unit 342 may perform normalization using unbiased variance.

<特徴量類似度比較ステップ>
特徴量類似度比較ステップST153では、特徴量類似度比較手段343が、矩形候補算出ステップST13で選ばれた各矩形候補1,・・・nに対して、それぞれ特徴量類似度計算ステップST153で求めた類似度ρ,・・・,ρを比較し、最も適切な矩形候補iresultを決定する。
例えば、特徴量類似度比較手段343は、類似度ρが特徴量類似度計算ステップST153で示したような相関値を用いている場合、ρの値が大きいほど類似していることを表しているため、ρが最大となる矩形候補iを最も適切な矩形候補として決定することができる。
<Feature amount similarity comparison step>
In the feature amount similarity comparison step ST153, the feature amount similarity comparison unit 343 obtains each of the rectangle candidates 1,... N selected in the rectangle candidate calculation step ST13 in the feature amount similarity calculation step ST153. The similarities ρ i ,..., Ρ n are compared, and the most suitable rectangle candidate i result is determined.
For example, when the similarity ρ uses the correlation value as shown in the feature amount similarity calculation step ST153, the feature amount similarity comparison unit 343 indicates that the larger the value of ρ, the more similar the ρ is. Therefore, the rectangle candidate i that maximizes ρ can be determined as the most appropriate rectangle candidate.

Figure 0005463269
Figure 0005463269

ここで、argmaxρは、ρの値が最大となる添え字iの値を求めることを表す。

また、特徴量類似度比較手段343は、以下の式(29)に示す最大の類似度ρresult=ρiresultが、所定の閾値を越えているかどうかを判断し、所定の閾値を越えていない場合には適切な矩形が検出できなかったものと判断するようにしても良い。
Here, argmaxρ i represents that the value of the subscript i that maximizes the value of ρ i is obtained.

Further, the feature quantity similarity comparison unit 343 determines whether the maximum similarity ρ result = ρ iris shown in the following formula (29) exceeds a predetermined threshold, and does not exceed the predetermined threshold. It may be determined that an appropriate rectangle could not be detected.

Figure 0005463269
Figure 0005463269

また、類似度ρが特徴量類似度計算ステップST153において、例えばLノルムのように、値が小さいほどより類似していることを表すような指標値として得られている場合、特徴量類似度比較手段343は、最大の代わりに最小の値を選択するようにしてもよいことは言うまでもない。 Further, the similarity ρ feature quantity similarity calculation step ST153, for example, L 2 as in the norm, if they are obtained as an index value that indicates that similar than smaller the value, the feature amount similarity It goes without saying that the comparing means 343 may select the minimum value instead of the maximum.

ここで、類似度に対する所定の閾値は、特徴量類似度計算ステップST153で用いた類似度の計算方法によって決まる。特徴量類似度比較手段343は、得られる類似度の値の範囲に応じ、明らかに目的の特徴を持たない矩形((ノイズ成分))を除外できる程度に大きく、目的の特徴を持つ矩形が除外されない程度に小さな値を設定すればよい。閾値は、実環境において実験的に求めてもよいし、以下のように類似度の計算方法に合わせて、必要なfalse positive の基準に合わせて定量的に決定を行ってもよい。
すなわち、前記の正規分布からのずれの大きさを考慮した評価指標ρを類似度として用いるようにした場合には、参考文献3にあるように、目的の特徴を持たない矩形を誤って検出してしまう確率(false positive) が、目標値(例えば、10−2未満や10−7未満))となるように、閾値を定めてもよい。false positiveの確率の目標値は、目的の特報を持たない矩形(ノイズ成分) を除外するのに必要な基準を決定すればよい。
Here, the predetermined threshold for the similarity is determined by the similarity calculation method used in the feature quantity similarity calculation step ST153. The feature quantity similarity comparison unit 343 is large enough to exclude a rectangle having no desired feature ((noise component)) according to the range of similarity values obtained, and excludes a rectangle having the desired feature. It is sufficient to set a value that is not so small. The threshold value may be obtained experimentally in an actual environment, or may be quantitatively determined in accordance with a necessary false positive standard according to the similarity calculation method as described below.
That is, when the evaluation index ρ taking into account the magnitude of deviation from the normal distribution is used as the similarity, a rectangle having no target feature is erroneously detected as described in Reference 3. The threshold value may be set so that the probability (false positive) of becoming a target value (for example, less than 10 −2 or less than 10 −7 ). The target value of the false positive probability may be determined based on the criteria necessary to exclude rectangles (noise components) that do not have the desired special information.

以下に、特徴量類似度比較手段343による特徴量類似度比較ステップST153の代替となる動作について説明する。特徴量類似度比較手段343は、特徴量類似度比較ステップST153での最大値判定の代わりに、特徴量類似度計算ステップST152で全ての矩形候補に対して類似度を計算せずに、計算した類似度が所定の閾値を越える矩形候補が現れた時点で計算を終了し、その矩形候補を適切な矩形候補として決定するようにしてもよい。これにより、高速に比較処理を行うことができる。   Hereinafter, an operation that is an alternative of the feature amount similarity comparison step ST153 performed by the feature amount similarity comparison unit 343 will be described. The feature amount similarity comparison unit 343 calculates the feature amount similarity calculation step ST152 without calculating the similarity for all the rectangle candidates instead of the maximum value determination in the feature amount similarity comparison step ST153. The calculation may be terminated when a rectangular candidate whose similarity exceeds a predetermined threshold appears, and the rectangular candidate may be determined as an appropriate rectangular candidate. Thereby, the comparison process can be performed at high speed.

<矩形検出結果出力ステップ>
矩形検出結果出力ステップST16では、特徴量類似度比較手段343が、特徴量類似度比較ステップST145で決定した矩形候補について、これを矩形検出装置300の検出結果として出力する。特徴量類似度比較手段343による検出結果の出力の仕方は、検出した矩形を識別できる情報であればどの様な形式でもかまわない。
<Rectangle detection result output step>
In the rectangle detection result output step ST16, the feature quantity similarity comparison unit 343 outputs the rectangle candidates determined in the feature quantity similarity comparison step ST145 as detection results of the rectangle detection apparatus 300. The method of outputting the detection result by the feature amount similarity comparison unit 343 may be in any format as long as the information can identify the detected rectangle.

具体的には、例えば、入力した矩形検出対象画像の中の、決定した矩形候補の四隅の座標値を検出結果として出力するようにしてもよいし、決定した矩形候補の4辺を表現する関数の係数を検出結果として出力するようにしてもよいし、矩形候補の四隅の点を所定の矩形((例えば長方形))に変換する射影変換係数を検出結果として出力するようにしてもよいし、決定した矩形候補を所定の矩形((例えば長方形))に射影変換して得られた画像を検出結果として出力するようにしてもよい。
また、これらの情報を記憶装置に保存したうえで、記憶装置上の保存位置を検出結果として出力するようにしても構わない。
Specifically, for example, the coordinate values of the four corners of the determined rectangle candidate in the input rectangle detection target image may be output as a detection result, or a function expressing the four sides of the determined rectangle candidate These coefficients may be output as detection results, or projective transformation coefficients for converting the four corner points of the rectangle candidates into predetermined rectangles (for example, rectangles) may be output as detection results. An image obtained by projective transformation of the determined rectangle candidate to a predetermined rectangle (for example, a rectangle) may be output as a detection result.
Further, after storing these pieces of information in the storage device, the storage position on the storage device may be output as a detection result.

[第2実施形態]
第2実施形態では、第1実施形態における特徴量類似度比較ステップST153の処理のバリエーションについて説明する。
特徴量類似度比較ステップST153の一つの処理例は、各矩形候補1,・・・nに対して、それぞれ特徴量類似度計算ステップST152で求めた類似度ρ,・・・ρについて、矩形候補算出ステップST13で用いた矩形評価値と組み合わせて評価を行うものである。
[Second Embodiment]
In the second embodiment, a process variation of the feature amount similarity comparison step ST153 in the first embodiment will be described.
One processing example of the feature amount similarity comparison step ST153, each rectangle candidate 1 for · · · n, respectively similarities [rho 1 was determined by the feature amount similarity calculation step ST152, the · · · [rho n, The evaluation is performed in combination with the rectangle evaluation value used in the rectangle candidate calculation step ST13.

例えば、特徴量類似度比較手段343は、類似度ρが所定の閾値を超えている矩形候補iについて、対応する矩形評価値rが最大となる矩形候補を適切な矩形候補として決定するようにしてもよい。また、特徴量類似度比較手段343は、類似度ρの最大のものから上位T個の矩形候補について、対応する矩形評価値rが最大となる矩形候補を適切な矩形候補として決定するようにしてもよい。また、特徴量類似度比較手段343は、類似度ρと矩形評価値rに所定の関数を適用したf(ρ,r)の値が最大となるものを適切な矩形候補として決定するようにしてもよい。
このf(ρ,r)としては、例えば、式(30)に示す重み付き和や式(31)に示す重み付き積であってもよい。
For example, the feature quantity similarity comparison unit 343 determines, as a suitable rectangle candidate, a rectangle candidate having the maximum corresponding rectangle evaluation value r i for the rectangle candidate i whose similarity ρ i exceeds a predetermined threshold. It may be. Also, the feature quantity similarity comparison unit 343 determines, as an appropriate rectangle candidate, the rectangle candidate having the maximum corresponding rectangle evaluation value r for the top T rectangle candidates from the highest similarity ρ i. May be. Also, the feature quantity similarity comparison unit 343 determines the one having the maximum value of f (ρ i , r i ) obtained by applying a predetermined function to the similarity ρ i and the rectangle evaluation value r i as an appropriate rectangle candidate. You may make it do.
The f (ρ i , r i ) may be, for example, a weighted sum shown in Equation (30) or a weighted product shown in Equation (31).

Figure 0005463269
Figure 0005463269

Figure 0005463269
Figure 0005463269

ここで、αとβは、類似度ρと矩形評価値rのどちらを重要視して判断を行うかを意味づける重みパラメータである。特徴量類似度比較手段343は、例えば、類似度ρを重要視する場合はα>β、矩形評価値rを重要視する場合はα<βとなるように決定する。また、特徴量類似度比較手段343は、重要度合の違いがより大きい場合にはαとβの差、もしくは比が大きくなるように決定すればよく、矩形検出の精度を高められるよう実験的に求めればよい。
なお、重み付き積の場合で、ρ,rのとりうる値の範囲は0〜1の場合にはαとβの大小関係を逆にする必要があることは言うまでもない。
Here, α and β are weighting parameters that indicate which of the similarity ρ i and the rectangular evaluation value r i is to be regarded as important. The feature amount similarity comparison unit 343 determines, for example, α> β when importance is attached to the similarity ρ i and α <β when importance is attached to the rectangular evaluation value r i . Also, the feature quantity similarity comparison unit 343 may determine that the difference or ratio between α and β is large when the difference in importance is larger, and experimentally improve the accuracy of rectangle detection. Find it.
In the case of weighted product, [rho i, the range of possible values of r i is naturally in the case of 0-1 is necessary to reverse the magnitude relationship of α and beta.

また、Tの値は、Tの値が大きいほど矩形評価値rの値を重要視し、Tの値が小さいほど、類似度ρの値を重要視して判断を行うことを意味する。特徴量類似度比較手段343は、1から矩形候補算出ステップST13で算出する矩形候補の個数の間の範囲でTの値を設定すればよい。 Further, the value of T means that the larger the value of T, the more important the value of the rectangular evaluation value r i , and the smaller the value of T, the more important the value of the similarity ρ i is determined. . The feature quantity similarity comparison unit 343 may set the value of T in a range between 1 and the number of rectangle candidates calculated in the rectangle candidate calculation step ST13.

特徴量類似度比較ステップST153の別な一つの処理例は、特徴量類似度比較手段343が、複数の連続する画像フレームからなる映像に対し、各フレームが順に矩形検出対象画像として入力されるような矩形検出装置の場合の例である。   Another processing example of the feature quantity similarity comparison step ST153 is such that the feature quantity similarity comparison unit 343 sequentially inputs each frame as a rectangular detection target image with respect to a video composed of a plurality of continuous image frames. This is an example of a rectangular detection device.

この場合、特徴量類似度比較手段343は、各矩形候補1,・・・,nに対して、それぞれ特徴量類似度計算ステップST152で求めた類似度ρ,・・・,ρについて、過去の処理フレームに対する矩形検出結果と組み合わせて評価を行うものである。
例えば、特徴量類似度比較手段343は、類似度ρが所定の閾値を超えている矩形候補iの中で、直前の処理フレームでの矩形検出結果の矩形と最も類似しているものを適切な矩形候補として決定するようにしてもよい。直前の処理フレームでの矩形検出結果の矩形との類似性は、例えば特許文献3に示されている様な矩形の特徴量を、直前の処理フレームでの矩形検出結果の矩形と現在の処理フレームでの矩形候補についてそれぞれ算出し、特徴量類似度比較手段343がその特徴量を比較することで判定してもよい。
<特許文献3>:特開2008−117228 矩形追跡方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
In this case, the feature quantity similarity comparison unit 343 performs the similarity ρ i ,..., Ρ n obtained in the feature quantity similarity calculation step ST152 for each of the rectangle candidates 1,. The evaluation is performed in combination with the rectangle detection result for the past processing frame.
For example, the feature quantity similarity comparison unit 343 appropriately selects a rectangle candidate i having a similarity ρ i exceeding a predetermined threshold value that is most similar to the rectangle of the rectangle detection result in the immediately preceding processing frame. You may make it determine as a rectangle candidate. The similarity with the rectangle of the rectangle detection result in the immediately preceding processing frame is obtained by, for example, comparing the feature amount of the rectangle as shown in Patent Document 3 with the rectangle of the rectangle detection result in the immediately preceding processing frame and the current processing frame. May be calculated for each of the rectangle candidates, and the feature amount similarity comparison unit 343 may determine the comparison by comparing the feature amounts.
<Patent Literature 3>: Japanese Patent Application Laid-Open No. 2008-117228 Rectangular tracking method and apparatus, program, and computer-readable recording medium

また、特徴量類似度比較手段343は、類似度ρの最大のものから上位T個の矩形候補について直前の処理フレームでの矩形検出結果の矩形と最も類似しているものを適切な矩形候補として決定するようにしてもよい。特徴量類似度比較手段343は、類似度ρと直前の処理フレームでの矩形検出結果の矩形との類似性の評価値λに所定の関数を適用したg(ρ,λ)の値が最大となるものを適切な矩形候補として決定するようにしてもよい。
所定の関数として重み付け和や重み付け積を用いてもよいことは言うまでもない。
さらに、これらの処理例を組み合わせて用いてもかまわないことは言うまでもない。
Also, the feature quantity similarity comparison unit 343 selects an appropriate rectangle candidate that is the most similar to the rectangle of the rectangle detection result in the immediately previous processing frame from the highest similarity ρ i to the top T rectangle candidates. You may make it determine as. The feature amount similarity comparison unit 343 applies g (ρ i , λ i ) obtained by applying a predetermined function to the similarity evaluation value λ i between the similarity ρ i and the rectangle of the rectangle detection result in the immediately preceding processing frame. The one having the maximum value may be determined as an appropriate rectangle candidate.
It goes without saying that a weighted sum or a weighted product may be used as the predetermined function.
Furthermore, it goes without saying that these processing examples may be used in combination.

[第3実施形態]
第1実施形態では、矩形パターン生成ステップST3および特徴量計算ステップST2の辺検出系列計算ステップにおいて、辺の内側と外側の画素の平均値をそれぞれ個別に扱って矩形パターンの生成および検出系列の計算を行う例を示したが、下記のように内側と外側の画素値の差分値を用いるようにしてもよい。以下に具体的に説明する。
矩形付加装置100においては、まず、特徴量計算ステップST2においては、長さL=c(N+N+N+N)の数値系列を生成する。
矩形パターン生成ステップST3においては、矩形パターン生成手段102が、数値系列を4辺の各位置およびチャネルに対応付ける。辺上の位置xにおけるY,Cb,Crに対応付けられた数値系列を、それぞれ、以下に示すw[Y](x)、w[Cb](x)、w[Cr](x)であるとする。
[Third Embodiment]
In the first embodiment, in the edge detection series calculation step of the rectangular pattern generation step ST3 and the feature amount calculation step ST2, the average values of the pixels inside and outside the edge are individually handled to generate the rectangular pattern and calculate the detection series. Although an example of performing is shown, a difference value between the inner and outer pixel values may be used as described below. This will be specifically described below.
In the rectangle adding device 100, first, in the feature amount calculation step ST2, a numerical sequence of length L = c (N 1 + N 2 + N 3 + N 4 ) is generated.
In the rectangular pattern generation step ST3, the rectangular pattern generation means 102 associates the numerical series with each position and channel on the four sides. The numerical sequences associated with Y, Cb, and Cr at the position x on the side are w [Y] (x), w [Cb] (x), and w [Cr] (x), respectively, shown below. And

Figure 0005463269
Figure 0005463269

ここで、辺の内側と外側の区別がない点に注意されたい。
矩形パターン生成手段102は、辺上の位置xにおける内側点の画素値と外側点の画素値がそれぞれ異なる符号で変化する様に値を決定する。すなわち、位置xにおける数値系列の値w[Y](x)、w[Cb](x)、w[Cr](x)に応じて変化する(相関をもつ)様に値を決定する。
矩形パターン生成手段102は、辺上の位置xにおける内側点のY,Cb,Cr の画素値Zin [Y](x)、Zin [Cb](x)、Zin [Cr](x)を、それぞれ、以下の式(33)に示す。
Note that there is no distinction between the inside and outside of the side.
The rectangular pattern generation unit 102 determines values so that the pixel value of the inner point and the pixel value of the outer point at the position x on the side change with different signs. That is, the value is determined so as to change (correlate) in accordance with the values w [Y] (x), w [Cb] (x), and w [Cr] (x) of the numerical series at the position x.
The rectangular pattern generation means 102 outputs the pixel values Z in [Y] (x), Z in [Cb] (x), Z in [Cr] (x) of Y, Cb, Cr of the inner point at the position x on the side. Are shown in the following formula (33).

Figure 0005463269
Figure 0005463269

矩形パターン生成手段102は、辺上の位置xにおける外側点のY,Cb,Crの画素値Zout [Y](x)、Zout [Cb](x)、Zout [Cr](x)を、それぞれ、以下の式(34)に示すように定める。 The rectangular pattern generation unit 102 outputs the pixel values Z out [Y] (x), Z out [Cb] (x), and Z out [Cr] (x) of the outer points Y, Cb, and Cr at the position x on the side. Are determined as shown in the following equation (34).

Figure 0005463269
Figure 0005463269

wの係数の符号を内側と外側で反対としている点に注意されたい。なお、内側と外側で正負を逆にしてもよい。
矩形検出装置300の特徴量計算手段333は、特徴量計算ステップST143のSTEP1433(辺検出系列計算ステップ)において、検出系列dを、辺の内側点の平均値と外側点の平均値の差分で求めるようにする。すなわち、特徴量計算手段333は、検出系列dを、以下の式(35)のように定める。
Note that the sign of the coefficient of w is reversed inside and outside. In addition, you may reverse positive / negative inside and outside.
The feature quantity calculation means 333 of the rectangle detection apparatus 300 obtains the detection series d as a difference between the average value of the inner points of the sides and the average value of the outer points in STEP 1433 (side detection series calculation step) of the feature quantity calculation step ST143. Like that. That is, the feature quantity calculation means 333 determines the detection series d as shown in the following formula (35).

Figure 0005463269
Figure 0005463269

また、特徴量計算手段333は、各分割位置毎に辺の内側点と外側点の画素値の差分を求めてから平均値を求めるようにしてもよい。すなわち、特徴量計算手段333は、以下の式(36)のように定める。   In addition, the feature amount calculation unit 333 may obtain the average value after obtaining the difference between the pixel values of the inner point and the outer point of each side for each division position. That is, the feature quantity calculation means 333 is defined as the following formula (36).

Figure 0005463269
Figure 0005463269

なお、矩形パターン生成ステップST3においてwの係数の正負を逆にした場合は、検出系列の計算において内側と外側の値の正負を逆にすることは言うまでもない。   Needless to say, when the sign of the coefficient of w is reversed in the rectangular pattern generation step ST3, the sign of the inner and outer values is reversed in the calculation of the detection sequence.

[第4実施形態]
上述の第1実施形態にでは、検出系列統合手段3334において、特徴量計算ステップST143のSTEP1434(辺検出系列統合ステップ) の様に矩形全体の検出系列を統合してから特徴量の比較を行うような例を示した。しかし、本発明はこれに限られず、検出系列統合手段3334は、矩形候補の辺毎に辺検出系列計算手段3333で得られた検出系列を用い、特徴量類似度計算手段342において、埋め込み系列の当該辺の部分列との類似度計算を行って、辺毎の類似度を求め、これを用いて矩形特徴量評価を行ってもよい。
また、例えば、辺毎の特徴量の類似度の計算と、矩形全体に統合した特徴量の類似度の計算を組み合わせて処理するようにしてもよい。
[Fourth Embodiment]
In the first embodiment described above, the detection sequence integration means 3334 integrates the detection sequences of the entire rectangle as in STEP 1434 (side detection sequence integration step) of the feature amount calculation step ST143, and then compares the feature amounts. An example was given. However, the present invention is not limited to this, and the detection sequence integration unit 3334 uses the detection sequence obtained by the side detection sequence calculation unit 3333 for each side of the rectangle candidate, and the feature amount similarity calculation unit 342 It is also possible to perform similarity calculation with the partial sequence of the side, obtain similarity for each side, and perform rectangular feature evaluation using this.
Further, for example, the calculation of the similarity of the feature amount for each side may be combined with the calculation of the similarity of the feature amount integrated in the entire rectangle.

具体的には、例えば、対象としている矩形候補について、辺毎の特徴量の類似度の計算結果が所定の閾値を下回る辺を含んでいる場合は、当該矩形候補を棄却するようにし、棄却されずに残った矩形候補についてのみ矩形全体に統合した特徴量の類似度を計算し、特徴量類似度比較を行うようにしてもよい。
なお、ここで、類似度の値が大きいほど類似していることを表す場合を例にとったが、値が小さいほど類似していることを表す場合は、所定の閾値を上回る辺を含む場合に当該矩形候補を棄却するようになすべきことは言うまでもない。
Specifically, for example, if the calculation result of the feature similarity for each side includes a side that is below a predetermined threshold for the target rectangular candidate, the rectangular candidate is rejected and rejected. It is also possible to calculate the similarity of feature amounts integrated into the entire rectangle only for the remaining rectangle candidates, and perform feature amount similarity comparison.
In addition, here, the case where it represents that it is similar as the value of similarity is large was taken as an example. However, in the case of representing that it is similar as the value is small, it includes a side exceeding a predetermined threshold Needless to say, the rectangle candidate should be rejected.

ここで、所定の閾値は、特徴量類似度比較ステップST153で用いる閾値と、同様の考え方で決定してもよい。   Here, the predetermined threshold value may be determined based on the same concept as the threshold value used in the feature amount similarity comparison step ST153.

[第5実施形態]
第5実施形態では、矩形の特徴量に用いる色空間のバリエーションについて説明する。
第1実施形態の特徴量計算ステップST143では、画素値取得手段332で画素値をY,Cb,Crの色空間で取得することを例に記載しているが、矩形パターン生成ステップST3で用いられる色空間と関連付けられていれば、これ以外の色空間を用いてもかまわない。
一つの例としては、例えば、矩形パターン生成ステップST3において、R,G,BのBチャネルを用い矩形パターンを生成し、特徴量計算ステップST143では、Y,Cb,CrのCbチャネルを用いて矩形特徴量の計算を行ってもよい。これは、BチャネルとCbチャネルとは互いに相関が大きく、Bチャネルに与えられた変動がCbチャネルでも容易に観測することができるからである。
[Fifth Embodiment]
In the fifth embodiment, variations of the color space used for the rectangular feature amount will be described.
In the feature amount calculation step ST143 of the first embodiment, the pixel value acquisition unit 332 acquires the pixel value in the Y, Cb, Cr color space as an example, but is used in the rectangular pattern generation step ST3. Other color spaces may be used as long as they are associated with the color space.
As an example, for example, in the rectangular pattern generation step ST3, a rectangular pattern is generated using the B channels of R, G, and B, and in the feature amount calculation step ST143, a rectangle is generated using the Cb channels of Y, Cb, and Cr. The feature amount may be calculated. This is because the B channel and the Cb channel have a large correlation with each other, and fluctuations given to the B channel can be easily observed even in the Cb channel.

[第6実施形態]
第6実施形態では、複数の矩形を多重に付加し、各矩形を候補として検出し、各矩形に対する特徴量を多重の矩形全体に対する特徴量として統合することで、目的の矩形領域をより精度よく検出する例を示す。
本実施例の矩形付加装置100では、第1実施形態に係る矩形付加装置100における特徴量生成ステップST2、矩形パターン生成ステップST3をそれぞれ複数回実行し、矩形付加ステップST4において、大きさのわずかに異なる複数の矩形を多重に描画するようにする。
[Sixth Embodiment]
In the sixth embodiment, a plurality of rectangles are added in a multiplex manner, each rectangle is detected as a candidate, and the feature amounts for each rectangle are integrated as the feature amounts for the entire multiple rectangles, so that the target rectangular region can be more accurately obtained. An example of detection will be shown.
In the rectangle adding apparatus 100 of the present embodiment, the feature amount generation step ST2 and the rectangular pattern generation step ST3 in the rectangle adding apparatus 100 according to the first embodiment are each executed a plurality of times, and in the rectangle adding step ST4, the size is slightly increased. Multiple different rectangles are drawn.

図19に、複数の矩形を多重に描画した矩形付加画像の例を示す。図19は、複数の矩形を多重に描画した矩形付加画像の例を示す図である。
図19の矩形付加画像1901では、矩形を3重に付加した例を示しており、各矩形が所定の特徴を持つようになされている。
本実施形態に係る矩形検出装置300では、第1実施形態の矩形検出装置300における矩形候補算出ステップST13の後に、複数の矩形候補の中から、互いに近傍に存在する矩形の組を決定し、多重矩形候補とする。
FIG. 19 shows an example of a rectangular additional image in which a plurality of rectangles are drawn in a multiplexed manner. FIG. 19 is a diagram illustrating an example of a rectangular additional image in which a plurality of rectangles are drawn in a multiplexed manner.
The rectangle addition image 1901 in FIG. 19 shows an example in which rectangles are added in triplicate, and each rectangle has a predetermined feature.
In the rectangle detection apparatus 300 according to the present embodiment, after the rectangle candidate calculation step ST13 in the rectangle detection apparatus 300 according to the first embodiment, a set of rectangles that are close to each other is determined from among a plurality of rectangle candidates, and multiplexed. A rectangle candidate.

ここで、「互いに近傍に存在する」とは、
・矩形の4頂点の重心間の距離が、所定の閾値未満である
・矩形の4辺の長さの比が所定の値の範囲内である、もしくは差が所定の閾値未満である
ことを条件として判断を行ってもよい。
Here, “exists in the vicinity of each other” means
The distance between the centroids of the four vertices of the rectangle is less than a predetermined threshold. The condition is that the ratio of the lengths of the four sides of the rectangle is within a predetermined value range, or the difference is less than the predetermined threshold. Judgment may be made.

ここで、重心間の距離に対する閾値は、矩形検出対象画像の画像サイズに応じ、例えば矩形検出対象画像の1辺の長さの1〜5%の値を設定してもよい。また、矩形の4辺の長さの比に対する値の範囲は、例えば0.9〜1.1の範囲(±10%)であってもよい。また、矩形の4辺の長さに対する閾値は、矩形検出対象画像の画像サイズに応じ、例えば矩形検出対象画像の1辺の長さの1〜5%の値を設定してもよい。なおこれらの例で挙げた値の範囲に限定するものではなく、例えば矩形の4辺の長さの比に対する値の範囲を0.8〜1.2の範囲(±20%)としてもよいことは言うまでもない。   Here, the threshold for the distance between the centroids may be set to a value of 1 to 5% of the length of one side of the rectangular detection target image, for example, according to the image size of the rectangular detection target image. Moreover, the range of the value with respect to the ratio of the lengths of the four sides of the rectangle may be, for example, a range of 0.9 to 1.1 (± 10%). The threshold for the length of the four sides of the rectangle may be set to a value of 1 to 5% of the length of one side of the rectangle detection target image, for example, according to the image size of the rectangle detection target image. In addition, it is not limited to the range of the value mentioned in these examples, For example, it is good also considering the range of the value with respect to the ratio of the length of four sides of a rectangle as the range (± 20%) of 0.8-1.2. Needless to say.

互いに近傍に存在することについて、またあるいは、辺候補検出ステップST12において、上下左右の各方向に連続して検出された辺を用いて、次のように判断を行ってもよい。   It may be determined as follows whether or not they are close to each other, or alternatively, in the edge candidate detection step ST12, using edges that are continuously detected in the vertical and horizontal directions.

STEP1201´:
上下左右の各方向で検出された辺を、それぞれ検出された順に並べ、E、E、E、Eを、式(37)に示す通りとする。
STEP1201 ':
The sides detected in the upper, lower, left, and right directions are arranged in the order of detection, and E upper , E lower , E left , and E right are as shown in Expression (37).

Figure 0005463269
Figure 0005463269

ただし、n、n、n、nは、それぞれ上下左右の各方向で検出された辺の数を表す。 However, n- up , n- down , n- left , and n- right represent the number of sides detected in each of the vertical and horizontal directions.

STEP1202´:
矩形付加装置で多重に付加した矩形の多重度k に応じ、上下左右の各方向でm 個の連続した辺を抽出し、C、C、C、C、とする。
これら、C、C、C、Cについては、式(38)が成り立つ。
STEP1202 ':
According to the multiplicity k of the rectangle added by the rectangle adding device, m continuous sides are extracted in each of the upper, lower, left and right directions, and are defined as C upper , C lower , C left , C right .
These, on C, C under, C left, for C right, formula (38) holds.

Figure 0005463269
Figure 0005463269

STEP1203´:
上下左右の順番の揃った辺から構成されるk個の矩形R,R,・・・,Rを構成し、これらの組を多重矩形の候補とする。
STEP1203 ':
K rectangles R 1 , R 2 ,..., R k composed of vertically and horizontally aligned edges are formed, and these sets are candidates for multiple rectangles.

Figure 0005463269
Figure 0005463269

STEP1204´:
検出した辺の条件に当てはまるもの全て、すなわち任意のi,j,k,lの組み合わせについて、STEP1202´から1203´を繰り返す本実施例の矩形検出装置では、第1実施形態の矩形検出装置300における矩形特徴量計算ステップST14において、得られた多重矩形候補の各矩形について矩形特徴量を計算し、さらに特徴量として得られたk種類の検出系列を並べて多重矩形に対する検出系列として出力し、矩形特徴量評価ステップST15において、多重矩形に対する検出系列全体について矩形付加装置100において付与した所定の特徴量との類似度を比較することにより目的の多重矩形を決定する。
STEP 1204 ':
In the rectangular detector of the present embodiment that repeats STEPs 1202 ′ to 1203 ′ for all combinations that match the detected edge conditions, that is, any combination of i, j, k, and l, in the rectangular detector 300 of the first embodiment. In the rectangular feature amount calculation step ST14, a rectangular feature amount is calculated for each rectangle of the obtained multiple rectangle candidates, and k types of detection sequences obtained as feature amounts are arranged and output as detection sequences for the multiple rectangles. In the quantity evaluation step ST15, the target multiple rectangle is determined by comparing the similarity between the entire detection sequence for the multiple rectangle and the predetermined feature value given by the rectangle adding device 100.

[第7実施形態]
第1実施形態では、矩形の各辺をそれぞれN、N、N、N分割し、特徴量計算ステップST143のSTEP1431(変換パラメータ計算ステップ)およびSTEP1432(分割位置計算ステップ)で、射影変換パラメータを用いて辺上のエッジ座標を矩形の分割位置を表す座標に変換するように構成したが、処理を簡略化するため、次の様な変換を行うこともできる。
[Seventh Embodiment]
In the first embodiment, each side of the rectangle is divided into N 1 , N 2 , N 3 , and N 4 , and projected in STEP 1431 (conversion parameter calculation step) and STEP 1432 (division position calculation step) in the feature amount calculation step ST143. Although the configuration is such that the edge coordinates on the side are converted to the coordinates representing the division position of the rectangle using the conversion parameter, the following conversion can also be performed in order to simplify the processing.

矩形候補の頂点座標から、当該辺候補の両端の頂点をもとめ、一方の頂点から辺上のエッジ座標までの距離と、頂点座標間の距離の比から分割位置を求めてもよい。
すなわち、矩形候補の両端の頂点の座標がx,x(ただしx<x)、辺上のエッジ座標がx、辺の分割数がNであるとき、求める分割位置n(1≦n≦N)を、以下の式(40)で求めてもよい。
From the vertex coordinates of the rectangle candidate, the vertices at both ends of the side candidate may be obtained, and the division position may be obtained from the ratio of the distance from one vertex to the edge coordinates on the side and the distance between the vertex coordinates.
That is, when the coordinates of the vertices at both ends of the rectangle candidate are x 1 , x 2 (where x 1 <x 2 ), the edge coordinates on the side are x e , and the number of divisions of the side is N, the division position n (1 ≦ n ≦ N) may be obtained by the following formula (40).

Figure 0005463269
Figure 0005463269

ただし、数値(41)に示す項は、xを超えない最大の整数値を表す。   However, the term shown in the numerical value (41) represents the maximum integer value not exceeding x.

Figure 0005463269
Figure 0005463269

また、|x−y|は、座標x,y間の距離を表す。   | X−y | represents a distance between the coordinates x and y.

また、辺の分割数が2の場合には、辺候補検出ステップST12のSTEP1204でエッジ検出したエッジ追跡開始点を境界として、辺上のエッジ座標の分割位置が2つのうちのどちらであるかを判断してもよい。このとき、辺候補検出ステップST12のSTEP1201における探索開始点が、予想される矩形の中心付近になっていることにより、辺をおおよそ2分する位置がエッジ追跡開始点となっている。また、矩形検出対象画像全体の上下の外縁の中点および左右の外縁の中点を結んだ線を境界として判断してもよい。
これらの変換により分割位置を判断するようにすることで、若干の誤差を伴うが、より高速な分割位置の計算が可能となる。
Further, when the number of divisions of the side is 2, the edge tracking start point detected in STEP 1204 of the side candidate detection step ST12 is used as a boundary to determine which of the two edge coordinate division positions is on the side. You may judge. At this time, since the search start point in STEP 1201 of the edge candidate detection step ST12 is near the expected center of the rectangle, the position that roughly bisects the edge is the edge tracking start point. Further, a line connecting the midpoints of the upper and lower outer edges and the left and right outer edges of the entire rectangular detection target image may be determined as a boundary.
By determining the division position by these conversions, it is possible to calculate the division position at a higher speed although there is a slight error.

[第8実施形態]
第1実施形態の特徴量計算ステップST143において、各分割位置毎の画素値の平均値から直接検出系列dを求める代わりに、各分割位置毎の画素値を周波数変換したものを検出系列として用いるようにしてもよい。
[Eighth Embodiment]
In the feature amount calculation step ST143 of the first embodiment, instead of directly obtaining the detection series d from the average value of the pixel values at each division position, a frequency-converted pixel value at each division position is used as the detection series. It may be.

周波数変換としては例えばフーリエ変換や離散コサイン変換などを用いてもよい。
この場合、矩形付加装置100では矩形パターン生成ステップST3 において、win [Y](x)、win [Cb](x)、win [Cr](x),wout [Y](x)、wout [Cb](x)、wout [Cr](x)を定める際、いったん、周波数係数値の系列ξin [Y](w)、ξin [Cb](w)、ξin [Cr](w),ξout [Y](w)、ξout [Cb](w)、ξout [Cr](w)を求め、それぞれ周波数wで逆周波数変換したのちに矩形パターン生成を行う。
For example, Fourier transform or discrete cosine transform may be used as the frequency transform.
In this case, the rectangular additional device 100 in a rectangular pattern generating step ST3, w in [Y] ( x), w in [Cb] (x), w in [Cr] (x), w out [Y] (x) , W out [Cb] (x), w out [Cr] (x), the frequency coefficient value series ξ in [Y] (w), ξ in [Cb] (w), ξ in [ Cr] (w), ξ out [Y] (w), ξ out [Cb] (w), and ξ out [Cr] (w) are obtained, and a rectangular pattern is generated after inverse frequency conversion at frequency w. .

Figure 0005463269
Figure 0005463269

ここで、F−1[ ]は、例えば逆フーリエ変換を表す。
矩形検出装置300は、特徴量計算ステップST143において、以下の(43)を位置iで周波数変換したのちに検出系列を求める。
Here, F −1 [] represents, for example, an inverse Fourier transform.
In the feature quantity calculation step ST143, the rectangle detection apparatus 300 obtains a detection sequence after frequency-converting the following (43) at the position i.

Figure 0005463269
Figure 0005463269

その一例を、以下の(44)に示す。   One example is shown in (44) below.

Figure 0005463269
Figure 0005463269

ここで、F[ ]は、例えばフーリエ変換を表す。
特徴量を周波数領域での系列として定める際は、画像のノイズの生じやすい周波数帯域(例えば低周波数成分や高周波数成分)を避け、中周波数成分のみを用いるようにしてもよい。
Here, F [] represents, for example, Fourier transform.
When defining the feature quantity as a series in the frequency domain, it is possible to avoid a frequency band (for example, a low frequency component or a high frequency component) in which image noise is likely to occur, and use only a medium frequency component.

[第9実施形態]
第1実施形態では、矩形検出装置300におけるエッジ成分の判定において、エッジ成分を持つと判定される閾値を超えるように、矩形付加装置100の矩形パターン生成手段102において、エッジ内外の基準値の間に差を持つよう矩形パターンを生成していた。
これに対し、矩形付加対象画像C11の特徴図形を付加する内側位置が十分な高い輝度、もしくは低い輝度を持っている画像の場合には、矩形パターン生成手段102においては、エッジ内外の基準値の差を考慮せず独立に設定する構成であってもよい。つまり、矩形付加装置100の矩形パターン生成手段102が矩形パターンを生成し、矩形付加手段103において矩形付加対象画像C11に矩形パターンを付加する際に、矩形付加対象画像C11自体の画素値成分でエッジが構成されるようにしてもよい。
[Ninth Embodiment]
In the first embodiment, in the determination of the edge component in the rectangle detection apparatus 300, the rectangular pattern generation unit 102 of the rectangle adding apparatus 100 determines whether the reference value between the inside and outside of the edge exceeds the threshold value determined to have the edge component. A rectangular pattern was generated with a difference between
On the other hand, in the case where the inner position to which the feature graphic of the rectangle addition target image C11 is added has a sufficiently high luminance or a low luminance, the rectangular pattern generation means 102 determines the reference values inside and outside the edge. The configuration may be set independently without considering the difference. That is, when the rectangular pattern generating unit 102 of the rectangular adding device 100 generates a rectangular pattern and the rectangular adding unit 103 adds the rectangular pattern to the rectangular addition target image C11, an edge is generated with the pixel value component of the rectangular addition target image C11 itself. May be configured.

例えば、矩形付加対象画像C11の特徴図形を付加する内側位置が十分高い輝度を持っている場合について説明する。まず、矩形パターン生成ステップST3において、矩形パターン生成手段102は、エッジ内外の基準値として、内側の輝度の基準値が0、外側の輝度の基準値が小さな値となるよう、例えば、Cin [Y]=0、Cout [Y]=10となるように設定し、さらに、矩形パターンの画素値が負の値をとりうるようにする。 For example, the case where the inner position to which the feature graphic of the rectangular addition target image C11 is added has sufficiently high luminance will be described. First, in the rectangular pattern generation step ST3, the rectangular pattern generation unit 102 sets the inner luminance reference value to 0 and the outer luminance reference value to a small value as, for example, C in [ Y] = 0 and C out [Y] = 10 are set so that the pixel value of the rectangular pattern can take a negative value.

さらに、矩形付加ステップST4のSTEP405において、矩形付加画像C12の当該座標が矩形辺上の内側にある場合、矩形付加手段103の画素値取得手段332は、矩形付加対象画像C11の画素の値に、矩形パターン中の画素の値を加算して矩形付加画像の画素値を決定する。矩形付加画像の当該座標が矩形辺上の外側にある場合、矩形付加手段103の画素値取得手段332は、矩形パターン中の画素の値を出力する。   Further, in STEP 405 of the rectangle addition step ST4, when the coordinates of the rectangle addition image C12 are inside the rectangle side, the pixel value acquisition unit 332 of the rectangle addition unit 103 sets the pixel value of the rectangle addition target image C11 to the pixel value. The pixel values of the rectangular additional image are determined by adding the pixel values in the rectangular pattern. When the coordinate of the rectangular additional image is outside the rectangular side, the pixel value acquiring unit 332 of the rectangular adding unit 103 outputs the value of the pixel in the rectangular pattern.

また例えば、矩形付加対象画像C11の特徴図形を付加する内側位置が十分低い輝度を持っている場合、矩形パターン生成手段102は、逆にエッジ内外の基準値を、外側の輝度の基準値が大きくなるよう、例えば、Cin [Y]=0、Cout [Y]=240となるように設定してもよい。また、輝度以外の色成分を用いて行ってもよいことは言うまでもない。
このようにすることで、矩形付加対象画像C11自体の画素値成分でエッジが構成されるようにすることができ、描画する矩形をより目立ちにくくすることができる。
Further, for example, when the inner position to which the feature graphic of the rectangle addition target image C11 is added has a sufficiently low luminance, the rectangular pattern generation unit 102 conversely increases the reference value for the inner and outer edges, and the reference value for the outer luminance is large. For example, C in [Y] = 0 and C out [Y] = 240 may be set. Needless to say, the color components other than the luminance may be used.
By doing in this way, an edge can be comprised by the pixel value component of rectangle addition object image C11 itself, and the rectangle to draw can be made more inconspicuous.

[第10実施形態]
第1実施形態に係る矩形検出装置300において特徴量計算ステップST143のSTEP1433(辺検出系列計算ステップ)において、分割位置毎の画素値の平均値を求める代わりに、特徴量計算ステップST143のSTEP1431(変換パラメータ計算ステップ)において逆射影変換のパラメータを求め、STEP1432(分割位置計算ステップ)において分割位置の座標に対応する矩形検出対象画像空間上の座標を求め、STEP1433(辺検出系列計算ステップ)において得られた座標の近傍のエッジ座標を持つエッジ検出点の画素値から補完計算を行って当該分割位置に対応する画素値を決定するようにしてもよい。
[Tenth embodiment]
In STEP 1433 (edge detection series calculation step) of feature amount calculation step ST143 in the rectangular detection apparatus 300 according to the first embodiment, instead of obtaining an average value of pixel values for each division position, STEP 1431 (conversion) of feature amount calculation step ST143 is performed. Parameters for reverse projection transformation are obtained in parameter calculation step), coordinates in the rectangular detection target image space corresponding to the coordinates of the division position are obtained in STEP 1432 (division position calculation step), and obtained in STEP 1433 (side detection series calculation step). The pixel value corresponding to the division position may be determined by performing complementary calculation from the pixel value of the edge detection point having the edge coordinates in the vicinity of the coordinate.

[第11実施形態]
第1実施形態では、4辺をもつ矩形を対象に例を示したが、他の図形形状であっても同様に行うことができる。
例えば、1辺のみの線分を検出する場合は、矩形付加装置100と同様の線分付加装置において、特徴量生成手段101と同様の手順で生成した特徴量に基づき、矩形パターン生成手段102を1辺の線分のみに適用した線分パターン生成手段を用いて線分パターンを生成し、対象の画像に特徴を持たせた線分を描画し、矩形検出装置300と同様の線分検出装置において、矩形候補算出ステップST13を省略し、辺候補から直接特徴量を算出し、所定の特徴量との類似度を計算して比較するようになすことで対応ができる。このとき、辺の分割位置は、辺の両端点からの距離の割合によって決定することができ、辺の内側、外側の位置は対象画像中の上下あるいは左右方向や、画像の中心点の様な所定の点を定め、その点に近い側と遠い側などを用いて定義することができる。
[Eleventh embodiment]
In the first embodiment, an example has been shown for a rectangle having four sides, but the same can be applied to other graphic shapes.
For example, when detecting a line segment of only one side, the rectangular pattern generation unit 102 is set based on the feature amount generated in the same procedure as the feature amount generation unit 101 in the line segment addition device similar to the rectangle addition device 100. A line segment detection device similar to the rectangle detection device 300, which generates a line segment pattern using line segment pattern generation means applied only to a line segment on one side, draws a line segment having a feature in the target image, and In this case, the rectangular candidate calculation step ST13 is omitted, the feature amount is directly calculated from the edge candidate, and the similarity with the predetermined feature amount is calculated and compared. At this time, the division position of the side can be determined by the ratio of the distance from both end points of the side, and the positions inside and outside the side are the vertical and horizontal directions in the target image and the center point of the image. It is possible to define a predetermined point and use a side close to the point and a side far from the point.

また、例えば、N辺をもつ多角形を検出する場合であっても、矩形パターン生成手段102を多角形に適用した多角形パターン生成手段を用いて、対象の画像に特徴を持たせた多角形を描画し、矩形検出装置300と同様の多角形検出装置において、多角形候補を抽出し、これに対する特徴量を算出、所定の特徴量との類似度を計算して比較するようになすことで対応ができる。   Further, for example, even when a polygon having N sides is detected, a polygon having a feature in the target image using a polygon pattern generation unit in which the rectangular pattern generation unit 102 is applied to the polygon is used. In a polygon detection device similar to the rectangle detection device 300, a polygon candidate is extracted, a feature amount is calculated, and a similarity with a predetermined feature amount is calculated and compared. Can respond.

また、例えば、円形状を検出する場合であっても、矩形パターン生成手段102を円形に適用した円形パターン生成手段を用いて、対象の画像に特徴を持たせた円形を描画し、矩形検出装置300と同様の円形検出装置において、辺候補検出の代わりに縁としての円形候補を抽出し、これに対する特徴量を算出、所定の特徴量との類似度を計算して比較するようになすことで対応ができる。
このとき、円の周囲の分割位置は、例えば円の中心からの角度によって決定することができ、また円形候補の抽出は、参考文献2の手法を適用することで行うことができる。
Further, for example, even when a circular shape is detected, a circular pattern generating unit in which the rectangular pattern generating unit 102 is applied to a circular shape is used to draw a circular shape having a feature in the target image, and the rectangular detecting device In the circular detection device similar to 300, circular candidates as edges are extracted instead of edge candidate detection, feature quantities are calculated for these, and similarities with predetermined feature quantities are calculated and compared. Can respond.
At this time, the division positions around the circle can be determined by, for example, the angle from the center of the circle, and the extraction of the circular candidate can be performed by applying the technique of Reference 2.

また、例えば、任意の閉曲線を検出する場合であっても、矩形パターン生成手段102を閉曲線に適用した図形パターン生成手段を用いて、対象の画像に特徴を持たせた図形を描画し、矩形検出装置300と同様の図形検出装置において、図形候補を抽出し、これに対する特徴量を算出、所定の特徴量との類似度を計算して比較するようになすことで対応ができる。このとき、図形の周囲の分割位置は、例えば図形の重心点からの角度によって決定することができる。同様に、任意の曲線に対しても、曲線の両端点からの距離の割合によって分割位置を決定することで対応ができ、曲線の内側、外側の位置は、対象画像中の上下あるいは左右方向や、画像の中心点の様な所定の点を定め、その点に近い側と遠い側などを用いて定義することができる。
以上のように本発明は任意の図形形状に対する図形付加装置、図形付加方法、図形検出装置、図形検出方法としても適用することができる。
In addition, for example, even when detecting an arbitrary closed curve, a figure having a feature in the target image is drawn by using a figure pattern generation unit in which the rectangular pattern generation unit 102 is applied to the closed curve, thereby detecting a rectangle. A graphic detection device similar to the device 300 can cope with this by extracting a graphic candidate, calculating a feature value for the graphic candidate, and calculating and comparing a similarity with a predetermined feature value. At this time, the division position around the figure can be determined by, for example, the angle from the center of gravity of the figure. Similarly, an arbitrary curve can be dealt with by determining the division position according to the ratio of the distance from both end points of the curve, and the positions inside and outside the curve are the vertical and horizontal directions in the target image. It is possible to define a predetermined point such as the center point of the image and use the side closer to the point and the side far from the point.
As described above, the present invention can also be applied to a figure adding apparatus, a figure adding method, a figure detecting apparatus, and a figure detecting method for an arbitrary figure shape.

[第12実施形態]
その他の実施例を下記に説明する。
矩形付加装置100の入力である矩形付加対象画像や、矩形検出装置300の入力である矩形検出対象画像が、複数のフレーム画像からなる映像であってもかまわない。
図1では、矩形検出装置300が携帯端末に内蔵されて動作する例を記載しているが、矩形検出装置300を別な端末、例えばデジタルカメラ、パソコン、サーバといった装置に搭載するようにしてもよい。
[Twelfth embodiment]
Other embodiments are described below.
The rectangular addition target image that is an input of the rectangular adding device 100 and the rectangular detection target image that is an input of the rectangular detection device 300 may be images including a plurality of frame images.
FIG. 1 illustrates an example in which the rectangular detection device 300 operates by being incorporated in a portable terminal. However, the rectangular detection device 300 may be mounted on another terminal such as a digital camera, a personal computer, or a server. Good.

各実施例で用いた辺の長さ、矩形の頂点間の距離、辺候補の端点間の距離、矩形の重心間の距離、座標間の距離などの長さは、ユークリッド距離で求めてもよいし、その他の距離算出方法を用いてもかまわない。
例えば、計算処理を高速に行うために市街地距離やチェス盤距離を用いてもよい。
The lengths of the sides used in each embodiment, the distance between the vertices of the rectangle, the distance between the end points of the side candidates, the distance between the centroids of the rectangle, the distance between the coordinates, and the like may be obtained by the Euclidean distance. However, other distance calculation methods may be used.
For example, a city distance or a chess board distance may be used in order to perform calculation processing at high speed.

本発明によって得られる効果を以下に説明する。
本発明の図形付加装置を用いて図形を画像に対し付加し、本発明の図形検出装置を用いて目的の図形を検出することで、目的の図形領域とは別な類似の図形(例えば矩形を検出するときに類似の矩形領域)が存在した場合や、目的の図形の近傍に強いエッジ成分を持つ直線が存在した場合にも、図形領域の誤検出を防止することができる。また、目的の図形を精度よく検出することができる。
The effects obtained by the present invention will be described below.
By adding a figure to an image using the figure adding apparatus of the present invention and detecting the target figure using the figure detecting apparatus of the present invention, a similar figure (for example, a rectangle other than the target figure region) is detected. Even when a similar rectangular area) is present when detecting, or when a straight line having a strong edge component is present in the vicinity of the target graphic, erroneous detection of the graphic area can be prevented. Moreover, the target figure can be detected with high accuracy.

また、検出した図形領域から電子透かしを検出する様な応用においても、複数回の電子透かし検出を試みる必要がなく、高速な検出処理を実現することができる。   Further, even in an application where a digital watermark is detected from a detected graphic area, it is not necessary to try digital watermark detection a plurality of times, and high-speed detection processing can be realized.

また、特徴量生成ステップST2のように所定の特徴量を疑似乱数を用いて付与し、特徴量類似度比較ステップST153のように検出系列との相関を用いて検出を行うことで、携帯端末のカメラの様な性能の低い撮影装置を用いて撮影した検出対象画像の様に撮影時のノイズや外光や照明条件の様な外部環境の変動に対しても、スペクトル拡散技術の特性に従い、非常にロバストに図形の検出を行うことができる。   In addition, a predetermined feature amount is assigned using a pseudo-random number as in the feature amount generation step ST2, and detection is performed using a correlation with a detection sequence as in the feature amount similarity comparison step ST153. Even with fluctuations in the external environment, such as noise, ambient light, and lighting conditions during shooting, as in the case of detection target images shot using a low-performance camera such as a camera, It is possible to detect a figure robustly.

また、画素値取得ステップST142のように、エッジの内側と外側の画素値を別々に取得し、これを検出系列に用いることで、単に辺上の画素値を取得する場合と比較して検出系列の拡散系列長を2倍にすることができ、よりロバストな類似度の比較を行うことができ、結果ロバストな図形検出を行うことができる。また、ロバストな検出が可能であることから、矩形パターン生成ステップST3における画素値決定の際の重みづけの値を小さくすることができ、結果、付加される図形の中での画素値の変動が小さく、付加する図形に付与された特徴が視覚的に目立たないようにすることができる。また、矩形付加ステップST4においてαブレンドを用いることで、図形そのものを視覚的に目立たない様にすることもできる。   Further, as in the pixel value acquisition step ST142, the pixel values inside and outside the edge are separately acquired, and this is used as a detection sequence, so that the detection sequence is simply compared with the case of acquiring the pixel value on the side. Can be doubled, and more robust similarity comparisons can be made, resulting in robust figure detection. In addition, since robust detection is possible, the weight value at the time of determining the pixel value in the rectangular pattern generation step ST3 can be reduced, and as a result, the fluctuation of the pixel value in the figure to be added is reduced. It is small and the feature added to the figure to add can be made not visually conspicuous. Further, by using α blend in the rectangle adding step ST4, the figure itself can be made visually inconspicuous.

また、エッジ追跡ステップST141において、エッジの内側と外側の画素値を取得するにあたって、本発明のエッジ追跡の方法を行うことで、エッジ座標を正確に検出することができるため、精度よくエッジの内側と外側の画素値を取得することができ、結果、よりロバストな図形の検出が可能となる。   Further, in the edge tracking step ST141, when the pixel values inside and outside the edge are acquired, the edge coordinates can be accurately detected by performing the edge tracking method of the present invention. As a result, a more robust figure can be detected.

また、第2実施形態に示すような特徴量類似度比較の処理を行うことで、矩形評価値と組み合わせたより適切な図形を検出でき、また複数の連続する画像フレームからなる映像から図形を検出する場合に、より安定的に目的の図形を検出することができる。   Further, by performing the feature amount similarity comparison process as shown in the second embodiment, a more appropriate figure combined with the rectangular evaluation value can be detected, and the figure is detected from a video composed of a plurality of continuous image frames. In this case, the target graphic can be detected more stably.

また、第3実施形態に示すような縁の内側と外側の画素値の差分値を用いることで、図形の検出対象とする画像の撮影時に照明変動の様な局所的な低周波ノイズが加わっていた場合にも、内側と外側で共通のノイズとなって表れることから差分により相殺され、結果、よりロバストな図形検出を行うことができる。   Further, by using the difference value between the inner and outer pixel values of the edge as shown in the third embodiment, local low-frequency noise such as illumination fluctuation is added when an image to be detected as a graphic is captured. In this case, the noise appears as a common noise on the inner side and the outer side and is canceled by the difference. As a result, more robust figure detection can be performed.

また、第4実施形態に示すような辺毎の特徴量の類似度の計算と、矩形全体に統合した特徴量の類似度の計算を組み合わせを行うことで、例えば、図20右図のように矩形の一辺のみの近傍に偽の直線成分が含まれていて矩形全体の特徴量では類似度に大きな差が生じないような場合にも、偽の直線成分を含む矩形候補を除外することができるとともに、矩形候補全体に対する特徴量比較の計算を削減することができるため、より高速かつ精度の高い図形の検出を行うことができる。   Further, by combining the calculation of the similarity of the feature quantity for each side as shown in the fourth embodiment and the calculation of the similarity of the feature quantity integrated in the entire rectangle, for example, as shown in the right diagram of FIG. Even when a false straight line component is included in the vicinity of only one side of the rectangle and a large difference in similarity does not occur in the feature amount of the entire rectangle, a rectangle candidate including the false straight line component can be excluded. At the same time, it is possible to reduce the calculation of the feature amount comparison for the entire rectangle candidate, so that it is possible to detect a figure with higher speed and higher accuracy.

また、第5実施形態に示すような色空間を用いた矩形パターンの生成と特徴量計算を行うことで、図形の検出時の撮影環境に適した色空間により不必要な色変換を省略することができ、高速な検出が可能となる。   In addition, by generating a rectangular pattern using a color space as shown in the fifth embodiment and calculating a feature amount, unnecessary color conversion is omitted by a color space suitable for a shooting environment at the time of detecting a figure. Can be detected at high speed.

また、第6実施形態に示すような多重図形を用いることで、目的の図形領域をより精度よく検出することができる。   In addition, by using a multiple figure as shown in the sixth embodiment, a target figure area can be detected with higher accuracy.

また、第7実施形態に示すような分割位置の計算を行うことで、射影変換パラメータの計算を省略でき、より高速な図形検出が可能となる。   Further, by calculating the division positions as shown in the seventh embodiment, the calculation of projective transformation parameters can be omitted, and higher-speed graphic detection is possible.

また、第8実施形態に示すような周波数領域での系列値を特徴量として用いることで、ノイズの乗りやすい周波数成分の影響を避けて特徴量計算を行うことができ、また、分割位置の計算で微小な位置ずれが生じても、位相の変化が大きくならない周波数成分を利用することができ、結果、よりロバストな図形検出を行うことができる。   Further, by using a sequence value in the frequency domain as shown in the eighth embodiment as a feature quantity, it is possible to perform a feature quantity calculation while avoiding the influence of frequency components that are likely to be subjected to noise, and to calculate a division position. Thus, even if a slight positional deviation occurs, a frequency component that does not increase in phase can be used, and as a result, more robust figure detection can be performed.

また、第9実施形態に示すような特徴図形の付加を行うことで、描画される図形をより目立ちにくくすることができる。   Further, by adding a feature graphic as shown in the ninth embodiment, it is possible to make the drawn graphic less noticeable.

なお、上述の画像検出システムにおける特徴図形付加装置(矩形付加装置)100、画像表示装置200、特徴図形検出装置(矩形検出装置)300、携帯端末400は、内部にコンピュータシステムを有していてもよい。そして、これら装置の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われるものであってもよい。ここでいう「コンピュータシステム」とは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
Note that the feature graphic addition device (rectangular addition device) 100, the image display device 200, the feature graphic detection device (rectangular detection device) 300, and the portable terminal 400 in the above-described image detection system may have a computer system therein. Good. The operation process of these devices may be stored in a computer-readable recording medium in the form of a program, and the above-described processing may be performed by the computer system reading and executing this program. . The “computer system” herein includes a CPU, various memories, an OS, and hardware such as peripheral devices.
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.

また、各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、また、図1に示す矩形付加装置100、画像表示装置200、矩形検出装置300、携帯端末400の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、検出対象物の形状情報の推定値を算出する処理を行ってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
Further, a program for realizing each step is recorded on a computer-readable recording medium, and the functions of the rectangle adding device 100, the image display device 200, the rectangle detecting device 300, and the portable terminal 400 shown in FIG. 1 are realized. A process for calculating an estimated value of the shape information of the detection object by recording the program for recording on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium You may go.
The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

100・・・矩形付加装置、101・・・特徴量生成手段、111・・・埋め込み系列生成手段、102・・・矩形パターン生成手段、103・・・矩形付加手段、104・・・記憶部、200・・・画像表示装置、300・・・矩形検出装置、301・・・辺候補検出手段、302・・・矩形候補算出手段、303・・・矩形特徴量計算手段、331・・・エッジ追跡手段、332・・・画素値取得手段、333・・・特徴量計算手段、3331・・・変換パラメータ計算手段、3332・・・分割位置計算手段、3333・・・辺検出系列計算手段、3334・・・検出系列統合手段、304・・・矩形特徴量評価手段、341・・・埋め込み特徴量計算手段、342・・・特徴量類似度計算手段、343・・・特徴量類似度比較手段   DESCRIPTION OF SYMBOLS 100 ... Rectangular addition apparatus, 101 ... Feature-value production | generation means, 111 ... Embedded series production | generation means, 102 ... Rectangular pattern production | generation means, 103 ... Rectangular addition means, 104 ... Memory | storage part, DESCRIPTION OF SYMBOLS 200 ... Image display apparatus, 300 ... Rectangle detection apparatus, 301 ... Edge candidate detection means, 302 ... Rectangular candidate calculation means, 303 ... Rectangular feature-value calculation means, 331 ... Edge tracking Means, 332... Pixel value acquisition means, 333... Feature amount calculation means, 3331... Conversion parameter calculation means, 3332 ... division position calculation means, 3333 ... edge detection series calculation means, 3334. ..Detection series integration means 304 ... rectangular feature quantity evaluation means 341 ... embedded feature quantity calculation means 342 ... feature quantity similarity calculation means 343 ... feature quantity similarity comparison means

Claims (10)

特徴図形を付加する対象である対象画像データを入力し、当該特徴図形が付与されている画像から前記特徴図形を検出するため前記対象画像データに前記特徴図形を付加する特徴図形付加方法において、
前記対象画像データに付与する図形に応じて予め決められており、前記図形内における位置エリアに応じて画素値が異なる特徴量を決定し、当該特徴量を示す特徴量情報を出力する特徴量生成ステップと、
入力する特徴量情報に基づき、前記予め決められている特徴量を含む画素値によって特徴図形を表わす特徴図形パターンを生成し、この特徴図形パターンを示す情報を出力する特徴図形パターン生成ステップと、
前記対象画像データに対して前記特徴図形パターンを付与して特徴図形付加画像を作成し、当該特徴図形付与画像の画像データを出力する矩形付加ステップと、
を備えることを特徴とする特徴図形付加方法。
In a feature graphic addition method for inputting target image data, which is a target to which a feature graphic is added, and adding the feature graphic to the target image data in order to detect the feature graphic from an image provided with the feature graphic.
Feature quantity generation that is determined in advance according to a graphic to be added to the target image data, determines a feature quantity having a different pixel value according to a position area in the graphic, and outputs feature quantity information indicating the feature quantity Steps,
A feature figure pattern generating step for generating a feature figure pattern representing a feature figure by a pixel value including the predetermined feature quantity based on the input feature quantity information, and outputting information indicating the feature figure pattern;
A rectangular addition step of creating a feature graphic additional image by adding the characteristic graphic pattern to the target image data, and outputting image data of the characteristic graphic additional image;
A method of adding a feature graphic.
前記特徴量生成ステップにおいて、
前記特徴図形内の位置に応じて予め決められている特徴を示す複数の数値の系列により、前記特徴量を決定することを特徴とする請求項1に記載の特徴図形付加方法。
In the feature quantity generation step,
2. The feature figure addition method according to claim 1, wherein the feature amount is determined by a series of a plurality of numerical values indicating features that are predetermined according to positions in the feature figure.
前記特徴量生成ステップと前記特徴図形パターン生成ステップとを複数回行って、複数の特徴図形パターンを生成し、
前記矩形付加ステップにおいて、
図形が互いに近接していると認められる範囲として予め決められている近接範囲内において、前記複数の特徴図形パターンを前記対象画像データに付与して、前記特徴図形付加画像を作成することを特徴とする請求項1あるいは2に記載の特徴図形付加方法。
The feature quantity generation step and the feature figure pattern generation step are performed a plurality of times to generate a plurality of feature figure patterns,
In the rectangle adding step,
A feature graphic additional image is created by assigning the plurality of characteristic graphic patterns to the target image data within a proximity range that is determined in advance as a range in which a graphic is recognized as being close to each other. The method of adding a characteristic figure according to claim 1 or 2.
特徴図形が付加されている画像の特徴図形検出対象画像データを入力し、前記特徴図形検出対象画像データから前記特徴図形を検出する特徴図形検出方法において、
図形の縁に対応するエッジ候補領域を前記特徴図形検出対象画像データから検出するエッジ検出ステップと、
前記エッジ候補領域に隣接するエッジ近傍領域と前記エッジ候補領域とに含まれる画素の画素値を取得する画素値取得ステップと、
前記取得した画素値に基づき、前記エッジ候補領域により示される図形の特徴量を求める特徴量計算ステップと、
予め決められている前記特徴図形の特徴量と、前記エッジ候補領域により示される図形の特徴量との類似性を示す評価値を算出し、前記エッジ候補領域により示される図形と前記特徴図形とが類似するか否かを前記評価値に基づき判断する特徴量評価ステップと
を備えることを特徴とする特徴図形検出方法。
In the feature graphic detection method of inputting feature graphic detection target image data of an image to which a feature graphic is added, and detecting the feature graphic from the feature graphic detection target image data,
An edge detection step of detecting an edge candidate area corresponding to the edge of the figure from the feature figure detection target image data;
A pixel value acquisition step of acquiring pixel values of pixels included in an edge vicinity region adjacent to the edge candidate region and the edge candidate region;
Based on the acquired pixel value, a feature amount calculating step for obtaining a feature amount of a graphic indicated by the edge candidate region;
An evaluation value indicating a similarity between a predetermined feature quantity of the feature graphic and a feature quantity of the graphic indicated by the edge candidate area is calculated, and the graphic indicated by the edge candidate area and the characteristic graphic are A feature amount evaluation step of determining whether or not they are similar based on the evaluation value.
前記画素値取得ステップにおいて、
前記エッジ候補領域により示される枠形状の図形の内側の縁の画素値および外側の縁の画素値、あるいは、前記エッジ候補領域により示される図形内の位置に応じて予め決められている位置の画素値を取得することを特徴とする請求項4に記載の特徴図形検出方法。
In the pixel value acquisition step,
A pixel at a position determined in advance according to the pixel value of the inner edge and the outer edge of the frame-shaped figure indicated by the edge candidate area, or the position in the figure indicated by the edge candidate area 5. The feature graphic detection method according to claim 4, wherein a value is acquired.
前記特徴量計算ステップにおいて、
前記エッジ候補領域により示される枠形状の図形の内側の縁の画素値および外側の縁の画素値、あるいは、前記エッジ候補領域により示される図形内の位置に応じて予め決められている位置の画素値に基づき、前記エッジ候補領域により示される図形の特徴を示す複数の数値を含む検出系列を求め、
前記特徴量評価ステップにおいて、
予め決められている前記特徴図形の特徴量として、前記特徴図形内の位置に応じて予め決められている特徴を示す複数の数値を含む数値系列と前記検出系列との類似度を、相関値により表わして前記評価値を算出する
ことを特徴とする請求項5に記載の特徴図形検出方法。
In the feature amount calculating step,
A pixel at a position determined in advance according to the pixel value of the inner edge and the outer edge of the frame-shaped figure indicated by the edge candidate area, or the position in the figure indicated by the edge candidate area Based on the value, obtain a detection sequence including a plurality of numerical values indicating the features of the graphic indicated by the edge candidate region,
In the feature amount evaluation step,
As a predetermined feature amount of the feature graphic, a similarity between a numerical sequence including a plurality of numerical values indicating a predetermined feature according to a position in the feature graphic and the detection sequence is expressed by a correlation value. The feature graphic detection method according to claim 5, wherein the evaluation value is expressed and expressed.
前記特徴量計算ステップにおいて、
図形が互いに近接していると認められる範囲として予め決められている近接範囲内に存在する前記エッジ候補領域により示される複数の図形について、それぞれ、前記取得した画素値に基づき特徴量を求め、
前記特徴量評価ステップにおいて、
予め決められている組み合わせに応じた複数の前記特徴図形の特徴量と、前記エッジ候補領域により示される複数の図形の特徴量との類似性を示す評価値を算出する
ことを特徴とする請求項4から6のいずれか一項に記載の特徴図形検出方法。
In the feature amount calculating step,
For a plurality of figures indicated by the edge candidate area existing in the proximity range that is determined in advance as a range in which the figures are considered to be close to each other, respectively, obtain a feature amount based on the acquired pixel value,
In the feature amount evaluation step,
The evaluation value indicating the similarity between the feature amount of the plurality of feature figures corresponding to a predetermined combination and the feature amount of the plurality of figures indicated by the edge candidate region is calculated. The characteristic figure detection method according to any one of 4 to 6.
特徴図形を付加する対象である対象画像データを入力し、当該特徴図形が付与されている画像から前記特徴図形を検出するため前記対象画像データに前記特徴図形を付加する特徴図形付加装置において、
前記対象画像データに付与する図形に応じて予め決められており、前記図形内における位置エリアに応じて画素値が異なる特徴量を決定し、当該特徴量を示す特徴量情報を出力する特徴量生成手段と、
入力する特徴量情報に基づき、前記予め決められている特徴量を有する特徴図形を表わす特徴図形パターンを生成し、この特徴図形パターンを示す情報を出力する特徴図形パターン生成手段と、
前記対象画像データに対して前記特徴図形パターンを付与して特徴図形付加画像を作成し、当該特徴図形付与画像の画像データを出力する矩形付加手段と
を備えることを特徴とする特徴図形付加装置。
In a feature graphic adding apparatus that inputs target image data to which a feature graphic is added, and adds the feature graphic to the target image data in order to detect the feature graphic from an image to which the feature graphic is attached.
Feature quantity generation that is determined in advance according to a graphic to be added to the target image data, determines a feature quantity having a different pixel value according to a position area in the graphic, and outputs feature quantity information indicating the feature quantity Means,
A feature figure pattern generating means for generating a feature figure pattern representing a feature figure having the predetermined feature quantity based on the input feature quantity information and outputting information indicating the feature figure pattern;
A feature figure addition apparatus comprising: a rectangle addition unit that assigns the feature figure pattern to the target image data to create a feature figure addition image and outputs image data of the feature figure addition image.
特徴図形が付加されている画像の特徴図形検出対象画像データを入力し、前記特徴図形検出対象画像データから前記特徴図形を検出する特徴図形検出装置において、
図形の縁に対応するエッジ候補領域を前記特徴図形検出対象画像データから検出する縁検出手段と、
前記エッジ候補領域に隣接するエッジ近傍領域と前記エッジ候補領域とに含まれる画素の画素値を取得する画素値取得手段と、
前記取得した画素値に基づき、前記エッジ候補領域により示される図形の特徴量を求める特徴量計算手段と、
予め決められている前記特徴図形の特徴量と、前記エッジ候補領域により示される図形の特徴量との類似性を示す評価値を算出し、前記エッジ候補領域により示される図形と前記特徴図形と類似するか否かを前記評価値に基づき判断する特徴量評価手段と、
を備えることを特徴とする特徴図形検出装置。
In the feature graphic detection apparatus for inputting the feature graphic detection target image data of the image to which the feature graphic is added, and detecting the feature graphic from the feature graphic detection target image data,
Edge detection means for detecting edge candidate regions corresponding to the edges of the figure from the feature figure detection target image data;
Pixel value acquisition means for acquiring pixel values of pixels included in the edge vicinity region adjacent to the edge candidate region and the edge candidate region;
Based on the acquired pixel value, a feature amount calculating means for obtaining a feature amount of a graphic indicated by the edge candidate region;
An evaluation value indicating similarity between a predetermined feature amount of the feature graphic and a feature value of the graphic indicated by the edge candidate area is calculated, and the graphic indicated by the edge candidate area is similar to the characteristic graphic Feature amount evaluation means for determining whether or not to perform based on the evaluation value;
A feature graphic detection device comprising:
コンピュータに
請求項1から3に記載の特徴図形付加方法あるいは請求項4から7に記載の特徴図形検出方法のうち、いずれか一項に記載のステップを実行させるためのプログラム。
The program for making a computer perform the step as described in any one of the characteristic figure addition method of Claims 1-3, or the characteristic figure detection method of Claims 4-7.
JP2010261716A 2010-11-24 2010-11-24 Feature figure addition method, feature figure detection method, feature figure addition device, feature figure detection device, and program Expired - Fee Related JP5463269B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010261716A JP5463269B2 (en) 2010-11-24 2010-11-24 Feature figure addition method, feature figure detection method, feature figure addition device, feature figure detection device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010261716A JP5463269B2 (en) 2010-11-24 2010-11-24 Feature figure addition method, feature figure detection method, feature figure addition device, feature figure detection device, and program

Publications (2)

Publication Number Publication Date
JP2012114665A JP2012114665A (en) 2012-06-14
JP5463269B2 true JP5463269B2 (en) 2014-04-09

Family

ID=46498395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010261716A Expired - Fee Related JP5463269B2 (en) 2010-11-24 2010-11-24 Feature figure addition method, feature figure detection method, feature figure addition device, feature figure detection device, and program

Country Status (1)

Country Link
JP (1) JP5463269B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104240228B (en) * 2013-06-24 2017-10-24 阿里巴巴集团控股有限公司 A kind of detection method and device of particular picture applied to website
CN109285105B (en) * 2018-09-05 2023-08-11 北京字节跳动网络技术有限公司 Watermark detection method, watermark detection device, computer equipment and storage medium
CN109242776B (en) * 2018-09-11 2023-04-07 江苏君英天达人工智能研究院有限公司 Double-lane line detection method based on visual system
CN110007068B (en) * 2019-03-25 2022-07-08 桂林优利特医疗电子有限公司 Urine leakage detection method
US11557108B2 (en) 2019-04-10 2023-01-17 Rakuten Group, Inc. Polygon detection device, polygon detection method, and polygon detection program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4020093B2 (en) * 2004-03-24 2007-12-12 日本電信電話株式会社 Edge detection method and apparatus, program, storage medium, and frame detection method, apparatus, program, and storage medium
JP4525519B2 (en) * 2005-08-18 2010-08-18 日本電信電話株式会社 Quadrilateral evaluation method, apparatus and program
JP4986934B2 (en) * 2008-05-29 2012-07-25 日本電信電話株式会社 Graphic region extraction apparatus, graphic region extraction method, program, and recording medium

Also Published As

Publication number Publication date
JP2012114665A (en) 2012-06-14

Similar Documents

Publication Publication Date Title
US20200374600A1 (en) Method for Embedding Advertisement in Video and Computer Device
US8718324B2 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
US8126268B2 (en) Edge-guided morphological closing in segmentation of video sequences
US9632678B2 (en) Image processing apparatus, image processing method, and program
JP5729464B2 (en) POSITION INFORMATION ADDING DEVICE, POSITION INFORMATION ADDING METHOD, POSITION INFORMATION ADDING COMPUTER PROGRAM, AND POSITION DETECTION DEVICE
US20090028432A1 (en) Segmentation of Video Sequences
CN106529573A (en) Real-time object detection method based on combination of three-dimensional point cloud segmentation and local feature matching
US20140044361A1 (en) Device and method for analyzing the correlation between an image and another image or between an image and a video
WO2019071976A1 (en) Panoramic image saliency detection method based on regional growth and eye movement model
KR20170018042A (en) Rule-based video importance analysis
JP5463269B2 (en) Feature figure addition method, feature figure detection method, feature figure addition device, feature figure detection device, and program
US10249029B2 (en) Reconstruction of missing regions of images
US8983199B2 (en) Apparatus and method for generating image feature data
JP2011160379A (en) Image processing device and method, and program therefor
CN111160291B (en) Human eye detection method based on depth information and CNN
KR20140035273A (en) Image processing device, image processing program, computer-readable recording medium storing image processing program, and image processing method
CN106407978B (en) Method for detecting salient object in unconstrained video by combining similarity degree
US20150199996A1 (en) Method and apparatus for indexing a video stream
KR101753360B1 (en) A feature matching method which is robust to the viewpoint change
Zhao et al. Efficient image decolorization with a multimodal contrast-preserving measure
US20100040304A1 (en) Image quality improvement processing apparatus, image quality improvement processing method and computer-readable recording medium storing image quality improvement processing computer program
JP2005071344A (en) Image processing method, image processor and recording medium recording image processing program
JP6754717B2 (en) Object candidate area estimation device, object candidate area estimation method, and object candidate area estimation program
JP2014106713A (en) Program, method, and information processor
Le et al. SpatioTemporal utilization of deep features for video saliency detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130123

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130605

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R150 Certificate of patent or registration of utility model

Ref document number: 5463269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees