JP6107372B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP6107372B2
JP6107372B2 JP2013089853A JP2013089853A JP6107372B2 JP 6107372 B2 JP6107372 B2 JP 6107372B2 JP 2013089853 A JP2013089853 A JP 2013089853A JP 2013089853 A JP2013089853 A JP 2013089853A JP 6107372 B2 JP6107372 B2 JP 6107372B2
Authority
JP
Japan
Prior art keywords
color
color region
region
image
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013089853A
Other languages
Japanese (ja)
Other versions
JP2014215645A (en
Inventor
康洋 青木
康洋 青木
水谷 政美
政美 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013089853A priority Critical patent/JP6107372B2/en
Priority to US14/167,620 priority patent/US9319669B2/en
Publication of JP2014215645A publication Critical patent/JP2014215645A/en
Application granted granted Critical
Publication of JP6107372B2 publication Critical patent/JP6107372B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/005Statistical coding, e.g. Huffman, run length coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/09Recognition of logos

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、例えば、カメラの位置および姿勢を算出するカメラのキャリブレーション処理に利用される、撮像画像上におけるマーカーの座標の抽出に用いる画像処理装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program that are used for, for example, a camera calibration process for calculating the position and orientation of a camera and that are used for extracting marker coordinates on a captured image.

自車両の周囲状況を運転者にとって確認し易くし、運転者の安全運転に資することを目的として、自車両の周囲画像をカメラにより取得し、取得した画像を車の運転者に提示する技術が提案されている。例えば、自車両の周囲に複数のカメラを設け、各カメラで撮像した画像を合成すれば、自車両周囲の広範囲の画像を運転者に視認させることが可能になる。   A technology that makes it easy for the driver to check the surroundings of the host vehicle and contributes to the driver's safe driving by acquiring a surrounding image of the host vehicle with a camera and presenting the acquired image to the driver of the vehicle. Proposed. For example, by providing a plurality of cameras around the host vehicle and synthesizing images captured by the cameras, it becomes possible for the driver to visually recognize a wide range of images around the host vehicle.

複数の撮像画像を合成した結果として、運転者にとって違和感の無い画像、すなわち、画像間の継ぎ目がずれたり、画像が傾いたりしていない合成画像を得る為には、複数のカメラが、所定の位置、所定のカメラ向きで設置されている必要がある。しかしながら、カメラは車両に取り付けられる為、走行などによる震動などに起因して、カメラの設置位置や角度などが変化してしまう場合がある。そのため、出荷時や車検時など、利用開始後の任意のタイミングで、カメラの取り付け位置、角度にズレが生じていないかを確認し、カメラの設置位置や角度の校正処理(キャリブレーション処理)を行う必要がある。   As a result of combining a plurality of captured images, in order to obtain an image that does not feel uncomfortable for the driver, i.e., a combined image in which the seams between images are not shifted or the images are not tilted, It is necessary to be installed in the position and the predetermined camera orientation. However, since the camera is attached to the vehicle, the camera installation position, angle, and the like may change due to vibration caused by traveling or the like. Therefore, at any time after the start of use, such as at the time of shipment or vehicle inspection, check whether there is any deviation in the camera installation position and angle, and perform the camera installation position and angle calibration process (calibration process). There is a need to do.

カメラの設置位置や角度の校正処理では、カメラ撮影範囲の規定の位置に設置したマーカー(冶具)を撮影し、撮影画像上におけるマーカー位置、換言すると、撮像画像上におけるマーカーの特徴点の座標と、規定の位置とを対応付ける。校正処理に用いるマーカーとしては、撮像画像上で特徴点を抽出しやすい模様を有していることが望ましく、例えば、市松模様のマーカーなどが一般的に利用されている。なお、市松模様のマーカーは、例えば、市松模様が交差する中心点を特徴点として抽出する。   In the calibration processing of the camera installation position and angle, a marker (jig) placed at a specified position in the camera shooting range is shot, and the marker position on the shot image, in other words, the coordinates of the marker feature point on the captured image, Associate with the specified position. As a marker used for the calibration process, it is desirable to have a pattern from which a feature point can be easily extracted on the captured image. For example, a checkered marker is generally used. For example, the checkerboard marker is extracted as a feature point at the center point where the checkerboard pattern intersects.

市松模様のマーカーの特徴点を抽出する方法として、撮像画像上の市松模様を構成する色領域の色境界線を検出し、検出した色境界線を利用して交点を求めることにより、マーカーの特徴点を抽出する技術が開示されている。   As a method of extracting feature points of a checkered pattern marker, the feature of the marker is obtained by detecting the color boundary line of the color area constituting the checkered pattern on the captured image and obtaining the intersection using the detected color boundary line. A technique for extracting points is disclosed.

特開2010−87743号公報JP 2010-87743 A

ところで、マーカーの特徴点の画像上の座標は、上述した校正処理のパラメータとして利用される。そのため、撮像画像上のマーカーから特徴点を抽出する際の抽出精度が低いと、カメラの設置位置や角度の校正処理の精度が劣化する。従って、撮像画像上におけるマーカーの特徴点を高い精度で抽出する必要がある。   By the way, the coordinates of the feature points of the marker on the image are used as parameters for the calibration processing described above. Therefore, if the extraction accuracy when extracting the feature points from the marker on the captured image is low, the accuracy of the calibration processing of the camera installation position and angle is deteriorated. Therefore, it is necessary to extract the marker feature points on the captured image with high accuracy.

例えば、自車両の周囲の状況を撮影するために車両に搭載されるカメラは、少ない台数で車両の周囲を撮像できることが望ましいため、例えば、広角カメラが用いられる。しかしながら、広角カメラは撮像画像の中心から距離が離れるにつれて、撮像画像上の物体となるマーカーの形状が歪んだりするなど、撮像画像上のマーカーの形状が不鮮明になる傾向にある。なお、広角カメラ以外のカメラでマーカーを撮影したとしても、撮像画像の両端近傍では、マーカーの形状が少なからず歪み、撮像画像上のマーカーの形状が不鮮明になる。   For example, since it is desirable that a camera mounted on the vehicle to capture the situation around the host vehicle can capture the surroundings of the vehicle with a small number, for example, a wide-angle camera is used. However, the wide-angle camera tends to blur the shape of the marker on the captured image, for example, the shape of the marker that is an object on the captured image is distorted as the distance from the center of the captured image increases. Even if the marker is photographed by a camera other than the wide-angle camera, the shape of the marker is not a little distorted near both ends of the captured image, and the shape of the marker on the captured image becomes unclear.

更に、校正処理を実施する照明環境の状態によっては、撮像画像上のマーカーの市松模様が、市松模様の様に撮像されない場合も生じる。例えば、白色領域と黒色領域との2色の色領域を有する市松模様のマーカーでは、照明の光が強く明るい場合、マーカーの市松模様の白色領域が膨張した状態で撮像される。また、照明の光が弱く暗い場合、マーカーの市松模様の白色領域が収縮した状態で撮像される。この様な不鮮明なマーカーの画像から、市松模様の色境界線を検出し、マーカーの特徴点を抽出することは難しい。よって、上述した従来技術では、マーカーの特徴点を十分に精度良く抽出することは難しい。   Furthermore, depending on the state of the lighting environment in which the calibration process is performed, the checkered pattern of the marker on the captured image may not be captured like the checkered pattern. For example, in a checkered marker having two color regions, a white region and a black region, when the illumination light is strong and bright, an image is captured in a state where the checkered white region of the marker is expanded. When the illumination light is weak and dark, the image is taken in a state where the checkered white area of the marker is contracted. It is difficult to detect a checkered pattern color boundary line and extract a marker feature point from such an unclear marker image. Therefore, it is difficult to extract the marker feature points with sufficient accuracy in the above-described conventional technology.

この為、画像処理装置においては、マーカーの特徴点を高精度で抽出することが必要となる。本発明は、マーカーの特徴点を高精度で抽出することが出来る画像処理装置を提供することを目的とする。   For this reason, in the image processing apparatus, it is necessary to extract the feature point of the marker with high accuracy. An object of this invention is to provide the image processing apparatus which can extract the feature point of a marker with high precision.

本発明が開示する画像処理装置は、複数の第1色領域と、第1色領域とは異なる色の複数の第2色領域を有し、複数の第1色領域同士と、複数の第2色領域同士が互いに対向するマーカーを含む画像を取得する取得部を備える。更に、当該画像処理装置は、画像から第1色領域、または第2色領域を抽出する抽出部を備える。更に、当該画像処理装置は、抽出された第1色領域、または第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで第1色領域または第2色領域を減退する減退部を備える。第1閾値を満たした第1色領域または第2色領域と、所定の蝶形状との第2類似度を算出する算出部を備える。   An image processing apparatus disclosed in the present invention includes a plurality of first color regions, a plurality of second color regions having a color different from the first color region, a plurality of first color regions, and a plurality of second color regions. An acquisition unit that acquires an image including markers whose color regions face each other is provided. The image processing apparatus further includes an extraction unit that extracts the first color area or the second color area from the image. Further, the image processing apparatus performs the first color region or the first color region until the first similarity between the shape of the extracted first color region or the second color region and the predetermined elliptical shape satisfies a predetermined first threshold value. A reduction unit for reducing the two-color area is provided. A calculation unit is provided that calculates a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape.

なお、本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成されるものである。また、上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。   The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims. It should also be understood that both the above general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention as claimed.

本明細書に開示される画像処理装置では、不鮮明な画像でもマーカーの特徴点を高精度で抽出することが可能となる。   With the image processing device disclosed in this specification, it is possible to extract marker feature points with high accuracy even in a blurred image.

(a)は、マーカーの第1の例を示す図である。(b)は、マーカーの第2の例を示す図である。(c)は、マーカーの第3の例を示す図である。(A) is a figure showing the 1st example of a marker. (B) is a figure showing the 2nd example of a marker. (C) is a figure which shows the 3rd example of a marker. (a)は、マーカーを構成する色領域を正しく認識した場合の概念図である。(b)は、マーカーを構成する色領域を誤って認識した場合の概念図である。(A) is a conceptual diagram when the color region which comprises a marker is recognized correctly. (B) is a conceptual diagram when the color area which comprises a marker is recognized accidentally. 一つの実施形態による画像処理装置1の機能ブロック図である。It is a functional block diagram of image processing device 1 by one embodiment. マーカーの配置状況の一例を示す図である。It is a figure which shows an example of the arrangement | positioning condition of a marker. 算出部による蝶形状の判定フローチャートである。It is a determination flowchart of the butterfly shape by a calculation part. (a)は、蝶形状ではない第1色領域を含む回転前の画像を示す図である。(b)は、蝶形状ではない第1色領域を含む回転後の画像を示す図である。(c)は、蝶形状ではない第1色領域の射影ヒストグラムである。(A) is a figure which shows the image before the rotation containing the 1st color area | region which is not a butterfly shape. (B) is a figure which shows the image after the rotation containing the 1st color area | region which is not a butterfly shape. (C) is a projection histogram of the first color region which is not a butterfly shape. (a)は、蝶形状の第1色領域を含む回転前の画像を示す図である。(b)は、蝶形状の第1色領域を含む回転後の画像を示す図である。(c)は、蝶形状の第1色領域の射影ヒストグラムである。(A) is a figure which shows the image before rotation containing the butterfly-shaped 1st color area | region. (B) is a figure which shows the image after the rotation containing a butterfly-shaped 1st color area | region. (C) is a projection histogram of the butterfly-shaped first color region. マーカーを構成する第1色領域と第2色領域の領域ペアの概念図である。It is a conceptual diagram of the area | region pair of the 1st color area | region and 2nd color area | region which comprise a marker. 画像処理装置1による画像処理のフローチャートである。3 is a flowchart of image processing by the image processing apparatus 1. 一つの実施形態による画像処理装置1のハードウェア構成図である。It is a hardware block diagram of the image processing apparatus 1 by one Embodiment.

図1(a)は、マーカーの第1の例を示す図である。図1(b)は、マーカーの第2の例を示す図である。図1(c)は、マーカーの第3の例を示す図である。図1(a)ないし図1(c)において、マーカーは市松模様である。図1(a)に示す様に、マーカーは、例えば、40センチメートル程度の正方形の領域の中心部に、円形領域を有する。また、図1(b)、図1(c)に示す様に、マーカーは、例えば、40センチメートル程度の正方形の領域の中心部に、更に正方形領域を有する。   Fig.1 (a) is a figure which shows the 1st example of a marker. FIG.1 (b) is a figure which shows the 2nd example of a marker. FIG.1 (c) is a figure which shows the 3rd example of a marker. 1A to 1C, the marker has a checkered pattern. As shown to Fig.1 (a), a marker has a circular area | region in the center part of the square area | region of about 40 centimeters, for example. Moreover, as shown in FIG.1 (b) and FIG.1 (c), a marker has a square area | region further in the center part of the square area | region of about 40 centimeters, for example.

図1(a)ないし図1(c)において、マーカーは、複数の第1色領域と、第1色領域とは異なる色の複数の第2色領域を有し、複数の第1色領域同士と、複数の第2色領域同士が互いに対向している。換言すると、マーカーは、例えば、白色領域と黒色領域とが互い違いの市松模様となっている。また、マーカーの中心部に位置する円形領域または正方形領域は、マーカーの中心部を挟んで、対向する白色領域の対と、黒色領域の対とを有する。なお、マーカーを、例えば、白黒の市松模様とするのは、例えば、マーカーの円形領域または正方形領域の中心を特徴点として抽出する為である。なお、本実施例においては、図1(a)に示すマーカーを用いて説明を行うが、図1(b)または図1(c)に示すマーカーを用いても実施可能である。また、説明の便宜上、第1色領域は白色領域に対応し、第2色領域は黒色領域に対応するものと説明するが、対応関係を逆に規定することも出来る。   In FIGS. 1A to 1C, the marker has a plurality of first color regions and a plurality of second color regions having colors different from the first color regions, and the plurality of first color regions are The plurality of second color regions face each other. In other words, the marker has, for example, a checkered pattern in which white areas and black areas are alternate. In addition, the circular area or the square area located at the center of the marker has a pair of white areas and a pair of black areas facing each other across the center of the marker. The marker is, for example, a black and white checkered pattern, for example, to extract the center of the circular area or square area of the marker as a feature point. In this embodiment, the description will be made using the marker shown in FIG. 1 (a), but the present invention can also be implemented using the marker shown in FIG. 1 (b) or FIG. 1 (c). For convenience of explanation, the first color area corresponds to the white area and the second color area corresponds to the black area, but the correspondence relationship may be defined in reverse.

本発明者らの鋭意検証により、不鮮明な画像からマーカーの特徴点を抽出する画像処理装置において、以下の課題が明らかになった。例えば、国際公開第2012/061205号パンフレットにおいて、不鮮明な画像でもマーカーの特徴点抽出する画像処理装置が開示されている。当該画像処理装置は、マーカーの特徴点が、市松模様のマーカーの白色領域の対(ペア)と、黒色領域の対(ペア)との交点であることに着目したもので、マーカーの色領域を抽出し、その位置関係によりマーカー特徴点を抽出する方法が開示されている。   The following problems have been clarified in an image processing apparatus that extracts feature points of a marker from an unclear image by vigorous verification by the present inventors. For example, International Publication No. 2012/061205 pamphlet discloses an image processing apparatus that extracts feature points of a marker even with a blurred image. The image processing apparatus focuses on the fact that the feature point of the marker is the intersection of a pair of white areas of a checkered pattern and a pair of black areas. A method for extracting and extracting marker feature points based on the positional relationship is disclosed.

上述の通り、校正処理を実施する照明環境の影響により、マーカーの一方の色領域が膨張し、他方の色領域が縮退して撮影される。この為、撮像画像のマーカーは、一方の色領域が侵食した状態(繋がった状態と称しても良い)で撮像画像上に現れうる。国際公開第2012/061205号パンフレットに開示される画像処理装置においては、侵食した領域を分離する為に、マーカーを構成する色領域の候補領域に対して、所定凸形状(楕円形状)との類似性の判定を行い、類似しない場合は縮退処理を実施することが開示されている。具体的には、例えば、当該画像処理装置は、マーカーを構成する色領域の候補領域から疑似的な楕円形状を算出する。画像処理装置は、当該楕円面積と候補領域の面積を比較し、面積の類似度が高い場合に凸形状(楕円形状)であると判定することで、マーカーを構成する色領域(白色領域と黒色領域の対)を特定する。   As described above, one color region of the marker is expanded due to the influence of the illumination environment in which the calibration process is performed, and the other color region is degenerated and photographed. For this reason, the marker of the captured image can appear on the captured image in a state where one color region is eroded (may be referred to as a connected state). In the image processing apparatus disclosed in the pamphlet of International Publication No. 2012/061205, in order to separate the eroded areas, similarity to a predetermined convex shape (elliptical shape) with respect to the candidate areas of the color areas constituting the marker It is disclosed that the determination of sex is performed, and if they are not similar, a degeneration process is performed. Specifically, for example, the image processing apparatus calculates a pseudo ellipse shape from candidate areas of color areas constituting the marker. The image processing apparatus compares the area of the ellipse with the area of the candidate area, and determines that the area has a convex shape (elliptical shape) when the similarity of the areas is high. Identify the region pair).

しかしながら、本発明者らの鋭意検証により、撮像画像のマーカーにおいて、一方の色領域がある程度の大きさで侵食した状態になった場合、撮像画像上で観測されるマーカーを構成する色領域の候補領域は、楕円形状ではなく蝶形状として観測されることが明らかになった。図2(a)は、マーカーを構成する色領域を正しく認識した場合の概念図である。図2(b)は、マーカーを構成する色領域を誤って認識した場合の概念図である。図2(a)に示す様に、色領域に侵食が発生しない場合においては、マーカーを構成する色領域(例えば白色領域)を楕円形状と判定することで、マーカー構成する白色領域の対を認識することが出来る。   However, as a result of diligent verification by the present inventors, when one color area of the marker of the captured image is eroded to a certain size, the candidate of the color area constituting the marker observed on the captured image It became clear that the region was observed as a butterfly shape rather than an elliptical shape. FIG. 2A is a conceptual diagram when the color region constituting the marker is correctly recognized. FIG. 2B is a conceptual diagram when the color area constituting the marker is erroneously recognized. As shown in FIG. 2A, when erosion does not occur in a color area, a pair of white areas constituting a marker is recognized by determining the color area (for example, white area) constituting the marker as an elliptical shape. I can do it.

一方、図2(b)に示す様に、色領域に侵食が発生する場合(例えば照明の光が強く明るい場合)、マーカー構成する白色領域の対が連結して蝶形状となる。この様な蝶形状においては、上述の楕円形状と候補領域の面積の比較において、面積の類似度が条件を満たし得るため、縮退処理が実施されない為に、マーカー構成する白色領域の対を特定すること出来ない課題が存在することが明らかになった。   On the other hand, as shown in FIG. 2B, when erosion occurs in a color area (for example, when illumination light is strong and bright), a pair of white areas constituting a marker are connected to form a butterfly shape. In such a butterfly shape, since the similarity of the area can satisfy the condition in the comparison of the area of the above-mentioned elliptical shape and the candidate region, the degeneration process is not performed, so the pair of white regions constituting the marker is specified. It became clear that there was a problem that could not be done.

本発明者らにより、所定の楕円形状との類似性の判定条件を、蝶形状を排除出来る様に、より厳しい判定条件に設定することが検証された。しかしながら、不鮮明な画像で判定条件を厳しく設定した場合、ロバスト性に影響が出ることが明らかになった。例えば、判定条件として面積を用いて比較する場合、類似していると判定する閾値を高く設定することが考えられる。しかし、不鮮明な画像の場合、市松模様のマーカー自体が歪んで撮像される為、マーカーを構成する色領域が分離されている状態であっても閾値を満たさなくなる問題がある。また、本発明者らにより、蝶形状のテンプレートを予め用意し、類似性を判定することも検証されたが、不鮮明な画像では、蝶形状も様々に歪んで撮像される為、テンプレートを適用することも難しいことが明らかになった。   It has been verified by the present inventors that the determination condition for similarity to a predetermined elliptical shape is set to a stricter determination condition so that the butterfly shape can be excluded. However, it has become clear that robustness is affected when the judgment conditions are set strictly for unclear images. For example, when comparing using an area as a determination condition, it is conceivable to set a high threshold for determining that they are similar. However, in the case of an unclear image, since the checkered marker itself is distorted and imaged, there is a problem that the threshold value is not satisfied even if the color regions constituting the marker are separated. In addition, the present inventors have prepared a butterfly-shaped template in advance and verified that similarity is determined. However, in a blurred image, the butterfly shape is captured in various distortions, so the template is applied. It became clear that it was difficult.

上述の制約を鑑みつつ、本実施例においては、図2(b)に示す様な、不鮮明な画像において、マーカー構成する白色領域の対が連結して蝶形状となる場合においてもマーカーの特徴点を高精度で抽出する画像処理装置を開示する。   In consideration of the above-mentioned restrictions, in the present embodiment, in the unclear image as shown in FIG. 2B, the feature points of the marker even when the pair of white areas constituting the marker are connected to form a butterfly shape. Disclosed is an image processing apparatus that extracts the image with high accuracy.

以下に、一つの実施形態による画像処理装置、画像処理方法及び画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、本実施例は、開示の技術を限定するものではない。   Hereinafter, examples of an image processing apparatus, an image processing method, and an image processing program according to an embodiment will be described in detail with reference to the drawings. Note that this embodiment does not limit the disclosed technology.

(実施例1)
図3は、一つの実施形態による画像処理装置1の機能ブロック図である。画像処理装置1は、取得部2、抽出部3、減退部4、算出部5、認識部6を有する。なお、画像処理装置1は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことによりネットワークリソースを用いることが可能である。
Example 1
FIG. 3 is a functional block diagram of the image processing apparatus 1 according to one embodiment. The image processing apparatus 1 includes an acquisition unit 2, an extraction unit 3, a decline unit 4, a calculation unit 5, and a recognition unit 6. The image processing apparatus 1 includes a communication unit (not shown), and can use network resources by bidirectionally transmitting and receiving data to and from various external devices via a communication line.

取得部2は、例えば、ワイヤードロジックによるハードウェア回路である。また、取得部2は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。取得部2は、外部装置が撮像する画像を受け取る。画像を撮像する外部装置は、例えば撮像素子である。撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。なお、撮像素子を、必要に応じて画像処理装置1に含めることも可能である。撮像素子は、例えば、市松模様のマーカーを撮像する。取得部2は、取得したマーカーが含まれる画像を抽出部3に出力する。   The acquisition unit 2 is a hardware circuit based on wired logic, for example. The acquisition unit 2 may be a functional module realized by a computer program executed by the image processing apparatus 1. The acquisition unit 2 receives an image captured by the external device. An external device that captures an image is, for example, an image sensor. The imaging device is an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) camera, for example. Note that the image sensor can be included in the image processing apparatus 1 as necessary. The imaging element images, for example, a checkered pattern marker. The acquisition unit 2 outputs an image including the acquired marker to the extraction unit 3.

図4は、マーカーの配置状況の一例を示す図である。図4に示す通り、車両7に対し、複数の撮像素子8a〜8dが、例えば、車両7の全周囲を撮像可能な位置に設置される。なお、図4に示す8A〜8Dは、車両7に設置された撮像素子8a〜8dの撮影範囲に該当する。図4に示す様に、撮像素子8аの撮影範囲8Aの一部と、撮像素子8bの撮影範囲8Bの一部、ならびに撮像素子8cの撮像範囲8Cの一部とが重複している。また、撮像素子8dの撮影範囲8Dの一部と、撮像素子8bの撮影範囲8Bの一部、ならびに撮像素子8cの撮影範囲8Cの一部とが重複している。   FIG. 4 is a diagram illustrating an example of a marker arrangement state. As shown in FIG. 4, a plurality of image sensors 8 a to 8 d are installed on the vehicle 7 at positions where the entire periphery of the vehicle 7 can be imaged, for example. In addition, 8A-8D shown in FIG. 4 corresponds to the imaging | photography range of the image pick-up elements 8a-8d installed in the vehicle 7. FIG. As shown in FIG. 4, a part of the imaging range 8A of the image sensor 8a, a part of the imaging range 8B of the image sensor 8b, and a part of the imaging range 8C of the image sensor 8c overlap. Further, a part of the imaging range 8D of the image sensor 8d, a part of the imaging range 8B of the image sensor 8b, and a part of the imaging range 8C of the image sensor 8c overlap.

図4において、車両7は、所定の停車位置に停車する。そして、車両7に設置された撮像素子8a〜8dのそれぞれが、例えば、最低4つのマーカーを撮影できる様に、車両7の周囲にマーカー9を配置する。この場合、ある撮像素子により撮影される4つのマーカー9のうちの2つのマーカー9は、隣接する撮像素子でも撮影されるようにマーカー9を配置しても良い。例えば、撮像素子8aにより撮影される4つのマーカー9のうちの1つのマーカー9は、撮像素子8aに隣接する撮像素子8bにより撮影される様に、マーカー9を配置しても良い。   In FIG. 4, the vehicle 7 stops at a predetermined stop position. And the marker 9 is arrange | positioned around the vehicle 7 so that each of the image pick-up elements 8a-8d installed in the vehicle 7 can image | photograph at least four markers, for example. In this case, the markers 9 may be arranged so that two markers 9 out of the four markers 9 photographed by a certain image sensor are photographed also by an adjacent image sensor. For example, the marker 9 may be arranged so that one marker 9 out of the four markers 9 photographed by the image sensor 8a is photographed by the image sensor 8b adjacent to the image sensor 8a.

更に、撮像素子8aにより撮影される4つのマーカー9のうちの1つのマーカー9は、撮像素子8aに隣接する撮像素子カメラ8cにより撮影される様にマーカー9を配置しても良い。換言すると、複数の撮像素子の撮影範囲が重複する位置にマーカー9を配置すればよい。但し、重複する位置を含め、マーカー9の車両7に対する物理的な配置位置は予め計測されているものとする。なお、撮像素子とマーカー9は一つでも良い為、実施例1においては、撮像素子とマーカー9は一つであるものとして説明する。なお、以降の説明のおいては、説明の便宜上のマーカー9の参照符号は省略する。   Further, the marker 9 may be arranged so that one marker 9 out of the four markers 9 photographed by the image sensor 8a is photographed by the image sensor 8c adjacent to the image sensor 8a. In other words, the marker 9 may be arranged at a position where the imaging ranges of the plurality of image sensors overlap. However, the physical arrangement position of the marker 9 with respect to the vehicle 7 including the overlapping position is assumed to be measured in advance. In addition, since the image sensor and the marker 9 may be one, in Example 1, it demonstrates as what has one image sensor and the marker 9. FIG. In the following description, the reference numerals of the markers 9 are omitted for convenience of description.

図3の抽出部3は、例えば、ワイヤードロジックによるハードウェア回路である。また、抽出部3は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。抽出部3は、取得部2から画像を受け取り、当該画像から第1色領域、または第2色領域を抽出する。具体的には、抽出部3は、先ず、取得部2から受け取ったマーカーが含まれる画像(例えば、RGBカラーの原画像)を、次式に従って輝度を変化させることにより、グレースケール画像に変換する。

Figure 0006107372

但し、上述の(数1)において、(x、y)は、原画像の位置(原点は、例えば、画像の左上端であれば良い)である。R(x、y)、G(x、y)、ならびにB(x、y)は、原画像の位置(x、y)におけるR成分値、G成分値、ならびにB成分値である。 The extraction unit 3 in FIG. 3 is, for example, a hardware circuit based on wired logic. Further, the extraction unit 3 may be a functional module realized by a computer program executed by the image processing apparatus 1. The extraction unit 3 receives an image from the acquisition unit 2 and extracts a first color region or a second color region from the image. Specifically, the extraction unit 3 first converts an image (for example, an RGB color original image) including the marker received from the acquisition unit 2 into a grayscale image by changing luminance according to the following equation. .
Figure 0006107372

However, in the above (Equation 1), (x, y) is the position of the original image (the origin may be, for example, the upper left corner of the image). R (x, y), G (x, y), and B (x, y) are an R component value, a G component value, and a B component value at the position (x, y) of the original image.

次に、抽出部3はグレースケール画像から2値画像をそれぞれ生成する。抽出部3は、例えば、グレースケール画像の画素値を所定の閾値と比較し、当該閾値以上の値を「1」、当該閾値未満の値を「0」に2値化を実施することにより、グレースケール画像から2値画像を生成する。例えば、市松模様の白色領域の候補が「1」、黒色領域の候補が「0」に設定される。なお、上述の所定の閾値は、固定値でなくともよく、対象画像に基づいて局所的もしくは大局的に動的に決定してもよい。公知の方法としては、例えば、大津の判別法やNiBlack法などが存在する。   Next, the extraction unit 3 generates a binary image from the grayscale image. For example, the extraction unit 3 compares the pixel value of the grayscale image with a predetermined threshold value, and binarizes the value equal to or higher than the threshold value to “1” and the value less than the threshold value to “0”. A binary image is generated from the grayscale image. For example, the checkered white area candidate is set to “1” and the black area candidate is set to “0”. Note that the predetermined threshold value described above may not be a fixed value, and may be dynamically determined locally or globally based on the target image. Known methods include, for example, Otsu's discrimination method and NiBlack method.

抽出部3は、2値化した2値化画像に対してラベリングを実施することにより、第1色領域と第2色領域(換言すると白色領域または黒色領域)を抽出する。なお、ラベリング方法は、例えば、公知の手法となる4連結(4近傍)法や8連結(8近傍)法を用いることが出来る。なお、抽出部3は、抽出結果を格納する図示しない画像バッファを具備しても良い。当該画像バッファは、例えば、上述の2値化画像と同じサイズの画像であり、かつ、白色(1)または黒色(0)で初期化されている。なお、画像バッファは、抽出部3ではなく、減退部4などが具備しても良い。抽出部3は、抽出した第1色領域と第2色領域を減退部4に出力する。   The extraction unit 3 extracts a first color area and a second color area (in other words, a white area or a black area) by labeling the binarized binarized image. As a labeling method, for example, a 4-connection (4 neighborhood) method or an 8-connection (8 neighborhood) method which is a known method can be used. The extraction unit 3 may include an image buffer (not shown) that stores the extraction result. The image buffer is, for example, an image having the same size as the above-described binarized image, and is initialized with white (1) or black (0). Note that the image buffer may be provided not by the extraction unit 3 but by the reduction unit 4 or the like. The extraction unit 3 outputs the extracted first color region and second color region to the reduction unit 4.

減退部4は、抽出部3が抽出した第1色領域と第2色領域を、抽出部3から受け取る。減退部4は、第1色領域と第2色領域の形状と、所定の楕円形状との第1類似度を算出する。なお、以降の処理は、第1色領域(白色領域)について処理する方法について説明する。第2色領域(黒色領域)についても、例えば白黒の反転処理を行うことで第1色領域と同様に処理することが出来る為、詳細な説明は省略する。   The reduction unit 4 receives the first color region and the second color region extracted by the extraction unit 3 from the extraction unit 3. The reduction unit 4 calculates a first similarity between the shapes of the first color region and the second color region and a predetermined elliptical shape. In the following processing, a method for processing the first color region (white region) will be described. The second color region (black region) can also be processed in the same manner as the first color region by performing, for example, black and white reversal processing, and thus detailed description thereof is omitted.

減退部4は、2値化画像に複数含まれる第1色領域のそれぞれが、楕円形状か否かを判定する。具体的には、減退部4は、先ず、ラベリングにより抽出された第1色領域に対応する疑似的な楕円の長軸と短軸を以下の手順で算出する。   The reduction unit 4 determines whether each of the first color regions included in the binarized image has an elliptical shape. Specifically, the reduction unit 4 first calculates the major and minor axes of a pseudo ellipse corresponding to the first color region extracted by labeling in the following procedure.

2値化画像の位置(x、y)の2値化画像をBW(x、y)とし、2値化画像に複数含まれる任意の第1色領域について判定処理を実施する場合、当該第1色領域のモーメントMijは次式で定義される。

Figure 0006107372

上述の(数2)において、モーメントMijは、(i+j)次のモーメントとも称される。ここで、次式で表現される0次モーメントは、第1色領域の面積となる。
Figure 0006107372
When the binarized image at the position (x, y) of the binarized image is set to BW (x, y) and the determination process is performed for any first color region included in the binarized image, the first The color region moment M ij is defined by the following equation.
Figure 0006107372

In the above (Equation 2), the moment M ij is also referred to as an (i + j) -th moment. Here, the 0th-order moment expressed by the following equation is the area of the first color region.
Figure 0006107372

上述の(数2)ならびに(数3)に基づいて第1色領域の重心座標(x、y)を算出することが出来る。

Figure 0006107372

更に、重心周りのモーメントを、次式を用いて算出することが出来る。
Figure 0006107372
Based on the above (Equation 2) and (Equation 3), the barycentric coordinates (x G , y G ) of the first color region can be calculated.
Figure 0006107372

Furthermore, the moment around the center of gravity can be calculated using the following equation.
Figure 0006107372

上述の(数5)において、重心周りの2次モーメント(MG20、MG02、MG11の3つ)は、慣性モーメントと称される。ここで、0次モーメント(第1色領域の面積)で正規化した正規化慣性モーメントμijは次式で表現される。

Figure 0006107372
In the above (Equation 5), the second moments around the center of gravity (three of MG 20 , MG 02 , and MG 11 ) are called inertia moments. Here, the normalized inertia moment μ ij normalized by the 0th-order moment (the area of the first color region) is expressed by the following equation.
Figure 0006107372

上述の(数6)の右辺をモーメントMijをのみを次式で表現することが出来る。

Figure 0006107372
Only the moment M ij on the right side of the above (Formula 6) can be expressed by the following equation.
Figure 0006107372

次に、第1色領域の楕円形状(面積はM00)への近似を実施する為、近似する擬似的な楕円形状の長軸の長さa、短軸の長さbを、上述の(数7)を用いて、次式の通り算出する。

Figure 0006107372
Next, in order to perform the approximation to the elliptical shape (the area is M 00 ) of the first color region, the long axis length a and the short axis length b of the pseudo elliptical shape to be approximated are set as described above ( Using the equation (7), calculation is performed as follows.
Figure 0006107372

擬似的な楕円形状の面積Sは、上述の(数8)を用いて次式の通り、算出することが出来る。

Figure 0006107372
The pseudo-elliptical area S can be calculated by the following equation using the above (Equation 8).
Figure 0006107372

図2(a)に示す様に、マーカーを構成する色領域に侵食が発生しない場合においては、マーカーを構成する色領域(例えば白色領域)を楕円形状と判定することで、マーカー構成する白色領域の対を認識することが出来る。換言すると、マーカーの白色領域の対が正常に分離した状態で撮像されている場合、白色領域の面積と、疑似的な楕円形状の面積とが大きく異なることは無い。そこで、図3の減退部4は、処理対象の第1色領域の面積と、その領域に当てはまる疑似的な楕円形状の面積との比(第1類似度と称しても良い)が所定の閾値(第1閾値と称しても良い)を満たしているか否かにより、処理対象としている第1色領域が楕円形状であるか否かを判定する。減退部4は、例えば、面積の比(第1類似度)を評価する次式を用いてを用いて評価値Eを算出し、第1閾値を例えば0.3と設定し、E<0.3の場合は楕円形状であると判定し、E≧0.3の場合は楕円形状では無いと判定する。

Figure 0006107372

なお、減退部4は、例えば、国際公開第2012/061205号パンフレットに開示される減退方法や評価方法を適宜適用することが出来る。 As shown in FIG. 2A, in the case where erosion does not occur in the color area constituting the marker, the color area constituting the marker (for example, the white area) is determined to be elliptical, so that the white area constituting the marker Can be recognized. In other words, when the pair of white areas of the marker is captured in a normally separated state, the area of the white area and the pseudo elliptical area do not differ greatly. Therefore, the reduction unit 4 in FIG. 3 has a predetermined threshold value that is a ratio between the area of the first color area to be processed and the area of the pseudo elliptical shape that applies to the area (may be referred to as the first similarity). It is determined whether or not the first color region to be processed is an elliptical shape depending on whether or not (may be referred to as a first threshold) is satisfied. The reduction unit 4 calculates the evaluation value E using, for example, the following expression for evaluating the area ratio (first similarity), sets the first threshold value to 0.3, for example, and E <0. If it is 3, it is determined that the shape is elliptical, and if E ≧ 0.3, it is determined that the shape is not elliptical.
Figure 0006107372

In addition, the decline part 4 can apply suitably the decline method and evaluation method which are disclosed by the international publication 2012/061205 pamphlet, for example.

図3の算出部5は、例えば、ワイヤードロジックによるハードウェア回路である。また、算出部5は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。算出部5は、減退部5にアクセスし、2値化画像に複数含まれる第1色領域において、上述の(数10)の条件を満たすことによって楕円形状と判定された第1色領域と、所定の蝶形状との第2類似度を算出する。ここで、算出部5による楕円形状と判定された第1色領域と、所定の蝶形状との第2類似度を算出する技術的な意義について説明する。本発明者らの検証により、図2(b)に示す様に、色領域に侵食が発生する場合(例えば照明の光が強く明るい場合)、マーカー構成する第1色形状の対が連結して蝶形状となることが明らかになった。この様な蝶形状においては、上述の(数10)の条件を満たし得るため、縮退処理が実施されない為に、マーカー構成する白色領域の対を特定すること出来ない誤検出の問題が生じる。しかしながら、上述の(数10)の条件を満たした場合において、蝶形状であるか否かを判定することが可能となれば、誤検出を防止することが出来、ロバスト性が向上する。なお、算出部5による所定の蝶形状との第2類似度の算出方法については後述する。   The calculation unit 5 in FIG. 3 is, for example, a hardware circuit based on wired logic. The calculation unit 5 may be a functional module that is realized by a computer program executed by the image processing apparatus 1. The calculation unit 5 accesses the reduction unit 5, and in the first color regions included in the binarized image, the first color region determined to be elliptical by satisfying the above (Equation 10) condition; A second similarity with a predetermined butterfly shape is calculated. Here, the technical significance of calculating the second similarity between the first color region determined to be elliptical by the calculation unit 5 and the predetermined butterfly shape will be described. As shown in FIG. 2B, the inventors have verified that when the color area is eroded (for example, when the illumination light is strong and bright), the pair of the first color shape constituting the marker is connected. It became clear that it became a butterfly shape. In such a butterfly shape, since the condition of the above (Equation 10) can be satisfied, the degeneration process is not performed, and thus a problem of false detection that cannot identify the pair of white areas constituting the marker occurs. However, when the condition of the above (Equation 10) is satisfied, if it is possible to determine whether or not the shape is a butterfly shape, erroneous detection can be prevented and robustness is improved. A method for calculating the second similarity with the predetermined butterfly shape by the calculation unit 5 will be described later.

算出部5は、処理対象となる第1色領域が蝶形状で無いと判定した場合は、当該第1色領域を、マーカーを構成する第1色領域の候補とする。算出部5は、抽出部3が有する画像バッファにアクセスし、画像バッファに、当該第1色領域をコピーし、元の画像の第1色領域の範囲を消去する(黒で塗りつぶす)ことを実施しても良い。また、算出部5は、処理対象となる第1色領域が蝶形状であると判定した場合は、当該第1色領域が楕円形状であったとしてもマーカーを構成する第1色領域の候補としない。算出部5は、複数の第1色領域に対して第2類似度を算出し、蝶形状か否かの判定処理を行うと、画像バッファには、マーカーを構成する第1色領域候補が抽出され、元の2値化画像には、候補ではない第1色領域が残存している。   When the calculation unit 5 determines that the first color region to be processed is not a butterfly shape, the calculation unit 5 sets the first color region as a candidate for the first color region constituting the marker. The calculation unit 5 accesses the image buffer included in the extraction unit 3, copies the first color area to the image buffer, and erases the range of the first color area of the original image (fills with black). You may do it. In addition, when the calculation unit 5 determines that the first color region to be processed is a butterfly shape, the calculation unit 5 determines whether the first color region constituting the marker is a candidate even if the first color region is an elliptical shape. do not do. When the calculation unit 5 calculates the second similarity with respect to the plurality of first color regions and determines whether or not the shape is a butterfly shape, the first color region candidate constituting the marker is extracted in the image buffer. Thus, a first color region that is not a candidate remains in the original binarized image.

上述の算出部5の処理が実施された後に縮退部4は、元の2値化画像の縮退処理を行う。換言すると、減退部4は、楕円形状と判定されなかった第1色領域または、楕円形状と判定されたが蝶形状と判定された第1色領域に対して減退処理を実行する。なお、縮退処理は、第1色領域(白色領域)の外周の画素を1画素ずつ削る(削除する)方法や、第1色領域のエッジ部分の画素を所定のフィルタリング処理で削る方法など、様々な公知の技術を用いることが出来る。縮退部4による縮退処理が完了すると、抽出部3は、縮退後の2値化画像に対して再度ラベリングを実施することにより、第1色領域と第2色領域(換言すると白色領域または黒色領域)を再度抽出し、減退部4と算出部5は上述した一連の処理を第1色領域が消滅するまで反復する。反復処理が完了した場合、画像バッファには、マーカーを構成する第1色領域の候補が抽出されている。なお、第2色領域(黒色領域)についても、例えば白黒の反転処理を行うことで第1色領域と同様に処理することが出来る為、以下の処理においても詳細な説明は省略する。   After the processing of the calculation unit 5 described above is performed, the reduction unit 4 performs a reduction process on the original binarized image. In other words, the reduction unit 4 performs the reduction process on the first color region that has not been determined to be elliptical or the first color region that has been determined to be elliptical but has been determined to have a butterfly shape. Note that the reduction processing includes various methods such as a method of deleting (deleting) pixels on the outer periphery of the first color region (white region) one by one, a method of deleting pixels at the edge portion of the first color region by a predetermined filtering process, and the like. Any known technique can be used. When the reduction process by the reduction unit 4 is completed, the extraction unit 3 performs the labeling again on the binarized image after the reduction, so that the first color region and the second color region (in other words, the white region or the black region). ) Are extracted again, and the reduction unit 4 and the calculation unit 5 repeat the series of processes described above until the first color region disappears. When the iterative process is completed, candidates for the first color region constituting the marker are extracted from the image buffer. Note that the second color region (black region) can be processed in the same manner as the first color region by performing, for example, black-and-white reversal processing, and thus detailed description will be omitted in the following processing.

ここで、算出部5による楕円形状と判定された第1色領域が所定の蝶形状か否かを判定する方法について説明する。図5は、算出部5による蝶形状の判定フローチャートである。算出部5は、楕円形状であると判定された第1色領域を入力データとして、当該第1色領域の重心位置を算出する(ステップS501)。ステップS501において、算出部5は、第1色領域の重心位置を上述の(数4)に基づいて算出することが出来る。   Here, a method for determining whether or not the first color region determined to be an elliptical shape by the calculation unit 5 has a predetermined butterfly shape will be described. FIG. 5 is a flowchart for determining a butterfly shape by the calculation unit 5. The calculation unit 5 calculates the barycentric position of the first color area using the first color area determined to be elliptical as input data (step S501). In step S501, the calculation unit 5 can calculate the barycentric position of the first color region based on the above (Equation 4).

次に、算出部5は、処理対象となる第1色領域の慣性主軸を算出する(ステップS502)。なお、算出部5は慣性主軸を次式に基づいて算出することが出来る。

Figure 0006107372

なお、慣性主軸は、ステップS501で算出した重心位置を通過する上述の(数11)で算出される角度θの傾きを有する直線である。 Next, the calculation unit 5 calculates the inertia main axis of the first color region to be processed (step S502). In addition, the calculation part 5 can calculate an inertia principal axis based on following Formula.
Figure 0006107372

The inertial main axis is a straight line having the inclination of the angle θ calculated by the above (Equation 11) passing through the center of gravity calculated in step S501.

次に、算出部5は、処理対象となる第1色領域において、算出した慣性主軸上への射影ヒストグラムを生成する(ステップS503)。なお、算出部5は、ステップS503において、射影ヒストグラムを、例えば、以下の手順で生成することが出来る。
(1)処理対象となる第1色領域が含まれる画像を、上述の(数4)を用いて算出した重心座標(x、y)の周りに、上述の(数11)に基づいて算出される角度(−θ)だけ回転させる。なお、回転後の画像においては、慣性主軸の方向が画像の横方向(換言するとx軸方向)になる。
(2)回転後の画像の各列方向(縦方向、換言するとy軸方向)に、第1色領域の画素数をカウントする。各列毎の画素数のカウント結果が射影ヒストグラムとなる。
Next, the calculation unit 5 generates a projection histogram on the calculated inertial main axis in the first color region to be processed (step S503). In addition, the calculation part 5 can produce | generate a projection histogram in the following procedures, for example in step S503.
(1) An image including the first color region to be processed is placed around the barycentric coordinates (x G , y G ) calculated using the above (Equation 4) based on the above (Equation 11). It is rotated by the calculated angle (−θ). In the rotated image, the direction of the principal axis of inertia is the horizontal direction of the image (in other words, the x-axis direction).
(2) The number of pixels in the first color area is counted in each column direction (vertical direction, in other words, y-axis direction) of the rotated image. The result of counting the number of pixels for each column is a projection histogram.

図6(a)は、蝶形状ではない第1色領域を含む回転前の画像を示す図である。図6(b)は、蝶形状ではない第1色領域を含む回転後の画像を示す図である。図7(a)は、蝶形状の第1色領域を含む回転前の画像を示す図である。図7(b)は、蝶形状の第1色領域を含む回転後の画像を示す図である。図6(a)、図7(a)に示す通り、左上端を原点とする画像に含まれる第1色領域においては、重心座標(x、y)と傾きθの慣性主軸が規定される。また、図6(b)、図7(b)に示す通り、第1色領域は、慣性主軸の方向が画像のx軸と平行方向となる様に回転される。 FIG. 6A is a diagram illustrating an image before rotation including a first color region that is not a butterfly shape. FIG. 6B is a diagram illustrating an image after rotation including a first color region that is not a butterfly shape. FIG. 7A is a diagram showing an image before rotation including a butterfly-shaped first color region. FIG. 7B is a diagram illustrating an image after rotation including a first color region having a butterfly shape. As shown in FIGS. 6 (a) and 7 (a), in the first color region included in the image with the upper left corner as the origin, the center of inertia coordinates (x G , y G ) and the inclination θ are defined. The Further, as shown in FIGS. 6B and 7B, the first color region is rotated so that the direction of the principal axis of inertia is parallel to the x-axis of the image.

図6(c)は、蝶形状ではない第1色領域の射影ヒストグラムである。図7(c)は、蝶形状の第1色領域の射影ヒストグラムである。図6(c)に示す射影ヒストグラムは単峰形状になっており、図7(c)に示す射影ヒストグラムは、双峰形状多峰性になっていることが確認出来る。この為、算出部5は、射影ヒストグラムが所定の双峰形状との類似度(第2類似度と称しても良い)が所定の類似度(第2閾値と称しても良い)以上であれば、第1色領域が蝶形状であること判定出来る。   FIG. 6C is a projection histogram of the first color region that is not a butterfly shape. FIG. 7C is a projection histogram of the butterfly-shaped first color region. The projection histogram shown in FIG. 6C has a unimodal shape, and it can be confirmed that the projection histogram shown in FIG. 7C has a bimodal multimodality. For this reason, the calculation unit 5 has a projection histogram whose degree of similarity with a predetermined bimodal shape (may be referred to as a second similarity) is equal to or higher than a predetermined similarity (may be referred to as a second threshold). It can be determined that the first color region has a butterfly shape.

図5において、算出部5は、ステップS503で生成した射影ヒストグラムの重心位置を算出する(ステップS504)。重心位置は、例えば、回転後の画像の第1色領域の重心位置のx座標であれば良い。ところで、図7(a)ないし図7(c)に示される通り、第1色領域が蝶形状であれば、重心位置付近に射影ヒストグラムの極小値が存在することが理解できる。そこで、次に、算出部5は、射影ヒストグラムの重心位置から所定の探索範囲内において、最小値と当該最小値位置を探索する(ステップS505)。所定探索範囲は、例えば、射影ヒストグラムの重心位置から左端(または右端)までの距離の0.6倍までと設定すれば良い。これは、射影ヒストグラムが双峰形状であれば、重心位置から左端(または右端)までの距離の1/2の距離の付近に極大値があると考えられ、それよりやや大きい0.6を設定すれば、探索される最小値は極小値である可能性が高い為である。   In FIG. 5, the calculation unit 5 calculates the position of the center of gravity of the projection histogram generated in step S503 (step S504). The barycentric position may be, for example, the x coordinate of the barycentric position of the first color area of the rotated image. Incidentally, as shown in FIGS. 7A to 7C, it can be understood that if the first color region is a butterfly shape, there is a minimum value of the projection histogram near the center of gravity position. Therefore, next, the calculation unit 5 searches for the minimum value and the minimum value position within a predetermined search range from the barycentric position of the projection histogram (step S505). For example, the predetermined search range may be set to 0.6 times the distance from the center of gravity position of the projection histogram to the left end (or right end). If the projection histogram is a bimodal shape, it is considered that there is a maximum value near the half of the distance from the center of gravity position to the left end (or right end), and a slightly larger value of 0.6 is set. This is because there is a high possibility that the minimum value to be searched is a minimum value.

算出部5は、ステップS505において、射影ヒストグラムから、探索により最小値位置を得たのち、最小値位置よりも左側と右側でそれぞれ最大値を探索し、探索した最大値を、それぞれ左極大値ならびに右極大値として設定する(ステップS506)。次に、算出部5は、左極大値ならびに右極大値と先に探索した最小値との比率をそれぞれ計算し、これを左比率ならびに右比率(第2類似度と称しても良い)として設定する(ステップS507)。   In step S505, the calculation unit 5 obtains the minimum value position from the projection histogram by searching, and then searches for the maximum value on the left side and the right side of the minimum value position. The right maximum value is set (step S506). Next, the calculation unit 5 calculates the ratio between the left maximum value and the right maximum value and the minimum value searched earlier, and sets these as the left ratio and the right ratio (may be referred to as second similarity). (Step S507).

射影ヒストグラムが蝶領域であれば、探索した最小値位置の左右にはそれぞれ上に凸の領域が存在する為、左比率と右比率(第2類似度)は、蝶形状でない場合と比較して大きな値になる。そこで、算出部5は、左比率と右比率がともに第2閾値なる所定の閾値(例えば3.0)以上であるか否かを判定する(ステップS508)。算出部5は、処理対象となる第1色領域の第2類似度が、第2閾値以上の場合(ステップS508−Yes)、双峰性を有するものとして、蝶型形状肯定の結果を出力する(ステップS509)。また、算出部5は、処理対象となる第1色領域の第2類似度が第2閾値未満の場合(ステップS508−No)、双峰性を有さないものとして、蝶型形状否定の結果を出力する(ステップS510)。ステップS509またはS510の処理の完了に伴い、算出部5は、図5のフローチャートに示す蝶形状の判定処理を終了する。算出部5は、蝶形状判定の処理結果を図3の認識部6へ出力する。   If the projection histogram is a butterfly area, there are convex areas on the left and right sides of the searched minimum value position, so the left ratio and right ratio (second similarity) are compared to the case where the butterfly shape is not used. Great value. Therefore, the calculation unit 5 determines whether or not both the left ratio and the right ratio are equal to or greater than a predetermined threshold (for example, 3.0) that is the second threshold (step S508). When the second similarity of the first color region to be processed is equal to or greater than the second threshold (Yes in step S508), the calculation unit 5 outputs a result of the butterfly shape affirmation as having bimodality. (Step S509). In addition, when the second similarity of the first color region to be processed is less than the second threshold (No in step S508), the calculation unit 5 determines that the bifality is not present, and the result of the butterfly shape denial Is output (step S510). Upon completion of the processing in step S509 or S510, the calculation unit 5 ends the butterfly shape determination processing shown in the flowchart of FIG. The calculation unit 5 outputs the processing result of the butterfly shape determination to the recognition unit 6 in FIG.

図3の認識部6は、例えば、ワイヤードロジックによるハードウェア回路である。また、認識部6は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。認識部6は、算出部5から蝶形状判定の処理結果を受け取る。認識部6は、蝶形状判定の処理結果に基づいて第2類似度が第2閾値を満たさない第1色領域または第2色領域を、マーカーを構成する第1色領域または第2色領域として認識する。具体的には、認識部6は、認識したマーカーを構成する第1色領域または第2色領域を用いて、マーカーの特徴点すなわち市松模様の交点を検出する。換言すると、認識部5は、第2閾値を満たさなく、かつ、互いに対向する複数の第1色領域の所定位置を連結する第1線分と、第2閾値を満たさなく、かつ、互いに対向する複数の第2色領域の所定位置を連結する第2線分と、の交点をマーカーの特徴点として認識する。具体的には、認識部6は、例えば、以下の処理を実行する。   The recognition unit 6 in FIG. 3 is, for example, a hardware circuit based on wired logic. The recognition unit 6 may be a functional module that is realized by a computer program executed by the image processing apparatus 1. The recognition unit 6 receives the processing result of the butterfly shape determination from the calculation unit 5. Based on the processing result of the butterfly shape determination, the recognition unit 6 sets the first color region or the second color region whose second similarity does not satisfy the second threshold as the first color region or the second color region constituting the marker. recognize. Specifically, the recognition unit 6 detects a feature point of the marker, that is, an intersection of a checkered pattern, using the first color region or the second color region constituting the recognized marker. In other words, the recognizing unit 5 does not satisfy the second threshold and faces the first line segment connecting the predetermined positions of the plurality of first color regions facing each other and does not satisfy the second threshold and faces each other. The intersection of the second line segment connecting the predetermined positions of the plurality of second color regions is recognized as a feature point of the marker. Specifically, the recognition unit 6 executes the following processing, for example.

マーカーの構成する色領域の候補は複数抽出されている場合も有り得るが、マーカーを構成する第1色領域ならびに第2色領域であるには、2つの白色領域と2つの黒色領域からなる必要がある。また、白色領域のそれぞれの重心を結んだ線分と、黒領域のそれぞれの重心を結んだ線分が交差する必要がある。抽出した領域ペアが、複数に渡る場合は、認識部6は、領域ペアを更に絞り込んでも良い。認識部6は、例えば、マーカーの画像上での大凡のサイズを利用し、領域ペアのうち、重心間の距離が所定値(例えば、マーカーのおおよそのサイズ)以内のものに絞り込んでも良い。次に、認識部6は、抽出された複数の領域ペアに対して検証処理を行う。例えば、マーカーの形状は既知であるから、あらかじめマーカー形状のテンプレートを用意しておき、テンプレートマッチングのスコアをもとにマーカーらしい領域ペアを選択する。なお、画像上のマーカーは歪んで現れ得るため、テンプレートマッチングの際には、領域ペアの各領域の重心位置が、マーカー形状のテンプレートの各領域の重心位置に一致するように領域ペアの画像を、例えばアフィン変換することで、歪みを補正しておくことが好ましい。   There may be a case where a plurality of color area candidates constituting the marker are extracted, but in order to be the first color area and the second color area constituting the marker, it is necessary to include two white areas and two black areas. is there. In addition, the line segment connecting the centroids of the white area and the line segment connecting the centroids of the black area need to intersect. When there are a plurality of extracted area pairs, the recognition unit 6 may further narrow down the area pairs. The recognition unit 6 may use, for example, an approximate size of the marker on the image, and narrow down to a region pair whose distance between the centroids is within a predetermined value (for example, the approximate size of the marker). Next, the recognition unit 6 performs a verification process on the extracted plurality of region pairs. For example, since the shape of the marker is known, a marker-shaped template is prepared in advance, and an area pair that seems to be a marker is selected based on the template matching score. Since the marker on the image may appear distorted, when performing template matching, the image of the region pair is set so that the centroid position of each region of the region pair matches the centroid position of each region of the marker-shaped template. For example, it is preferable to correct the distortion by affine transformation.

上述の処理によって認識部6は、マーカーを構成する第1色領域と第2色領域の領域ペアを選択することが出来る。認識部6は、選択した領域ペアの重心を結んだ線分の交点を市松模様の交点として抽出し、マーカーの特徴点として認識する。   Through the above-described processing, the recognition unit 6 can select the first color region and the second color region region pair constituting the marker. The recognizing unit 6 extracts intersections of line segments connecting the centroids of the selected region pairs as intersections of a checkered pattern and recognizes them as marker feature points.

認識部6は、上述の条件を満たす白色領域ペアと黒色領域ペアを含む4領域(以下、領域ペアと称する)の組み合わせを認識する。図8は、マーカーを構成する第1色領域と第2色領域の領域ペアの概念図である。図8に示す通り、認識部6は、互いに対向する第1色領域の重心位置を連結する第1線分と、互いに対向する第2色領域の重心位置を連結する第2線分の交点がマーカーの特徴点として認識することが出来る。なお、認識部6は、例えば、国際公開第2012/061205号パンフレットに開示される特徴点の決定方法を適宜適用することが出来る。   The recognition unit 6 recognizes a combination of four regions (hereinafter referred to as region pairs) including a white region pair and a black region pair that satisfy the above conditions. FIG. 8 is a conceptual diagram of an area pair of a first color area and a second color area constituting a marker. As shown in FIG. 8, the recognition unit 6 has an intersection of a first line segment connecting the centroid positions of the first color regions facing each other and a second line segment linking the centroid positions of the second color regions facing each other. It can be recognized as a feature point of the marker. For example, the recognition unit 6 can appropriately apply the feature point determination method disclosed in International Publication No. 2012/061205 pamphlet.

図9は、画像処理装置1における画像処理のフローチャートである。図9において、取得部2は、外部装置が撮像する撮像画像を取得する(ステップS901)。抽出部3は、取得部2から画像を受け取り、当該画像から第1色領域、または第2色領域を上述の方法で抽出する(ステップS902)。なお、説明の便宜上、第1色領域ならびに第2色領域を合わせて色領域と称することとする。減退部4は、抽出された第1色領域、または第2色領域の領域数が0より多い場合(ステップS903−Yes)、抽出された複数の色領域から1つの色領域を選択する(ステップS904)。減退部4は、選択した色領域の形状と、所定の楕円形状との第1類似度を上述の方法を用いて算出する(ステップS905)。減退部4は、例えば、上述の(数10)に基づいて第1類似度と第1閾値を比較し、選択した色領域が楕円形状を満たすか否かを判断する(ステップS906)。   FIG. 9 is a flowchart of image processing in the image processing apparatus 1. In FIG. 9, the acquisition unit 2 acquires a captured image captured by the external device (step S901). The extraction unit 3 receives the image from the acquisition unit 2, and extracts the first color region or the second color region from the image by the above-described method (step S902). For convenience of explanation, the first color area and the second color area are collectively referred to as a color area. When the number of extracted first color areas or second color areas is greater than 0 (step S903-Yes), the reduction unit 4 selects one color area from the plurality of extracted color areas (step S903). S904). The reduction unit 4 calculates the first similarity between the shape of the selected color region and the predetermined elliptical shape using the above-described method (step S905). For example, the reduction unit 4 compares the first similarity with the first threshold based on the above (Equation 10), and determines whether or not the selected color region satisfies the elliptical shape (step S906).

第1類似度が第1閾値未満の場合(ステップS906−Yes)、選択した色領域が楕円形状を満たすものとして、算出部5は、上述の方法で第2類似度を算出する(ステップS907)。算出部5は、選択した色領域が蝶形状を満たすか否かを、第2類似度と第2閾値を比較することで判定する(ステップS908)。第2類似度が第2閾値未満(ステップS908−No)の場合は、認識部6は、選択した色領域が蝶形状を満たさないものとして、換言すると、選択した色領域がマーカーを構成する色領域として認識する(ステップS909)。なお、画像処理装置1は、ステップS906において、第1類似度が第1閾値以上の場合(ステップS906−No)や、ステップS908において、第2類似度が第2閾値以上(ステップS908−Yes)の場合は、選択した色領域がマーカーを構成しない色領域としてステップS910に処理を進める。画像処理装置1は、ステップS902で抽出部3が抽出した、全ての色領域において第1類似度と第1閾値ならびに第2類似度と第2閾値の比較処理が完了したか否かを判定する(ステップS910)。ステップS910において、比較処理が完了していない場合(ステップS910−No)、画像処理装置1は、ステップS904〜S910の処理を繰り返す。   When the first similarity is less than the first threshold (step S906-Yes), the calculation unit 5 calculates the second similarity by the above-described method, assuming that the selected color region satisfies the elliptical shape (step S907). . The calculation unit 5 determines whether or not the selected color region satisfies the butterfly shape by comparing the second similarity and the second threshold value (step S908). When the second similarity is less than the second threshold (step S908-No), the recognition unit 6 assumes that the selected color area does not satisfy the butterfly shape, in other words, the color that the selected color area constitutes the marker. It is recognized as an area (step S909). The image processing apparatus 1 determines that the first similarity is greater than or equal to the first threshold in step S906 (step S906-No), or the second similarity is greater than or equal to the second threshold in step S908 (step S908-Yes). In the case of, the process proceeds to step S910 with the selected color area as a color area that does not constitute a marker. The image processing apparatus 1 determines whether or not the comparison processing of the first similarity and the first threshold and the second similarity and the second threshold has been completed in all color regions extracted by the extraction unit 3 in step S902. (Step S910). In step S910, when the comparison process is not completed (step S910-No), the image processing apparatus 1 repeats the processes of steps S904 to S910.

ステップS910において、比較処理が完了した場合(ステップS910−Yes)、減退部4は、ステップS906で楕円形状と判定されなかった色領域または、ステップS908で楕円形状と判定されたが蝶形状と判定された色領域に対して減退処理を実行する(ステップS911)。ステップS911の処理が完了すると、抽出部3は再び色領域を抽出する。次に、減退部4は、抽出された色領域の数が0以上か否かを判定する(S903)。なお、ステップS911で減退処理を行っている為、色領域は次第に消滅する為、ステップS902〜S911の処理を繰り返すことによって、いずれは、色領域数が0となる(ステップS903−No)。   In step S910, when the comparison process is completed (step S910-Yes), the reduction unit 4 determines that the color region has not been determined to be elliptical in step S906, or has been determined to be elliptical in step S908 but has a butterfly shape. A reduction process is executed for the color area that has been set (step S911). When the process of step S911 is completed, the extraction unit 3 extracts the color area again. Next, the reduction unit 4 determines whether or not the number of extracted color regions is 0 or more (S903). Since the color area gradually disappears because the reduction process is performed in step S911, the number of color areas is eventually reduced to 0 by repeating the processes in steps S902 to S911 (step S903-No).

ステップS903において、色領域数が0となった場合(ステップS903−No)、認識部は、ステップS909で認識したマーカーを構成する色領域から、上述した方法で特徴点を認識する(ステップS912)。ステップS912の処理の完了に伴い、画像処理装置1は、図9のフローチャートに示す画像処理を完了させる。   In step S903, when the number of color regions becomes 0 (step S903-No), the recognition unit recognizes feature points from the color regions constituting the marker recognized in step S909 by the method described above (step S912). . With the completion of the processing in step S912, the image processing apparatus 1 completes the image processing shown in the flowchart of FIG.

実施例1に係る画像処理装置においては、不鮮明な画像において、マーカー構成する白色領域の対が連結して蝶形状となる場合においてもマーカーの特徴点を高精度で抽出することが可能となる。   In the image processing apparatus according to the first embodiment, it is possible to extract a marker feature point with high accuracy even when a pair of white regions constituting a marker is connected to form a butterfly shape in a blurred image.

(実施例2)
図10は、一つの実施形態による画像処理装置1のハードウェア構成図である。図10に示すように、画像処理装置1は、制御部10、主記憶部11、補助記憶部12、ドライブ装置13、ネットワークI/F部15、入力部16、表示部17を含む。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。
(Example 2)
FIG. 10 is a hardware configuration diagram of the image processing apparatus 1 according to one embodiment. As illustrated in FIG. 10, the image processing apparatus 1 includes a control unit 10, a main storage unit 11, an auxiliary storage unit 12, a drive device 13, a network I / F unit 15, an input unit 16, and a display unit 17. These components are connected to each other via a bus so as to be able to transmit and receive data.

制御部10は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPUである。また、制御部10は、主記憶部11や補助記憶部12に記憶されたプログラムを実行する演算装置であり、入力部16や記憶装置からデータを受け取り、演算、加工した上で、表示部17や記憶装置などに出力する。   The control unit 10 is a CPU that controls each device, calculates data, and processes in a computer. The control unit 10 is an arithmetic device that executes a program stored in the main storage unit 11 or the auxiliary storage unit 12. The control unit 10 receives data from the input unit 16 or the storage device, calculates, and processes the display unit 17. Or output to a storage device.

主記憶部11は、ROMやRAMなどであり、制御部10が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶または一時保存する記憶装置である。   The main storage unit 11 is a ROM, a RAM, or the like, and is a storage device that stores or temporarily stores programs and data such as an OS and application software that are basic software executed by the control unit 10.

補助記憶部12は、HDDなどであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。   The auxiliary storage unit 12 is an HDD or the like, and is a storage device that stores data related to application software and the like.

ドライブ装置13は、記録媒体14、例えばフレキシブルディスクからプログラムを読み出し、補助記憶部12にインストールする。また、記録媒体14に、所定のプログラムを格納し、この記録媒体14に格納されたプログラムはドライブ装置13を介して画像処理装置1にインストールされる。インストールされた所定のプログラムは、画像処理装置1により実行可能となる。   The drive device 13 reads the program from the recording medium 14, for example, a flexible disk, and installs it in the auxiliary storage unit 12. A predetermined program is stored in the recording medium 14, and the program stored in the recording medium 14 is installed in the image processing apparatus 1 through the drive device 13. The installed predetermined program can be executed by the image processing apparatus 1.

ネットワークI/F部15は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続された通信機能を有する周辺機器と画像処理装置1とのインターフェースである。   The network I / F unit 15 has a communication function connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network) constructed by a data transmission path such as a wired and / or wireless line. This is an interface between the device and the image processing apparatus 1.

入力部16は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示部17の表示画面上でキーの選択等を行うためのマウスやスライスパット等を有する。また、入力部16は、ユーザが制御部10に操作指示を与えたり、データを入力したりするためのユーザインタフェースである。   The input unit 16 includes a keyboard having cursor keys, numeric input, various function keys, and the like, and a mouse and a slice pad for selecting keys on the display screen of the display unit 17. The input unit 16 is a user interface for a user to give an operation instruction to the control unit 10 and input data.

表示部17は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等により構成され、制御部10から入力される表示データに応じた表示が行われる。   The display unit 17 is composed of a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or the like, and performs display according to display data input from the control unit 10.

なお、上述した画像処理方法は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、上述した画像処理方法を実現することが出来る。   The image processing method described above may be realized as a program for causing a computer to execute. The above-described image processing method can be realized by installing this program from a server or the like and causing the computer to execute it.

また、このプログラムを記録媒体14に記録し、このプログラムが記録された記録媒体14をコンピュータや携帯端末に読み取らせて、前述した画像処理を実現させることも可能である。なお、記録媒体14は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることが出来る。   It is also possible to record the program on the recording medium 14 and cause the computer or portable terminal to read the recording medium 14 on which the program is recorded, thereby realizing the above-described image processing. The recording medium 14 is a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, flexible disk, magneto-optical disk, etc. Various types of recording media such as a semiconductor memory for recording can be used.

また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが出来る。また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することが出来る。   In addition, each component of each illustrated apparatus does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. The various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation.

以上、説明した実施形態に関し、更に以下の付記を開示する。
(付記1)
複数の第1色領域と、前記第1色領域とは異なる色の複数の第2色領域を有し、複数の前記第1色領域同士と、複数の前記第2色領域同士が互いに対向するマーカーを含む画像を取得する取得部と、
前記画像から前記第1色領域、または前記第2色領域を抽出する抽出部と、
抽出された前記第1色領域、または前記第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで前記第1色領域または前記第2色領域を減退する減退部と、
前記第1閾値を満たした前記第1色領域または前記第2色領域と、所定の蝶形状との第2類似度を算出する算出部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記第2類似度が所定の第2閾値を満たさない前記第1色領域または前記第2色領域を、前記マーカーを構成する前記第1色領域または前記第2色領域として認識する認識部を更に備えることを特徴とする付記1記載の画像処理装置。
(付記3)
前記算出部は、前記第1閾値を満たした前記第1色領域または前記第2色領域の慣性主軸を算出し、前記慣性主軸に対する射影ヒストグラムを生成し、前記射影ヒストグラムと所定の双峰形状との類似度を前記第2類似度として算出することを特徴とする付記2記載の画像処理装置。
(付記4)
前記減退部は、前記第2閾値を満たした前記第1色領域または前記第2色領域が、前記第1閾値を満たすまで前記第1色領域または前記第2色領域を減退することを特徴とする付記3記載の画像処理装置。
(付記5)
前記認識部は、前記第2閾値を満たさなく、かつ、互いに対向する複数の前記第1色領域の所定位置を連結する第1線分と、
前記第2閾値を満たさなく、かつ、互いに対向する複数の前記第2色領域の所定位置を連結する第2線分と、の交点を前記マーカーの特徴点として認識する付記2ないし付記4のいずれか一つに記載の画像処理装置。
(付記6)
前記マーカーは市松模様であることを特徴とする付記1ないし付記4のいずれか一つに記載の画像処理装置。
(付記7)
前記減退部は、前記第1色領域または前記第2色領域の外周の画素を削除、またはエッジ部分のフィルタリングにより、前記第1色領域または前記第2色領域を減退させることを特徴とする付記1記載の画像処理装置。
(付記8)
複数の第1色領域と、前記第1色領域とは異なる色の複数の第2色領域を有し、複数の前記第1色領域同士と、複数の前記第2色領域同士が互いに対向するマーカーを含む画像を取得し、
前記画像から前記第1色領域、または前記第2色領域を抽出し、
抽出された前記第1色領域、または前記第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで前記第1色領域または前記第2色領域を減退し、
前記第1閾値を満たした前記第1色領域または前記第2色領域と、所定の蝶形状との第2類似度を算出する
ことを含むことを特徴とする画像処理方法。
(付記9)
前記第2類似度が所定の第2閾値を満たさない前記第1色領域または前記第2色領域を、前記マーカーを構成する前記第1色領域または前記第2色領域として認識することを更に含む備えることを特徴とする付記8記載の画像処理方法。
(付記10)
前記算出することは、前記第1閾値を満たした前記第1色領域または前記第2色領域の慣性主軸を算出し、前記慣性主軸に対する射影ヒストグラムを生成し、前記射影ヒストグラムと所定の双峰形状との類似度を前記第2類似度として算出することを特徴とする付記9記載の画像処理方法。
(付記11)
前記減退することは、前記第2閾値を満たした前記第1色領域または前記第2色領域が、前記第1閾値を満たすまで前記第1色領域または前記第2色領域を減退することを特徴とする付記10記載の画像処理方法。
(付記12)
前記認識することは、前記第2閾値を満たさなく、かつ、互いに対向する複数の前記第1色領域の所定位置を連結する第1線分と、
前記第2閾値を満たさなく、かつ、互いに対向する複数の前記第2色領域の所定位置を連結する第2線分と、の交点を前記マーカーの特徴点として認識する付記9ないし付記11のいずれか一つに記載の画像処理方法。
(付記13)
前記マーカーは市松模様であることを特徴とする付記8ないし付記11のいずれか一つに記載の画像処理方法。
(付記14)
前記減退することは、前記第1色領域または前記第2色領域の外周の画素を削除、またはエッジ部分のフィルタリングにより、前記第1色領域または前記第2色領域を減退させることを特徴とする付記8記載の画像処理方法。
(付記15)
コンピュータに、
複数の第1色領域と、前記第1色領域とは異なる色の複数の第2色領域を有し、複数の前記第1色領域同士と、複数の前記第2色領域同士が互いに対向するマーカーを含む画像を取得し、
前記画像から前記第1色領域、または前記第2色領域を抽出し、
抽出された前記第1色領域、または前記第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで前記第1色領域または前記第2色領域を減退し、
前記第1閾値を満たした前記第1色領域または前記第2色領域と、所定の蝶形状との第2類似度を算出する
ことを実行させることを特徴とする画像処理プログラム。
The following supplementary notes are further disclosed with respect to the embodiment described above.
(Appendix 1)
A plurality of first color regions and a plurality of second color regions having colors different from the first color region are included, and the plurality of first color regions and the plurality of second color regions face each other. An acquisition unit for acquiring an image including a marker;
An extraction unit for extracting the first color region or the second color region from the image;
Until the first similarity between the extracted shape of the first color region or the second color region and a predetermined elliptical shape satisfies a predetermined first threshold, the first color region or the second color region is A decline department to decline,
A calculation unit that calculates a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape;
An image processing apparatus comprising:
(Appendix 2)
A recognizing unit that recognizes the first color area or the second color area in which the second similarity does not satisfy a predetermined second threshold as the first color area or the second color area constituting the marker; The image processing apparatus according to appendix 1, further comprising:
(Appendix 3)
The calculation unit calculates an inertia main axis of the first color area or the second color area that satisfies the first threshold, generates a projection histogram for the inertia main axis, and generates the projection histogram and a predetermined bimodal shape. The image processing apparatus according to appendix 2, wherein the similarity is calculated as the second similarity.
(Appendix 4)
The reduction unit reduces the first color area or the second color area until the first color area or the second color area that satisfies the second threshold satisfies the first threshold. The image processing apparatus according to appendix 3.
(Appendix 5)
The recognizing unit does not satisfy the second threshold and connects a predetermined position of the plurality of first color regions facing each other;
Any one of appendix 2 to appendix 4 that recognizes an intersection of a second line segment that does not satisfy the second threshold and connects a predetermined position of the plurality of second color regions facing each other as a feature point of the marker The image processing apparatus according to claim 1.
(Appendix 6)
5. The image processing apparatus according to claim 1, wherein the marker is a checkered pattern.
(Appendix 7)
The reduction unit is configured to delete the first color region or the second color region by deleting pixels on the outer periphery of the first color region or the second color region or filtering an edge portion. The image processing apparatus according to 1.
(Appendix 8)
A plurality of first color regions and a plurality of second color regions having colors different from the first color region are included, and the plurality of first color regions and the plurality of second color regions face each other. Get an image that includes a marker,
Extracting the first color region or the second color region from the image;
Until the first similarity between the extracted shape of the first color region or the second color region and a predetermined elliptical shape satisfies a predetermined first threshold, the first color region or the second color region is Decline,
An image processing method comprising: calculating a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape.
(Appendix 9)
Recognizing the first color region or the second color region in which the second similarity does not satisfy a predetermined second threshold as the first color region or the second color region constituting the marker. The image processing method according to claim 8, further comprising:
(Appendix 10)
The calculating calculates an inertia principal axis of the first color area or the second color area that satisfies the first threshold, generates a projection histogram for the inertia principal axis, and generates a projection histogram and a predetermined bimodal shape The image processing method according to appendix 9, wherein the similarity is calculated as the second similarity.
(Appendix 11)
The reduction is characterized in that the first color area or the second color area is reduced until the first color area or the second color area that satisfies the second threshold satisfies the first threshold. The image processing method according to appendix 10.
(Appendix 12)
The recognizing means that a first line segment that does not satisfy the second threshold and connects predetermined positions of the plurality of first color regions facing each other;
Any one of Supplementary Notes 9 to 11 that recognizes an intersection point of a second line segment that does not satisfy the second threshold and connects a predetermined position of the plurality of second color regions facing each other as a feature point of the marker An image processing method according to claim 1.
(Appendix 13)
12. The image processing method according to claim 8, wherein the marker is a checkered pattern.
(Appendix 14)
The reduction is characterized in that the first color area or the second color area is reduced by deleting pixels on the outer periphery of the first color area or the second color area or by filtering an edge portion. The image processing method according to appendix 8.
(Appendix 15)
On the computer,
A plurality of first color regions and a plurality of second color regions having colors different from the first color region are included, and the plurality of first color regions and the plurality of second color regions face each other. Get an image that includes a marker,
Extracting the first color region or the second color region from the image;
Until the first similarity between the extracted shape of the first color region or the second color region and a predetermined elliptical shape satisfies a predetermined first threshold, the first color region or the second color region is Decline,
An image processing program that causes a calculation of a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape.

1 画像処理装置
2 取得部
3 抽出部
4 減退部
5 算出部
6 認識部
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Acquisition part 3 Extraction part 4 Decline part 5 Calculation part 6 Recognition part

Claims (7)

複数の第1色領域と、前記第1色領域とは異なる色の複数の第2色領域を有し、複数の前記第1色領域同士と、複数の前記第2色領域同士が互いに対向するマーカーを含む画像を取得する取得部と、
前記画像から前記第1色領域、または前記第2色領域を抽出する抽出部と、
抽出された前記第1色領域、または前記第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで前記第1色領域または前記第2色領域を減退する減退部と、
前記第1閾値を満たした前記第1色領域または前記第2色領域と、所定の蝶形状との第2類似度を算出する算出部と、
を備えることを特徴とする画像処理装置。
A plurality of first color regions and a plurality of second color regions having colors different from the first color region are included, and the plurality of first color regions and the plurality of second color regions face each other. An acquisition unit for acquiring an image including a marker;
An extraction unit for extracting the first color region or the second color region from the image;
Until the first similarity between the extracted shape of the first color region or the second color region and a predetermined elliptical shape satisfies a predetermined first threshold, the first color region or the second color region is A decline department to decline,
A calculation unit that calculates a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape;
An image processing apparatus comprising:
前記第2類似度が所定の第2閾値を満たさない前記第1色領域または前記第2色領域を、前記マーカーを構成する前記第1色領域または前記第2色領域として認識する認識部を更に備えることを特徴とする請求項1記載の画像処理装置。   A recognizing unit that recognizes the first color area or the second color area in which the second similarity does not satisfy a predetermined second threshold as the first color area or the second color area constituting the marker; The image processing apparatus according to claim 1, further comprising: 前記算出部は、前記第1閾値を満たした前記第1色領域または前記第2色領域の慣性主軸を算出し、前記慣性主軸に対する射影ヒストグラムを生成し、前記射影ヒストグラムと所定の双峰形状との類似度を前記第2類似度として算出することを特徴とする請求項2記載の画像処理装置。   The calculation unit calculates an inertia main axis of the first color area or the second color area that satisfies the first threshold, generates a projection histogram for the inertia main axis, and generates the projection histogram and a predetermined bimodal shape. The image processing apparatus according to claim 2, wherein the similarity is calculated as the second similarity. 前記減退部は、前記第2閾値を満たした前記第1色領域または前記第2色領域が、前記第1閾値を満たすまで前記第1色領域または前記第2色領域を減退することを特徴とする請求項3記載の画像処理装置。   The reduction unit reduces the first color area or the second color area until the first color area or the second color area that satisfies the second threshold satisfies the first threshold. The image processing apparatus according to claim 3. 前記認識部は、前記第2閾値を満たさなく、かつ、互いに対向する複数の前記第1色領域の所定位置を連結する第1線分と、
前記第2閾値を満たさなく、かつ、互いに対向する複数の前記第2色領域の所定位置を連結する第2線分と、の交点を前記マーカーの特徴点として認識する請求項2ないし請求項4のいずれか一項に記載の画像処理装置。
The recognizing unit does not satisfy the second threshold and connects a predetermined position of the plurality of first color regions facing each other;
5. The crossing point of the second line segment that connects the predetermined positions of the plurality of second color regions facing each other and does not satisfy the second threshold value is recognized as a feature point of the marker. The image processing apparatus according to any one of the above.
複数の第1色領域と、前記第1色領域とは異なる色の複数の第2色領域を有し、複数の前記第1色領域同士と、複数の前記第2色領域同士が互いに対向するマーカーを含む画像を取得し、
前記画像から前記第1色領域、または前記第2色領域を抽出し、
抽出された前記第1色領域、または前記第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで前記第1色領域または前記第2色領域を減退し、
前記第1閾値を満たした前記第1色領域または前記第2色領域と、所定の蝶形状との第2類似度を算出する
ことを含むことを特徴とする画像処理方法。
A plurality of first color regions and a plurality of second color regions having colors different from the first color region are included, and the plurality of first color regions and the plurality of second color regions face each other. Get an image that includes a marker,
Extracting the first color region or the second color region from the image;
Until the first similarity between the extracted shape of the first color region or the second color region and a predetermined elliptical shape satisfies a predetermined first threshold, the first color region or the second color region is Decline,
An image processing method comprising: calculating a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape.
コンピュータに、
複数の第1色領域と、前記第1色領域とは異なる色の複数の第2色領域を有し、複数の前記第1色領域同士と、複数の前記第2色領域同士が互いに対向するマーカーを含む画像を取得し、
前記画像から前記第1色領域、または前記第2色領域を抽出し、
抽出された前記第1色領域、または前記第2色領域の形状と、所定の楕円形状との第1類似度が所定の第1閾値を満たすまで前記第1色領域または前記第2色領域を減退し、
前記第1閾値を満たした前記第1色領域または前記第2色領域と、所定の蝶形状との第2類似度を算出する
ことを実行させることを特徴とする画像処理プログラム。
On the computer,
A plurality of first color regions and a plurality of second color regions having colors different from the first color region are included, and the plurality of first color regions and the plurality of second color regions face each other. Get an image that includes a marker,
Extracting the first color region or the second color region from the image;
Until the first similarity between the extracted shape of the first color region or the second color region and a predetermined elliptical shape satisfies a predetermined first threshold, the first color region or the second color region is Decline,
An image processing program that causes a calculation of a second similarity between the first color region or the second color region that satisfies the first threshold and a predetermined butterfly shape.
JP2013089853A 2013-04-22 2013-04-22 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP6107372B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013089853A JP6107372B2 (en) 2013-04-22 2013-04-22 Image processing apparatus, image processing method, and image processing program
US14/167,620 US9319669B2 (en) 2013-04-22 2014-01-29 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013089853A JP6107372B2 (en) 2013-04-22 2013-04-22 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2014215645A JP2014215645A (en) 2014-11-17
JP6107372B2 true JP6107372B2 (en) 2017-04-05

Family

ID=51728709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013089853A Expired - Fee Related JP6107372B2 (en) 2013-04-22 2013-04-22 Image processing apparatus, image processing method, and image processing program

Country Status (2)

Country Link
US (1) US9319669B2 (en)
JP (1) JP6107372B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11004213B2 (en) * 2016-01-25 2021-05-11 KoreoGRFX, Inc. Methods and systems for determining motion of a device
DE102016205804A1 (en) 2016-04-07 2017-10-12 Siemens Aktiengesellschaft Positioning System
JP2018005263A (en) * 2016-06-27 2018-01-11 Nissha株式会社 Image processing method, program, photographic paper, and image processing device
US10095975B2 (en) * 2017-03-10 2018-10-09 Capital One Services, Llc Systems and methods for capturing visible information
JP6858742B2 (en) * 2018-12-17 2021-04-14 株式会社フジタ Displacement measuring device
CN116109663B (en) * 2023-04-04 2023-06-23 山东大学第二医院 Stomach CT image segmentation method based on multi-threshold segmentation

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260397A (en) * 2005-03-18 2006-09-28 Konica Minolta Holdings Inc Eye opening degree estimating device
JP5240517B2 (en) * 2008-09-30 2013-07-17 アイシン精機株式会社 Car camera calibration system
JPWO2010050412A1 (en) 2008-10-28 2012-03-29 日本電気株式会社 Calibration index determination device, calibration device, calibration performance evaluation device, system, method, and program
JP2010107348A (en) 2008-10-30 2010-05-13 Panasonic Corp Calibration target and in-vehicle calibration system using it
JP5271742B2 (en) * 2009-02-10 2013-08-21 セコム株式会社 Sunglass wear detection device
JP5472463B2 (en) * 2010-06-30 2014-04-16 富士通株式会社 Image processing program and image processing apparatus
US20120105385A1 (en) 2010-11-02 2012-05-03 Qualcomm Mems Technologies, Inc. Electromechanical systems apparatuses and methods for providing rough surfaces
JP5573618B2 (en) * 2010-11-12 2014-08-20 富士通株式会社 Image processing program and image processing apparatus
US8798781B2 (en) * 2011-02-07 2014-08-05 Vistaprint Schweiz Gmbh Method and system for converting an image to a color-reduced image mapped to embroidery thread colors

Also Published As

Publication number Publication date
US9319669B2 (en) 2016-04-19
JP2014215645A (en) 2014-11-17
US20140313349A1 (en) 2014-10-23

Similar Documents

Publication Publication Date Title
JP6107372B2 (en) Image processing apparatus, image processing method, and image processing program
JP4928310B2 (en) License plate recognition device, control method thereof, computer program
JP5699788B2 (en) Screen area detection method and system
US7813553B2 (en) Image region detection method, recording medium, and device therefor
US8019164B2 (en) Apparatus, method and program product for matching with a template
CN105303156B (en) Character detection device, method, and program
JP5538868B2 (en) Image processing apparatus, image processing method and program
CN107005655A (en) Image processing method
JP5472463B2 (en) Image processing program and image processing apparatus
JP2007156655A (en) Variable region detection apparatus and its method
JP2011175523A (en) Instrument reading device, method, program and computer-readable medium with the software stored
WO2005096129A1 (en) Method and device for detecting directed position of image pickup device and program for detecting directed position of image pickup device
CN107958202B (en) Human body detection apparatus, control method of human body detection apparatus, and storage medium
JP2011118466A (en) Difference noise replacement device, difference noise replacement method, difference noise replacement program, computer readable recording medium, and electronic equipment with difference noise replacement device
JP2018092354A (en) Object detection apparatus and method for detecting objects
JP6789410B2 (en) Image processing device, control method and control program
JP2011107878A (en) Position detection apparatus and position detection method
JP6221283B2 (en) Image processing apparatus, image processing method, and image processing program
US11138447B2 (en) Method for detecting raised pavement markers, computer program product and camera system for a vehicle
JP5708305B2 (en) Image recognition apparatus, image recognition method, and computer program for image recognition
JP2013254242A (en) Image recognition device, image recognition method, and image recognition program
JP2017120455A (en) Information processing device, program and control method
JP2013029996A (en) Image processing device
JP5371015B2 (en) Cross mark detection apparatus and method, and program
JP2020149184A (en) Information processor and control method thereof and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160113

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170220

R150 Certificate of patent or registration of utility model

Ref document number: 6107372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees